KR100530853B1 - Device for encoding video information of mpeg-4 encoder and thereof method - Google Patents
Device for encoding video information of mpeg-4 encoder and thereof method Download PDFInfo
- Publication number
- KR100530853B1 KR100530853B1 KR10-1999-0012597A KR19990012597A KR100530853B1 KR 100530853 B1 KR100530853 B1 KR 100530853B1 KR 19990012597 A KR19990012597 A KR 19990012597A KR 100530853 B1 KR100530853 B1 KR 100530853B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- block
- merged
- separation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/007—Transform coding, e.g. discrete cosine transform
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Discrete Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
본 발명은 영상정보 부호화 장치 및 그 방법, 특히 블록내 및 블록간에 존재하는 원영상정보 및 영상오차정보의 공간 잉여성을 이용한 물체경계블록 합병/분리 기술이 적용된 MPEG-4 부호화기의 영상정보 부호화장치 및 그 방법에 관한 것으로서, 본 발명에 의한 MPEG-4 부호화기의 영상정보 부호화장치 및 그 방법에 의하면 영역기반의 영상정보 부호화시 물체경계블록을 합병할 것인지 분리할 것인지의 여부를 복원된 모양정보를 이용하여 판단한 후 그에 따른 물체 경계블록 합병/분리 정보를 추출하는 물체경계블록 합병/분리 정보추출부를 물체경계블록 합병부 및 합병된 블록분리부와 분리시켜 구성하므로써 중복된 구성을 피할 수 있어 시스템 구현시 복잡도를 줄일 수 있도록 한다는 뛰어난 효과가 있다.The present invention provides an image information encoding apparatus and method thereof, and in particular, an image information encoding apparatus of an MPEG-4 encoder to which an object boundary block merging / separation technique using spatial surplus of original image information and image error information existing in and between blocks is applied. And an image information encoding apparatus of an MPEG-4 encoder according to the present invention, and a method for reconstructing shape information whether or not to merge or separate an object boundary block when encoding region-based image information. By using the object boundary block merging / separation information extracting unit to separate the object boundary block merging / separation information from the object boundary block merging unit and the merged block separation unit, the redundant configuration can be avoided. This has the effect of reducing the complexity of the time.
Description
본 발명은 영상정보 부호화 장치 및 그 방법에 관한 것으로, 특히 블록내 및 블록간에 존재하는 원영상정보 및 영상오차정보의 공간 잉여성을 이용한 물체경계블록 합병/분리 기술이 적용된 MPEG-4 부호화기의 영상정보 부호화장치 및 그 방법에 관한 것이다.The present invention relates to an image information encoding apparatus and a method thereof, and more particularly, to an image of an MPEG-4 encoder to which an object boundary block merging / separation technique using spatial surplus of original image information and image error information existing in and between blocks is applied. An information encoding apparatus and a method thereof are provided.
최근에 영상 및 음향부호화기술과 이에 따른 시스템 구성에 관한 국제 표준안인 MPEG-1 및 MPEG-2를 개발하고 의결한 MPEG 그룹이 차세대 영상 및 음향부호화 기술과 이에 따른 시스템 구성에 관한 국제표준안인 MPEG-4를 연구 및 개발중에 있다. MPEG Group, which recently developed and decided on MPEG-1 and MPEG-2, the international standard for image and audio encoding technology and system configuration, has decided on MPEG-, the international standard for the next generation image and audio encoding technology and system configuration. 4 is under research and development.
MPEG-4의 개발은 기존의 표준안으로는 지원할 수 없는 차세대 영상 및 음향 응용물들을 지원할 필요성에서 출발하게 되었으며, 영상 및 음향 데이터 통신과 접속, 그리고 조작을 위한 새로운 방법들(예를 들어, 특성이 다른 네트워크를 통한 물체중심 대화형 기능 및 접속등)을 제공하며, 에러가 쉽게 발생되는 통신환경과 저전송율의 통신환경에서도 유용하게 동작하는 특성을 제공한다.The development of MPEG-4 began with the need to support the next generation of video and audio applications that could not be supported by existing standards, and new methods for video and audio data communication, access and manipulation (e.g. Object-oriented interactive functions and connections through other networks), and provide useful characteristics in communication environments where errors are easily generated and communication environments with low data rates.
또한, 상기 MPEG-4 기술은 컴퓨터 그래픽기술을 통합하여 자연/인공 영상 및 음향을 함께 부호화하고 조작할 수 있는 기능들을 제공하며, 멀티미디어 정보의 급팽창과 기술향상에 의해 새롭게 개발됐거나 개발예정인 저가, 고기능의 응용분야들에 요구되는 기능들을 지원할 수 있도록 확장가능하고 개방적인 구조를 가지게 되며, 그중에는 전송 및 저장기능과 비용절감에 필요한 부호화 효과의 향상기능(IMPROVED COMPRESSION EFFICIENCY)이 있다.In addition, the MPEG-4 technology integrates computer graphics technology and provides functions for encoding and manipulating natural / artificial images and sounds together, and low cost, newly developed or expected to be developed due to rapid expansion and improvement of multimedia information. It has an extensible and open structure to support the functions required for high-performance applications, among which is the IMPROVED COMPRESSION EFFICIENCY.
현재 MPEG-4 기술이 응용될 것으로 기대되는 응용물로는 인터넷 멀티미디어(IMM; INTERNET MULTIMEDIA), 대화형 비디오 게임(IVG; INTERACTIVE VIDEO GAMES), 영상회의 및 영상전화등의 상호통신(IPC; INTERPERSONAL COMMUNICATIONS), 쌍방향 저장매체(ISM; INTERACTIVE STORAGE MEDIA), 멀티미디어 전자우편(MMM; MULTIMEDIA MAILING), 무선멀티미디어(WMM; WIRELESS MULTIMEDIA), ATM망을 이용한 네트웍 데이터베이스서비스(NDB; NETWORKED DATABASE SERVICE), 원격응급시스템(RES; REMOTE EMERGENCY SYSTEM) 및 원격영상감시(RVS; REMOTE VIDEO SURVEILLANCE)등이 있다.Applications currently expected to apply MPEG-4 technology include Internet multimedia (IMM; INTERNET MULTIMEDIA), interactive video games (IVG; INTERACTIVE VIDEO GAMES), video conferencing and video telephony (IPC; INTERPERSONAL COMMUNICATIONS). ), INTERACTIVE STORAGE MEDIA (ISM), MULTIMEDIA MAILING (MMM), WIRELESS MULTIMEDIA (WMM), NETWORKED DATABASE SERVICE (NDB), ATM (RES; REMOTE EMERGENCY SYSTEM) and REMOTE VIDEO SURVEILLANCE (RVS).
또한, MPEG-4 기술은 기존의 응용물이나 앞으로 기대되는 응용물들을 지원하기 위해서는 사용자들이 영상내의 원하는 객체만을 통신할 수 있고, 검색하고 읽을 수 있도록 접근가능해야 하며, 자르고 붙일 수 있도록 하는 편집기능을 지원해야 한다.In addition, MPEG-4 technology requires that users can communicate only with the desired object in the video, access to search and read, and cut and paste to support existing or future applications. Should support this.
도 1은 일반적인 MPEG-4 영상부호화기의 하드웨어적인 블록구성도로서, 기존의 영상 부호화 세계표준인 H.261, MPEG-1, H.263 및 MPEG-2의 영상부호화기 구조와는 상이한 구조를 지니며, 일반적인 MPEG-4에 대해 도 1을 참조하여 상세히 설명하기로 한다.1 is a hardware block diagram of a typical MPEG-4 video encoder, and has a structure different from that of the H.261, MPEG-1, H.263, and MPEG-2 video encoders. The general MPEG-4 will be described in detail with reference to FIG. 1.
VOP(VIDEO OBJECT PLANE; 이하, VOP라 명명함.)형성부(100)는 시간축상의 한 시점의 사용자가 접근 및 편집할 수 있는 임의 모양의 내용물 객체를 의미하는 VOP를 형성시키는 역할을 하고, 움직임추정부(200)는 상기 VOP 형성부(100)에서 형성된 VOP의 영상정보를 입력받고 VOP 검출부(800)에서 재현된 이전 VOP의 영상정보를 입력받으며, 모양정보 부호화부(300)에서 복원된 모양정보 또는 원 모양정보를 입력받아 매크로블록 단위로 움직임을 추정한 움직임정보를 출력한다.VOP (VIDEO OBJECT PLANE; hereinafter referred to as VOP) forming unit 100 serves to form a VOP, meaning a content object of any shape that can be accessed and edited by the user at a point in time on the time axis, and moves The estimator 200 receives image information of the VOP formed by the VOP forming unit 100, receives image information of the previous VOP reproduced by the VOP detector 800, and reconstructs the shape of the shape information encoder 300. It receives the information or the circular shape information and outputs the motion information estimated motion in macroblock units.
움직임보상부(400)는 상기 움직임추정부(200)에서 추정된 움직임정보를 입력받고, 모양정보 부호화부(300)에서 복원된 모양정보를 입력받으며, VOP 검출부(800)에서 재현된 이전 VOP의 영상정보를 입력받아 움직임이 보상된 VOP의 영상정보를 출력하고, 감산기(500)는 상기 움직임보상부(400)에서 움직임이 보상된 VOP의 영상정보를 입력받는 동시에 상기 VOP 형성부(100)에서 형성된 VOP의 영상정보를 입력받아 두 신호의 차를 구하는 역할을 한다.The motion compensator 400 receives the motion information estimated by the motion estimator 200, receives the shape information reconstructed by the shape information encoder 300, and reproduces the previous VOP reproduced by the VOP detector 800. Image information of the motion-compensated VOP is received by receiving the image information, and the subtractor 500 receives the image information of the motion-compensated VOP from the motion compensator 400 and at the same time the VOP forming part 100. It receives the image information of the formed VOP and plays a role of calculating the difference between the two signals.
영상정보 부호화부(600)는 상기 감산기(500)에서 차이값을 입력받아 매크로블록의 8×8 블록단위로 부호화하는 역할을 하고, 가산기(700)는 상기 움직임보상부(400)에서 움직임이 보상된 VOP의 영상정보와 상기 영상정보 부호화부(600)에서 부호화된 대상물의 내부정보를 입력받아 가산하는 역할을 한다.The image information encoder 600 receives the difference value from the subtractor 500 to encode the macroblock in 8 × 8 block units, and the adder 700 compensates for the motion in the motion compensator 400. It receives and adds the image information of the VOP and the internal information of the object encoded by the image information encoder 600.
VOP 검출부(800)는 상기 가산기(700)에서 가산값을 입력받아 이전 VOP의 영상정보를 검출하는 역할을 하고, 그 검출된 이전 VOP의 영상정보는 상기 움직임추정부(200) 및 움직임보상부(400)에 입력되어 움직임추정 및 움직임보상에 사용된다.The VOP detector 800 detects the image information of the previous VOP by receiving the addition value from the adder 700, and the detected image information of the previous VOP is the motion estimator 200 and the motion compensator ( 400 is used for motion estimation and motion compensation.
모양정보 부호화부(300)는 상기 VOP 형성부(100)에서 VOP의 모양정보를 입력받아 부호화 및 복호화하여 출력하는 동시에 현재 입력되는 원래의 모양정보를 출력하는 역할을 한다.The shape information encoder 300 receives the shape information of the VOP from the VOP forming unit 100, encodes, decodes, and outputs the original shape information.
상기 부호화된 모양정보는 다중화부(900)에 입력되어 부호화된 영상정보와 다중화되어 전송되며, 복호화된 모양정보(복원된 모양정보) 및 원래의 모양정보는 점선으로 표시된 바와같이 움직임추정부(200), 움직임보상부(400) 및 영상정보 부호화부(600)에 입력되어 움직임추정, 움직임보상 및 대상물의 내부 영상정보를 부호화 하는데 사용할 수 있다.The coded shape information is input to the multiplexer 900 and multiplexed with the encoded image information, and the decoded shape information (restored shape information) and the original shape information are displayed as a dotted line. The motion compensation unit 400 may be input to the motion compensator 400 and the image information encoder 600 to encode motion estimation, motion compensation, and internal image information of an object.
다중화부(900)는 상기 움직임추정부(200)에서 추정된 움직임정보, 상기 영상정보 부호화부(600)에서 부호화된 대상물의 영상정보 및 모양정보 부호화부(300)에서 부호화된 모양정보를 다중화 하는 역할을 하고, 버퍼(910)는 상기 다중화부(900)에서 다중화된 신호를 비트스트림으로 전송하는 역할을 한다.The multiplexer 900 multiplexes the motion information estimated by the motion estimation unit 200, the image information of the object encoded by the image information encoder 600, and the shape information encoded by the shape information encoder 300. The buffer 910 serves to transmit the multiplexed signal in the multiplexer 900 as a bitstream.
MPEG-4 영상부호화기의 가장 큰 특징은 모양정보 부호화부(300)와 VOP라는 개념의 도입이 기존영상정보 부호화 세계표준과는 다르다는 것이다.The biggest feature of the MPEG-4 video encoder is that the introduction of the shape information encoder 300 and the concept of VOP is different from the existing world information encoding standard.
도 2는 임의의 영상에서 전체영상이나 그 영상을 이루는 의미있는 물체영역내의 정보만으로 구성된 영상인 VOP를 나타낸 도면으로서, 영상부호화를 위해 도 3과같이 16×16 픽셀들로 구성된 매크로블록들로 재구성된다.FIG. 2 is a diagram illustrating a VOP, which is an image composed only of information in a whole image or a meaningful object region constituting the image in an arbitrary image, and reconstructed into macroblocks composed of 16 × 16 pixels as shown in FIG. 3 for image encoding. do.
도 3은 VOP내의 매크로블록의 종류를 도시한 도면으로서, VOP가 매크로블록으로 재구성되면, 세가지 종류의 매크로블록이 존재하게 되는데, 물체내의 정보만으로 구성된 물체내 매크로블록과, 물체내의 정보를 하나도 갖지 않는 물체밖 매크로블록과, 물체내의 정보를 부분적으로 갖는 물체경계매크로블록이 그것이다.FIG. 3 is a diagram illustrating the types of macroblocks in a VOP. When the VOP is reconstructed into macroblocks, three types of macroblocks exist. The macroblock in the object composed of only the information in the object and the information in the object are not included. Out-of-object macroblocks and object-bound macroblocks that partially contain information within the object.
도 4는 VOP내의 블록 종류를 도시한 도면으로서, 물체내의 정보만으로 구성된 물체내 블록과, 물체내의 정보를 갖지않는 물체밖블록과, 물체내의 정보를 부분적으로 갖는 물체경계블록이 존재한다.FIG. 4 is a diagram showing the types of blocks in a VOP, in which there is an intra-object block composed of only the information in the object, an out-of-object block having no information in the object, and an object boundary block partially having the information in the object.
상기 물체내 매크로블록은 물체내 블록으로만 구성되고, 상기 물체밖 매크로블록은 물체밖블록으로만 구성되며, 상기 물체경계매크로블록은 8×8 픽셀들로 구성된 세가지종류의 블록이 존재할 수 있는 데, 물체내블록, 물체밖블록, 물체경계블록이 그것이다.The macroblock in the object is composed of only the blocks within the object, the macroblock outside the object is composed of only the blocks outside the object, the object boundary macroblock may be three kinds of blocks consisting of 8 × 8 pixels. , Block inside object, block outside object, object boundary block.
한편, 물체경계블록의 원영상정보 및 영상오차정보를 부호화하기 위해서는 물체밖 영역에 있는 픽셀들의 픽셀값이 먼저 결정되어야 하며, 이러한 영상간 신호인 영상오차신호(RESIDUAL TEXTURE DATA)와 원영상정보(INTRA TEXTURE DATA)를 텍스처(TEXTURE) 정보라고 한다.On the other hand, in order to encode the original image information and the image error information of the object boundary block, the pixel values of the pixels in the region outside the object must be determined first, and the image error signal (RESIDUAL TEXTURE DATA) and the original image information ( INTRA TEXTURE DATA) is called texture information.
최근까지 고려된 임의 모양의 VOP 텍스처 정보부호화기술로는 패딩을 이용한 패딩기술과 패딩을 이용하지 않는 기술이 있는데, 패딩기술로는 영상내 영상정보 부호화시 적용되는 저주파확장(LPE; LOW PASS EXTRAPOLATION)기술과 영상간 영상정보 부호화시 제로(ZERO)값을 채우는 제로패딩(ZERO PADDING)기술이 있고, 패딩없이 부호화하는 기술로는 물체밖 정보에 대해서 패딩하지 않고 객체내 정보만을 이용하는 모양적응형 DCT(SHAPE ADAPTIVE DISCRETE COSINE TRANSFORM)기술이 있다.Arbitrary shape VOP texture information encoding techniques considered until recently include padding techniques using padding and techniques that do not use padding. As padding techniques, low frequency extension (LPE; LOW PASS EXTRAPOLATION) applied when encoding image information in an image Technology and ZERO PADDING technology that fills zero value when encoding image information between images, and coding technology without padding uses shape-adaptive DCT (PID) that uses only intra-object information without padding. SHAPE ADAPTIVE DISCRETE COSINE TRANSFORM) technology.
도 5는 영역기반의 영상부호화 방법시의 저주파성분 확장 패딩기술을 설명하기 위한 도면으로서, 상기 도 1의 감산기(500)로부터 영상오차정보 또는 원영상정보(a)를 입력받고, 모양정보 부호화부(300)로부터 패딩모양정보(예; 원영상 모양정보, 복원된 모양정보 또는 두정보를 이용하여 새롭게 구성한 모양정보등)를 입력받아 물체내 신호들만의 평균값을 구하는 평균값계산기(612)와, 상기 평균값계산기(612)에서 구해진 평균값으로 물체밖 영역을 패딩하는 평균값패딩부(613)와, 상기 평균값패딩부(613)의 출력신호(b)를 입력받아 패딩된 물체밖 영역에 속한 픽셀들에 대해서만 상, 하, 좌, 우의 픽셀중에서 8×8 블록내의 픽셀값들을 더한 후 상, 하, 좌, 우의 픽셀중에서 8×8 블록내에 속한 픽셀의 수로 나눈값으로 픽셀값을 다시 대체하여 결과값(c)을 출력하는 저주파 필터링부(614)로 구성되어 있다. FIG. 5 is a view for explaining a low frequency component extended padding technique in an area-based image encoding method, and receives image error information or original image information (a) from the subtractor 500 of FIG. An average value calculator 612 which receives the padding shape information (eg, original image shape information, reconstructed shape information, or newly formed shape information using both information) from 300 to obtain an average value of only signals in the object; The average value padding unit 613 for padding the outside of the object area with the average value obtained by the average value calculator 612, and the output signal (b) of the average value padding unit 613 is input only to the pixels belonging to the padded area outside the object. The result is obtained by adding the pixel values in the 8 × 8 block among the pixels in the top, bottom, left and right, and dividing the pixel value by the number divided by the number of pixels in the 8 × 8 block among the pixels in the top, bottom, left and right. Outputting The low frequency filtering unit 614 is configured.
도 6은 영역기반의 영상부호화 방법시의 제로패딩기술을 설명하기 위한 도면으로서, 도 1의 감산기(500)로부터 영상오차정보 또는 원영상정보를 입력받고, 모양정보 부호화부(300)로부터 패딩모양정보(예; 원 영상모양정보, 복원된 모양정보 또는 두정보를 이용하여 새롭게 구성한 모양정보등)를 입력받아 물체밖 영역을 제로(0)값으로 패딩하는 제로값 패딩부(615)로 구성되어 있다.FIG. 6 is a diagram for describing a zero padding technique in an area-based image encoding method, and receives image error information or original image information from the subtractor 500 of FIG. 1, and has a padding shape from the shape information encoder 300. It consists of a zero value padding unit 615 that receives information (eg, original image shape information, restored shape information or newly formed shape information using two pieces of information) and pads an area outside the object to zero value. have.
도 7은 영역기반의 영상부호화 방법시의 모양적응형 DCT 기술을 설명하기 위한 도면으로서, (a)와 같은 물체내 영상정보(원영상정보 또는 영상오차신호)에 대해 (b)와 같이 위쪽으로 이동시킨 후 수직방향의 1차원 DCT를 수행하고, (c)와 같이 형성된 계수를 (d)와 같이 왼쪽으로 이동시킨 후 (e)와 같이 수평방향의 1차원 DCT를 수행하므로써 (f)와 같이 모양적응형 DCT계수들이 형성된다.FIG. 7 is a view for explaining a shape-adaptive DCT technique in an area-based image encoding method, and upwards as shown in (b) for intra-object image information (original image information or image error signal) as shown in (a). After moving, the vertical one-dimensional DCT is performed, and the coefficient formed as shown in (c) is moved to the left as shown in (d), and the horizontal one-dimensional DCT is performed as shown in (e) as shown in (f). Shape-adaptive DCT coefficients are formed.
모양적응형 DCT후의 DCT계수는 양자화가 수행되고, 지그재그 스캔이 적용되는데, 계수가 존재하지 않는 영역에 대해서는 스킵하는 적응형 스캔(ADAPTIVE SCAN)을 실행하여 부호화하는 기술이다. 모양적응형 DCT는 패딩기술과는 달리 물체경계블록내의 물체내 영상정보만을 이용하여 부호화 한다.The DCT coefficient after the shape-adaptive DCT is quantized and a zigzag scan is applied. The DCT coefficient is a technique of encoding by performing an adaptive scan that skips an area where no coefficient exists. Unlike padding technology, shape-adaptive DCT encodes using only intra-object image information in the object boundary block.
상기 패딩기술 및 모양적응형 DCT 기술과 함께 임의 모양의 VOP 부호화 효율을 높이기 위해 물체경계블록 합병/분리 기술이 적용된다. 현재 물체경계블록 합병/분리 기술에 의해 영상정보 부호화부를 도 8 또는 도 9와 같이 구성될 수 있으며, MPEG-4 영상부호화 버전 2 세계표준화를 위한 기술로 채택되어 있다.In addition to the padding technique and the shape-adaptive DCT technique, an object boundary block merge / separation technique is applied to increase the VOP coding efficiency of an arbitrary shape. Currently, the image information encoder may be configured as shown in FIG. 8 or 9 by the object boundary block merging / separation technology, and has been adopted as a technology for MPEG-4 image coding version 2 world standardization.
상기 물체경계블록 합병/분리기술은 8×8 블록내 뿐아니라 근접한 8×8 블록간에 존재하는 영상내 및 영상간 정보의 공간잉여성을 이용하여 부호화효율을 향상시킬 수 있는 물체경계블록 합병과정과 그 합병의 역과정으로서 합병된 블록 분리과정을 이용한 영상정보 부호화 방법이다. The object boundary block merging / separation technique includes an object boundary block merging process that can improve encoding efficiency by using spatial surplus of intra- and inter-image information existing between 8 × 8 blocks as well as adjacent 8 × 8 blocks. It is a video information encoding method using a merged block separation process as a reverse process of the merge.
도 8은 종래 패딩기술이 적용된 물체경계블록 합병/분리 기술에 따른 영상정보 부호화부의 구성도로서, 물체밖 영역패딩부(610), 물체경계블록 합병부(620), DCT부(630), 양자화부(640), DCT 계수 및 관련정보 부호화부(650), 역 양자화부(660), 역 DCT부(670) 및 합병된 블록분리부(680)로 구성되어 있다.8 is a block diagram of an image information encoder according to an object boundary block merging / separation technique to which a conventional padding technique is applied. The out-of-object region padding unit 610, the object boundary block merging unit 620, the DCT unit 630, and quantization are illustrated in FIG. A unit 640, a DCT coefficient and related information encoder 650, an inverse quantization unit 660, an inverse DCT unit 670, and a merged block separation unit 680.
상기 물체밖 영역패딩부(610)는 도 1의 감산기(500)로부터 원 VOP 영상정보 또는 영상오차정보를 입력받고, 모양정보 부호화부(300)로부터 패딩을 위한 모양정보(원영상모양정보, 복원된 모양정보 또는 원영상모양정보와 복원된 모양정보를 이용하여 생성한 임의의 모양정보등)를 입력받아 물체밖영역을 패딩하는 역할을 한다. The out-of-object region padding unit 610 receives original VOP image information or image error information from the subtractor 500 of FIG. 1, and shape information (original image shape information, reconstruction) for padding from the shape information encoder 300. The shape information or the original image shape information and the arbitrary shape information generated by using the restored shape information).
상기 물체경계블록 합병부(620)는 상기 물체밖 영역패딩부(610)로부터의 영상정보와 상기 모양정보 부호화부(300)로부터 복원된 모양정보를 입력받고, 그 모양정보에 의해 합병여부를 판단하여 합병가능시 영상정보의 물체경계블록을 합병하는 역할을 한다.The object boundary block merging unit 620 receives image information from the out-of-object region padding unit 610 and shape information restored from the shape information encoding unit 300, and determines whether to merge with the shape information. It merges the object boundary blocks of the image information when merging is possible.
상기 DCT부(630)는 상기 물체경계블록 합병부(620)로부터 물체경계블록이 합병된 영상정보를 입력받아 DCT를 수행하는 역할을 하고, 상기 양자화부(640)는 상기 DCT부(630)에서 DCT계수를 입력받아 양자화하는 역할을 한다.The DCT unit 630 receives the image information obtained by merging the object boundary blocks from the object boundary block merging unit 620 to perform DCT, and the quantization unit 640 performs the DCT in the DCT unit 630. DCT coefficient is input and quantizes.
상기 DCT계수 및 관련정보 부호화부(650)는 상기 양자화부(640)에서 양자화된 DCT계수를 입력받아 가변장부호화하는 동시에 관련정보를 부호화하여 상기 다중화부(900)로 출력하는 역할을 한다.The DCT coefficient and the related information encoder 650 receive the variable quantized DCT coefficients by the quantizer 640 and encode the related information while outputting the encoded information to the multiplexer 900.
상기 역 양자화부(660)는 상기 양자화부(640)에서 양자화된 DCT 계수를 입력받아 역 양자화시켜 역 양자화된 DCT계수를 출력하는 역할을 한다.The inverse quantization unit 660 receives inverse quantization by receiving the quantized DCT coefficients from the quantization unit 640 and outputs the inverse quantized DCT coefficients.
상기 역 DCT부(670)는 상기 역 양자화부(660)에서 역 양자화된 DCT 계수를 입력받아 역 DCT 변환하여 복호화된 신호를 출력하는 역할을 한다.The inverse DCT unit 670 receives inverse quantized DCT coefficients from the inverse quantizer 660 and performs inverse DCT conversion to output a decoded signal.
상기 합병된 블록분리부(680)는 상기 역 DCT부(670)로부터 복호화된 영상정보를 입력받고, 상기 모양정보 부호화부(300)에서 복원된 모양정보를 입력받아 분리여부를 판단하여 분리가능시 합병된 블록을 분리하여 가산기(700)를 통해 VOP 검출부(800)로 출력하는 역할을 한다.The merged block separator 680 receives the decoded image information from the inverse DCT unit 670, receives the shape information restored by the shape information encoder 300, and determines whether or not to separate the received image information. Separating the merged block serves to output to the VOP detector 800 through the adder (700).
도 9는 종래의 모양적응형 DCT가 적용된 물체경계블록 합병/분리 기술에 따른 영상정보 부호화부의 구성도로서, 물체경계블록 합병부(611), 모양적응형 DCT부(621), 양자화부(631), 모양적응형 DCT 계수 및 관련정보 부호화부(641), 역 양자화부(651), 역 모양 적응형 DCT부(661), 합병된 블록분리부(671)로 구성되어 있다.9 is a block diagram of an image information encoder according to a conventional object boundary block merging / separation technique to which a shape adaptive DCT is applied. The object boundary block merging unit 611, the shape adaptive DCT unit 621, and the quantization unit 631 are shown. ), A shape adaptive DCT coefficient and related information encoding unit 641, an inverse quantization unit 651, an inverse shape adaptive DCT unit 661, and a merged block separation unit 671.
상기 물체경계블록 합병부(611)는 상기 감산기(500)로부터 원영상정보 또는 영상오차정보를 입력받고, 물체경계블록의 복원된 모양정보를 입력받아 상기 모양정보에 의해 합병여부를 판단하여 합병가능시 영상정보의 물체경계블록을 합병하는 역할을 한다.The object boundary block merging unit 611 receives the original image information or the image error information from the subtractor 500, receives the restored shape information of the object boundary block, and determines whether or not the object boundary is merged based on the shape information. It merges the object boundary blocks of visual image information.
상기 모양적응형 DCT부(621)는 상기 모양정보 부호화부(300)로부터 물체영역을 정의하는 복원된 모양정보를 입력받고 상기 물체경계블록 합병부(611)로부터 물체경계블록이 합병된 영상정보를 입력받아 모양적응형 DCT를 수행하는 역할을 하고, 상기 양자화부(631)는 상기 모양적응형 DCT부(621)에서 모양적응형 DCT계수를 입력받아 양자화하는 역할을 한다. The shape-adaptive DCT unit 621 receives reconstructed shape information defining an object area from the shape information encoder 300 and receives image information obtained by merging an object boundary block from the object boundary block merging unit 611. The shape adaptation DCT is received and the quantization unit 631 receives the shape adaptation DCT coefficient from the shape adaptation DCT unit 621 and quantizes the shape adaptation DCT.
상기 모양적응형 DCT계수 및 관련정보 부호화부(641)는 상기 양자화부(631)에서 양자화된 모양적응형 DCT계수를 계수가 존재하지 않는 영역에 대해서는 스킵하여 지그재그 스캔을 적용하는 적응형 스캔(ADAPTIVE SCAN)을 실행하여 부호화하고, 관련정보를 부호화하여 신호정보를 상기 다중화부(900)로 출력시키는 역할을 한다.The shape-adaptive DCT coefficient and the related information encoder 641 skips the quantized shape-adaptive DCT coefficient in the region where no coefficient exists and applies a zigzag scan to the quantization unit 631 (ADAPTIVE). SCAN) to perform encoding, to encode related information, and to output signal information to the multiplexer 900.
상기 역 양자화부(651)는 상기 양자화부(631)에서 양자화된 신호를 입력받아 역 양자화하는 역할을 하고, 상기 역 모양적응형 DCT부(661)는 상기 역 양자화부(651)에서 역 양자화된 신호와 상기 모양정보 부호화부(300)로부터 물체영역을 정의하는 복원된 모양정보를 입력받아 역 모양적응형 DCT를 수행하는 역할을 한다.The inverse quantization unit 651 receives the quantized signal from the quantization unit 631 and performs inverse quantization. The inverse shape-adaptive DCT unit 661 is inverse quantized by the inverse quantization unit 651. The shape information encoder 300 receives the restored shape information defining the object region from the shape information encoder 300 and performs inverse shape adaptation DCT.
상기 합병된 블록 분리부(671)는 상기 역모양적응형 DCT부(661)로부터 복호화된 신호를 입력받고, 상기 모양정보 부호화부(300)로부터 상기 물체경계블록 합병부(611)에서 이용한 모양정보와 동일한 모양정보인 물체경계블록의 합병/분리를 위한 복원된 모양정보를 입력받아 합병된 블록을 분리하여 가산기(700)를 통해 VOP 검출부(800)로 출력하는 역할을 한다.The merged block separator 671 receives the decoded signal from the inversely adaptive DCT unit 661, and uses the shape information used by the object boundary block merging unit 611 from the shape information encoder 300. It receives the restored shape information for merging / separation of the object boundary block, which is the same shape information, and separates the merged block and outputs it to the VOP detection unit 800 through the adder 700.
그러나, 상기 종래 패딩기술 또는 모양적응형 DCT가 적용된 물체경계블록 합병/분리 기술에 따른 영상정보 부호화부는 합병과정과 분리과정에서 각각 모양정보 부호화부로부터 복원된 모양정보를 입력받아 합병 및 분리여부를 판단한 후 영상정보의 물체경계블록의 합병 및 분리동작을 수행하므로 시스템 구현시 구성이 복잡하다는 문제점이 있었다.However, the image information encoder according to the object boundary block merge / separation technique using the conventional padding technique or the shape-adaptive DCT receives the shape information restored from the shape information encoder in the merge process and the separate process, respectively. After the determination, the merging and separating of the object boundary blocks of the image information is performed, which causes a complicated configuration when implementing the system.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 중복된 구성을 피할 수 있어 시스템 구현시 복잡도를 줄일 수 있도록 하는 MPEG-4 부호화기의 영상정보 부호화장치 및 그 방법을 제공하는 데 있다.Accordingly, an object of the present invention is to solve the above problems, and an object of the present invention is to provide an image information encoding apparatus and method for an MPEG-4 encoder, which can avoid a redundant configuration and reduce complexity in system implementation. To provide.
상기와 같은 목적을 달성하기 위한 본 발명의 제 1실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치는 원영상정보 또는 영상오차정보를 입력받아 패딩을 위한 모양정보를 이용하여 영상정보의 물체밖 영역을 패딩하는 물체밖 영역패딩부와, 복원된 모양정보를 입력받아 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지의 여부를 판단하여 그에따른 물체경계블록 합병/분리 정보를 추출하는 물체경계블록 합병/분리 정보추출부와, 상기 물체밖 영역패딩부에서 패딩된 영상정보를 입력받고 복원된 모양정보 및 상기 물체경계블록 합병/분리 정보추출부에서 입력되는 합병/분리정보를 이용하여 물체경계블록의 영상정보를 합병하는 물체경계블록 합병부와, 상기 물체경계블록 합병부에서 영상정보를 입력받아 DCT를 수행하는 DCT부와, 상기 DCT부에서 DCT계수를 입력받아 양자화하는 양자화부와, 상기 양자화부에서 양자화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부에서 입력되는 합병/분리정보를 이용하여 가변장부호화 하는 DCT계수 및 관련정보 부호화부로 이루어진 것을 특징으로 한다. In order to achieve the above object, the video information encoding apparatus of the MPEG-4 encoder according to the first embodiment of the present invention receives the original image information or the image error information and uses the shape information for padding to remove the object from the image information. The object boundary that extracts the object boundary block merging / separation information according to whether to merge the object boundary block and whether to separate the object boundary block by receiving the rest area padding unit and the restored shape information. Object boundary using a block merge / separation information extractor, shape information restored and received from the object padding region outside the object padding unit, and merge / separation information input from the object boundary block merge / separation information extractor An object boundary block merging unit for merging image information of blocks, a DCT unit for receiving DC information from the object boundary block merging unit and performing DCT; A DCT coefficient that is variably encoded using a merger / separation information input from the object boundary block merger / separation information extraction unit by receiving a quantization unit that receives and quantizes a DCT coefficient from the DCT unit. And a related information encoder.
상기와 같은 목적을 달성하기 위한 본 발명의 제 1실시예에 의한 MPEG-4 부호화기의 영상정보 부호화방법은 원 영상정보 또는 영상오차정보를 패딩을 위한 모양정보를 이용하여 물체밖 영역을 패딩하는 제 1단계와, 상기 제 1단계에서 패딩된 영상정보를 추출된 합병/분리 정보 및 복원된 모양정보를 이용하여 물체경계블록의 영상정보를 합병하는 제 2단계와, 상기 제 2단계에서 합병된 영상정보를 DCT 수행하고 양자화하는 제 3단계와, 상기 제 3단계에서 양자화된 DCT계수를 추출된 합병/분리정보를 이용하여 가변장부호화하는 제 4단계로 이루어진 것을 특징으로 한다. The video information encoding method of the MPEG-4 encoder according to the first embodiment of the present invention for achieving the above object is to pad the area outside the object using the shape information for padding the original video information or video error information. A first step and a second step of merging the image information of the object boundary block using the merged / separated information extracted from the image information padded in the first step and the restored shape information; and the image merged in the second step. And a fourth step of performing a DCT on the information and quantizing the information, and a fourth step of variable length encoding the DCT coefficients quantized in the third step by using the merged / separated information extracted.
상기와 같은 목적을 달성하기 위한 본 발명의 제 2실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치는 복원된 모양정보를 입력받아 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출하는 물체경계블록 합병/분리 정보추출부와, 원 영상정보 또는 영상오차정보를 입력받아 복원된 모양정보 및 상기 물체경계블록 합병/분리 정보추출부에서 입력되는 합병/분리 정보를 이용하여 물체경계블록의 영상정보를 합병하는 물체경계블록 합병부와, 상기 물체경계블록 합병부에서 합병된 영상정보를 입력받아 상기 물체경계블록 합병/분리 정보추출부에서 입력되는 합병/분리 정보 및 합병된 영상의 모양정보를 이용하여 모양적응형 DCT를 수행하는 모양적응형 DCT부와, 상기 모양적응형 DCT부에서 모양적응형 DCT계수를 입력받아 양자화하는 양자화부와, 상기 양자화부에서 양자화된 모양적응형 DCT계수를 입력받아 상기 물체경계블록 합병/분리 정보추출부에서 입력되는 합병/분리정보 및 합병된 영상의 모양정보를 이용하여 계수가 존재하지 않은 영역에 대해서는 스킵하여 지그재그 스캔을 적용하는 적응형 스캔을 실행하여 부호화하는 모양적응형 DCT계수 및 관련정보 부호화부로 이루어진 것을 특징으로 한다. In order to achieve the above object, the image information encoding apparatus of the MPEG-4 encoder according to the second embodiment of the present invention receives the restored shape information and determines whether or not to merge the object boundary block. Object boundary block merging / separation information extractor for determining and extracting object boundary block merging / separation information, and shape information restored by receiving original image information or image error information and object boundary block merging / separation information extracting unit The object boundary block merging unit for merging the image information of the object boundary block using the merge / separation information input from the object and the object boundary block merging / separation information extracting unit which receives the image information merged from the object boundary block merging unit. A shape-adaptive DCT unit performing shape-adaptive DCT by using the merge / separation information input from the image and shape information of the merged image; A quantization unit that receives and quantizes the shape-adaptive DCT coefficient from the quantitative DCT unit, and the merge / separation input from the object boundary block merging / separation information extraction unit by receiving the quantized shape-adaptive DCT coefficient from the quantization unit. A shape-adaptive DCT coefficient and an associated information encoding unit for performing an adaptive scan that applies a zigzag scan by skipping the region where the coefficient does not exist using the information and the shape information of the merged image are encoded.
상기와 같은 목적을 달성하기 위한 본 발명의 제 2실시예에 의한 MPEG-4 부호화기의 영상정보 부호화방법은 복원된 모양정보를 이용하여 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출하는 제 1단계와, 원 영상정보 또는 영상오차정보를 복원된 모양정보 및 상기 제 1단계에서 추출된 합병/분리 정보를 이용하여 물체경계블록의 영상정보를 합병하는 제 2단계와, 상기 제 2단계에서 합병된 영상정보를 상기 합병/분리 정보 및 합병된 영상의 모양정보를 입력받아 모양적응형 DCT를 수행하는 제 3단계와, 상기 제 3단계에서 얻어진 모양적응형 DCT계수를 양자화하는 제 4단계와, 상기 제 4단계에서 얻어진 양자화된 모양적응형 DCT계수를 입력받아 합병/분리정보 및 합병된 영상의 모양정보를 이용하여 계수가 존재하지 않은 영역에 대해서는 스킵하여 지그재그 스캔을 적용하는 적응형 스캔을 실행하여 부호화하는 제 5단계로 이루어진 것을 특징으로 한다. The video information encoding method of the MPEG-4 encoder according to the second embodiment of the present invention for achieving the above object is to determine whether or not to merge the object boundary block using the restored shape information. The first step of determining and extracting the object boundary block merging / separation information according to the determination, and using the shape information restored from the original image information or the image error information and the merging / separation information extracted in the first step, A second step of merging the image information, a third step of performing shape adaptation DCT by receiving the merged / separated information and the shape information of the merged image from the image information merged in the second step, and the third step; The fourth step of quantizing the shape-adaptive DCT coefficients obtained in the step; and the merged / separated information and the merged zero by receiving the quantized shape-adaptive DCT coefficients obtained in the fourth step. Skip for using the shape information of the area factor does not exist, characterized by comprising a fifth step of encoding by executing the adaptive scan applying the zigzag scanning.
상기와 같은 목적을 달성하기 위한 본 발명의 제 3실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치는 복원된 모양정보를 입력받아 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출하는 물체경계블록 합병/분리 정보추출부와, 원영상정보 또는 영상오차정보를 입력받아 복원된 모양정보 및 상기 물체경계블록 합병/분리 정보추출부에서 입력되는 합병/분리정보를 이용하여 물체경계블록의 영상정보를 합병하는 물체경계블록 합병부와, 상기 물체경계블록 합병/분리 정보추출부로부터 합병/분리정보를 입력받고 패딩을 위한 모양정보(원영상 모양정보, 복원된 모양정보 또는 원영상 모양정보와 복원된 모양정보를 이용하여 생성한 임의의 모양정보등)를 입력받아 물체경계블록이 합병된 블록 및 합병되지 않은 블록의 패딩을 위한 모양정보를 출력하는 패딩모양정보추출부와, 상기 물체경계블록 합병부로부터 영상정보를 입력받아 상기 패딩모양정보 추출부에서 입력되는 합병된 블록 및 합병되지않은 블록의 패딩을 위한 모양정보를 이용하여 물체밖영역을 패딩하는 물체밖 영역패딩부와, 상기 물체밖 영역패딩부로부터 영상정보를 입력받아 DCT를 수행하는 DCT부와, 상기 DCT부에서 DCT계수를 입력받아 양자화하는 양자화부와, 상기 양자화부에서 양자화된 DCT계수를 입력받아 상기 물체경계블록 합병/분리 정보추출부에서 입력되는 합병/분리정보를 이용하여 가변장부호화하는 DCT계수 및 관련정보 부호화부로 이루어진 것을 특징으로 한다. In order to achieve the above object, the image information encoding apparatus of the MPEG-4 encoder according to the third embodiment of the present invention receives whether the object shape block is to be merged and separated from the received shape information. Object boundary block merging / separation information extractor for determining and extracting object boundary block merging / separation information, and shape information restored by receiving original image information or image error information, and object boundary block merging / separation information extracting unit The object boundary block merging unit for merging the image information of the object boundary block by using the merge / separation information inputted from the object and the shape information for padding by receiving merge / separation information from the object boundary block merging / separation information extraction unit. Original image shape information, restored shape information or arbitrary shape information created using original image shape information and restored shape information) Padding shape information extraction unit for outputting the shape information for the padding of the boundary frame block merged and non-merged block, and merged input from the padding shape information extraction unit receiving image information from the object boundary block merger An out-of-object area padding unit for padding the out-of-object area by using shape information for padding the unblocked and unmerged blocks; a DCT unit for receiving DCT from the out-of-object area padding unit and performing DCT; A DCT that receives a DCT coefficient from the DCT unit and quantizes the DCT coefficient, and a DCT variable-coded using the merge / separation information input from the object boundary block merging / separation information extraction unit. And a coefficient and related information encoder.
상기와 같은 목적을 달성하기 위한 본 발명의 제 3실시예에 의한 MPEG-4 부호화기의 영상정보 부호화방법은 복원된 모양정보로서 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출하는 제 1단계와, 원영상정보 또는 영상오차정보를 복원된 모양정보 및 상기 제 1단계에서 추출된 합병/분리정보를 이용하여 물체경계블록의 영상정보를 합병하는 제 2단계와, 상기 제 1단계에서 추출한 합병/분리정보와 패딩을 위한 모양정보(원영상 모양정보, 복원된 모양정보 또는 원영상 모양정보와 복원된 모양정보를 이용하여 생성한 임의의 모양정보등)를 이용하여 물체경계블록이 합병된 블록 및 합병되지 않은 블록의 패딩을 위한 모양정보를 구하는 제 3단계와, 상기 제 2단계에서 구한 합병된 영상정보를 상기 제 3단계에서 구한 합병된 블록 및 합병되지않은 블록의 패딩을 위한 모양정보를 이용하여 물체밖영역을 패딩하는 제 4단계와, 상기 제 4단계에서 패딩한 영상정보를 DCT를 수행하는 제 5단계와, 상기 제 5단계에서 얻어진 DCT계수를 양자화하는 제 6단계와, 상기 제 6단계에서 얻어진 양자화된 DCT계수를 상기 제 1단계에서 추출한 합병/분리정보를 이용하여 가변장부호화하는 제 7단계로 이루어진 것을 특징으로 한다. In order to achieve the above object, the video information encoding method of the MPEG-4 encoder according to the third embodiment of the present invention determines whether to merge or separate object boundary blocks as reconstructed shape information. Image information of the object boundary block using the first step of extracting object boundary block merging / separation information, shape information reconstructed from the original image information or image error information, and merge / separation information extracted in the first step. A second step of merging and the shape information for the merging / separation information and padding extracted in the first step (original image shape information, reconstructed shape information or original image shape information and reconstructed shape information) The shape information for the padding of the merged and non-merged blocks using the shape information, etc.); A fourth step of padding the out-of-object region by using the shape information for padding the merged block and the non-merged block obtained by the merged image information in the third step; and DCT padding the image information padded in the fourth step. A variable length using the merged / separated information extracted in the first step, the sixth step of quantizing the DCT coefficient obtained in the fifth step, and the quantized DCT coefficient obtained in the sixth step. And a seventh step of encoding.
이하, 본 발명의 실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치 및 그 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, an image information encoding apparatus and method thereof of an MPEG-4 encoder according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
본 발명은 도 1의 MPEG-4 부호화기에 있어서, 영상정보 부호화부의 신규한 기술에 관한것이다.The present invention relates to a novel technique of a video information encoder in the MPEG-4 encoder of FIG.
도 10은 본 발명의 제 1실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 도시한 도면으로서, 본 발명의 제 1실시예에 의한 MPEG-4 부호화기의 영상정보부화장치(1000)는 도 10에 도시한 바와같이 물체밖 영역패딩부(1100), 물체경계블록 합병/분리 정보추출부(1200), 물체경계블록 합병부(1300), DCT부(1400), 양자화부(1500), DCT 계수 및 관련정보 부호화부(1600), 역 양자화부(1700), 역 DCT부(1800), 합병된 블록분리부(1900)로 구성되어 있다.FIG. 10 is a diagram illustrating an image information encoding apparatus of an MPEG-4 encoder according to a first embodiment of the present invention, and the image information encoding apparatus 1000 of the MPEG-4 encoder according to the first embodiment of the present invention is shown in FIG. As shown in FIG. 10, the out-of-object region padding unit 1100, the object boundary block merging / separation information extraction unit 1200, the object boundary block merging unit 1300, the DCT unit 1400, the quantization unit 1500, and the DCT It is composed of a coefficient and related information encoder 1600, an inverse quantizer 1700, an inverse DCT unit 1800, and a merged block separator 1900.
상기 물체밖 영역패딩부(1100)는 상기 감산기(500)로부터 원 영상정보 또는 영상오차정보를 입력받아 상기 모양정보 부호화부(300)에서 입력되는 패딩을 위한 모양정보(원영상모양정보, 복원된 모양정보 또는 원영상모양정보와 복원된 모양정보를 이용하여 생성한 임의의 모양정보 등)를 이용하여 영상정보의 물체밖 영역을 패딩하는 역할을 한다.The out-of-object region padding unit 1100 receives original image information or image error information from the subtractor 500 and shape information (original image shape information, reconstructed) for padding input from the shape information encoder 300. Padding the area outside the object of the image information by using the shape information or the original image shape information and arbitrary shape information generated using the restored shape information.
상기 물체경계블록 합병/분리 정보추출부(1200)는 상기 모양정보 부호화부(300)로부터 복원된 모양정보를 입력받아 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출하여 출력하는 역할을 한다.The object boundary block merging / separation information extracting unit 1200 receives the shape information restored from the shape information encoding unit 300 and determines whether or not to merge the object boundary block and whether to separate the object boundary block. It extracts and outputs object boundary block merge / separation information.
상기 물체경계블록 합병부(1300)는 상기 물체밖 영역패딩부(1100)의 영상정보를 입력받아 상기 모양정보 부호화부(300)에서 입력되는 복원된 모양정보 및 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력되는 합병/분리정보를 이용하여 물체경계블록의 영상정보를 합병하는 역할을 한다.The object boundary block merging unit 1300 receives the image information of the out-of-object area padding unit 1100 and extracts the restored shape information input from the shape information encoding unit 300 and the object boundary block merging / separation information. The merger / separation information input from the unit 1200 serves to merge the image information of the object boundary block.
상기 DCT부(1400)는 상기 물체경계블록 합병부(1300)로부터 영상정보를 입력받아 DCT를 수행하는 역할을 하고, 상기 양자화부(1500)는 상기 DCT부(1400)에서 DCT계수를 입력받아 양자화하는 역할을 하며, 상기 DCT계수 및 관련정보 부호화부(1600)는 상기 양자화부(1500)에서 양자화된 DCT계수를 입력받아 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력되는 합병/분리정보를 이용하여 가변장부호화한 후 상기 다중화부(900)로 출력하는 역할을 한다.The DCT unit 1400 receives the image information from the object boundary block merging unit 1300 to perform DCT, and the quantization unit 1500 receives the DCT coefficient from the DCT unit 1400 to quantize it. The DCT coefficient and the related information encoder 1600 may receive the DCT coefficient quantized by the quantizer 1500 and merge / separate the object boundary block merge / separation information extractor 1200. After variable-length encoding by using the information and outputs to the multiplexer 900.
상기 역 양자화부(1700)는 상기 양자화부(1500)에서 양자화된 신호를 입력받아 역 양자화하는 역할을 하고, 상기 역 DCT부(1800)는 상기 역 양자화부(1700)에서 역 양자화된 신호를 입력받아 역 DCT를 수행하는 역할을 하며, 상기 합병된 블록분리부(1900)는 상기 역 DCT부(1800)에서 복호화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부(1200)로부터 입력되는 합병/분리정보를 이용하여 합병된 블록을 분리하여 재구성된 영상정보를 상기 가산기(700)를 통해 상기 VOP 검출부(800)로 출력하는 역할을 한다.The inverse quantization unit 1700 receives the quantized signal from the quantization unit 1500 and performs inverse quantization, and the inverse DCT unit 1800 inputs the inverse quantization signal from the inverse quantization unit 1700. Receiving and performing a reverse DCT, and the merged block separator 1900 receives a signal decoded by the reverse DCT unit 1800 and is input from the object boundary block merger / separation information extractor 1200. It divides the merged blocks using merge / separation information and outputs reconstructed image information to the VOP detector 800 through the adder 700.
상기와 같이 구성된 본 발명의 제 1실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 이용한 부호화방법에 대해 설명하기로한다.An encoding method using the image information encoding apparatus of the MPEG-4 encoder according to the first embodiment of the present invention configured as described above will be described.
먼저, 물체밖 영역패딩부(1100)가 상기 감산기(500)로부터 원 영상정보 또는 영상오차정보를 입력받으면, 상기 모양정보 부호화부(300)로부터 패딩을 위한 모양정보(원영상모양정보, 복원된 모양정보 또는 원영상모양정보와 복원된 모양정보를 이용하여 생성한 임의의 모양정보 등)를 입력받아 물체밖 영역을 패딩한다.First, when the object outside area padding unit 1100 receives the original image information or the image error information from the subtractor 500, the shape information for the padding from the shape information encoder 300 (the original image shape information and the restored image) is received. The shape information or the original image shape information and arbitrary shape information generated using the reconstructed shape information, etc.) are input to pad the area outside the object.
이어서, 물체경계블록 합병부(1300)는 상기 물체밖 영역패딩부(1100)에서 패딩된 영상정보를 입력받아 물체경계블록 합병/분리 정보추출부(1200)에서 추출된 합병/분리 정보 및 모양정보 부호화부(300)로부터 입력된 복원 모양정보를 이용하여 물체경계블록의 영상정보를 합병한다.Subsequently, the object boundary block merging unit 1300 receives image information padded by the out-of-object region padding unit 1100 and merges / separates information and shape information extracted by the object boundary block merging / separation information extracting unit 1200. The image information of the object boundary block is merged using the reconstructed shape information input from the encoder 300.
이때, DCT부(1400)는 상기 물체경계블록 합병부(1300)로부터 영상정보를 입력받아 DCT를 수행하고, 양자화부(1500)는 상기 DCT부(1400)에서 DCT계수를 입력받아 양자화한다.In this case, the DCT unit 1400 receives the image information from the object boundary block merging unit 1300 to perform DCT, and the quantization unit 1500 receives the DCT coefficient from the DCT unit 1400 and quantizes it.
이어서, DCT계수 및 관련정보 부호화부(1600)는 상기 양자화부(1500)에서 양자화된 DCT계수를 입력받아 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력되는 합병/분리정보를 입력받아 가변장부호화하여 다중화부(900)로 출력한다.Subsequently, the DCT coefficient and the related information encoder 1600 receive the DCT coefficient quantized by the quantizer 1500 and receive merge / separation information input from the object boundary block merge / separation information extractor 1200. The variable length encoding is performed and output to the multiplexer 900.
한편, 역 양자화부(1700)는 상기 양자화부(1500)에서 양자화된 신호를 입력받아 역 양자화하고, 상기 역 DCT부(1800)가 상기 역 양자화부(1700)에서 역 양자화된 신호를 입력받아 역 DCT를 수행하며, 합병된 블록분리부(1900)는 상기 역 DCT부(1800)에서 복호화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력되는 합병/분리정보를 이용하여 합병된 블록을 분리하여 재구성된 영상정보를 가산기(700)를 통해 VOP 검출부(800)로 출력한다.Meanwhile, the inverse quantization unit 1700 receives inverse quantization by receiving the quantized signal from the quantization unit 1500, and the inverse DCT unit 1800 receives the inverse quantized signal from the inverse quantization unit 1700. The merged block separator 1900 receives a signal decoded by the inverse DCT unit 1800 and uses merge / separation information input from the object boundary block merge / separation information extractor 1200. After the merged blocks are separated, the reconstructed image information is output to the VOP detector 800 through the adder 700.
상기 물체경계블록 합병/분리 정보추출부(1200)에서 합병/분리정보를 추출하는 동작에 대해 상세히 설명하기로 한다.An operation of extracting merge / separation information from the object boundary block merge / separation information extractor 1200 will be described in detail.
도 12는 부호화하려는 영상의 영상포맷에 따른 매크로블록내의 블록 배열을 도시한 도면으로서, (a)는 매크로블록내에 4개의 8×8 블록이 구성된 것을 도시한 도면이고, (b)는 매크로블록내에 배열된 휘도블록(Y) 및 색차블록(Cb, Cr)비가 4 : 2 : 0임을 나타낸 도면이며, (c)는 매크로블록내에 배열된 휘도블록(Y) 및 색차블록(Cb, Cr)비가 4 : 2 : 2임을 나타낸 도면이며, (d)는 매크로블록내에 배열된 휘도블록(Y) 및 색차블록(Cb, Cr)비가 4 : 4 : 4임을 나타낸 도면이다. 12 is a diagram showing a block arrangement in a macroblock according to the video format of a video to be encoded, (a) showing four 8x8 blocks in a macroblock, and (b) in a macroblock. The luminance block (Y) and chrominance block (Cb, Cr) ratio arranged in the ratio is 4: 2: 0, (c) is the luminance block (Y) and chrominance block (Cb, Cr) ratio arranged in the macroblock is 4 2: 2, and (d) shows that the ratio of the luminance block Y and the color difference blocks Cb and Cr arranged in the macroblock is 4: 4: 4.
도 13은 도 12의 각 영상포맷에 대해 물체경계블록 합병/분리가 적용되는 모델을 도시한 도면으로서, (a)은 매크로블록내에 4개의 8×8블록이 구성된 경우, (b)는 매크로블록내에 휘도 및 색차블록의 비가 4 : 2 : 0인 경우, (c)는 상기 비가 4 : 2 : 2인 경우, (d)는 상기 비가 4 : 4 : 4 인 경우를 나타낸 것이다. FIG. 13 is a diagram illustrating a model in which object boundary block merging / separation is applied to each image format of FIG. 12, where (a) shows four 8 × 8 blocks in a macroblock, and (b) shows a macroblock. (C) shows the case where the ratio is 4: 2: 2, and (d) shows the case where the ratio is 4: 4: 4.
먼저, 물체경계블록의 수평합병, 수직합병, 대각선합병 정보추출과정에서 수평합병 정보추출과정에 대해 설명하기로 한다.First, the horizontal merger information extraction process in the horizontal merger, vertical merger, diagonal merger information extraction process of the object boundary block will be described.
제 1단계에서는 블록 1과 블록 2가 물체경계블록이고, 블록 2의 모양정보를 180도 회전한 것과 블록 1의 모양정보간에 물체내 픽셀중 서로 중첩되는 픽셀이 하나도 없다면, 블록 2의 영상정보(원영상정보 또는 영상간 오차정보)를 180도 회전시켜 블록 1의 영상정보에 합병하고, 블록 2는 영상정보 부호화장치에서 물체밖 블록처럼 취급하라는 플래그를 추출한다.In the first step, if block 1 and block 2 are object boundary blocks, and the shape information of block 2 is rotated 180 degrees and there are no pixels overlapping each other among the pixels in the object between the shape information of block 1, the image information of block 2 ( Original image information or error information between images) is rotated 180 degrees to merge with the image information of block 1, and block 2 extracts a flag to be treated as an out-of-object block by the image information encoding apparatus.
제 2단계에서는 블록 3과 블록 4가 물체경계블록이고, 블록 4의 모양정보를 180도 회전한 것과 블록 3의 모양정보간에 물체내 픽셀중 서로 중첩되는 픽셀이 하나도 없다면, 블록 4의 영상정보(원영상정보 또는 영상간오차정보)를 180도 회전시켜 블록 3의 영상정보에 합병하고, 블록 4는 영상정보 부호화장치에서 물체밖 블록처럼 취급하라는 플래그를 추출한다.In the second step, if block 3 and block 4 are object boundary blocks, and the shape information of block 4 is rotated 180 degrees and there are no pixels overlapping each other among the pixels in the object between the shape information of block 3, the image information of block 4 ( Original image information or inter-image error information) by 180 degrees to be merged into the image information of block 3, and block 4 extracts a flag to be treated as an out-of-object block by the image information encoding apparatus.
또한, 수직합병 정보추출 과정에 대해 설명하면 다음과 같다.In addition, the vertical merger information extraction process is described as follows.
제 1단계에서는 블록 1과 블록 3이 물체경계블록이고, 블록 3의 모양정보를 180도 회전한 것과 블록 1의 모양정보간에 물체내 픽셀중 서로 중첩되는 픽셀이 하나도 없다면, 블록 3의 영상정보(원영상정보 또는 영상간 오차정보)를 180도 회전시켜 블록 1의 영상정보에 합병하고, 블록 3은 영상정보 부호화장치에서 물체밖 블록처럼 취급하라는 플래그를 추출한다. In the first step, if block 1 and block 3 are object boundary blocks, and the shape information of block 3 is rotated 180 degrees and there are no pixels overlapping each other among the pixels in the object between the shape information of block 1, the image information of block 3 ( Original image information or error information between images) is rotated 180 degrees to be merged into the image information of block 1, and block 3 extracts a flag to be treated as an out-of-object block by the image information encoding apparatus.
제 2단계에서는 블록 2과 블록 4이 물체경계블록이고, 블록 4의 모양정보를 180도 회전한 것과 블록 2의 모양정보간에 물체내 픽셀중 서로 중첩되는 픽셀이 하나도 없다면, 블록 4의 영상정보(원영상정보 또는 영상간 오차정보)를 180도 회전시켜 블록 2의 영상정보에 합병하고, 블록 4는 영상정보 부호화장치에서 물체밖 블록처럼 취급하라는 플래그를 추출한다.In the second step, if block 2 and block 4 are object boundary blocks, and the shape information of block 4 is rotated 180 degrees and there are no pixels overlapping each other among the pixels in the object between the shape information of block 2, the image information of block 4 ( Original image information or error information between images) is rotated 180 degrees to be merged into the image information of block 2, and block 4 extracts a flag to be treated like an out-of-object block by the image information encoding apparatus.
또한, 대각선합병 정보추출 과정에 대해 설명하면 다음과 같다.In addition, the diagonal merge information extraction process is described as follows.
제 1단계에서는 블록 1과 블록 4가 물체경계블록이고, 블록 4의 모양정보를 180도 회전한 것과 블록 1의 모양정보간에 물체내 픽셀중 서로 중첩되는 픽셀이 하나도 없다면, 블록 4의 영상정보(원영상정보 또는 영상간 오차정보)를 180도 회전시켜 블록 1의 영상정보에 합병하고, 블록 4는 영상정보 부호화장치에서 물체밖 블록처럼 취급하라는 플래그를 추출한다.In the first step, if block 1 and block 4 are object boundary blocks, and the shape information of block 4 is rotated 180 degrees and there are no pixels overlapping each other among the pixels in the object between the shape information of block 1, the image information of block 4 ( Original image information or error information between images) is rotated 180 degrees to merge with the image information of block 1, and block 4 extracts a flag to be treated as an out-of-object block by the image information encoding apparatus.
제 2단계에서는 블록 2과 블록 3이 물체경계블록이고, 블록 3의 모양정보를 180도 회전한 것과 블록 2의 모양정보간에 물체내 픽셀중 서로 중첩되는 픽셀이 하나도 없다면, 블록 3의 영상정보(원영상정보 또는 영상간 오차정보)를 180도 회전시켜 블록 2의 영상정보에 합병하고, 블록 3은 영상정보 부호화장치에서 물체밖 블록처럼 취급하라는 플래그를 추출한다.In the second step, if block 2 and block 3 are object boundary blocks, and the shape information of block 3 is rotated 180 degrees and there are no pixels overlapping each other among the pixels in the object between the shape information of block 2, the image information of block 3 ( Original image information or error information between images) is rotated 180 degrees to merge with the image information of block 2, and block 3 extracts a flag to be treated like an out-of-object block by the image information encoding apparatus.
본 발명에 의한 물체경계블록 합병정보추출과정은 상기와 같은 수평, 수직 및 대각선 합병정보추출과정에서 다음과 같은 순서중 한 순서로 적용될 수 있다.The object boundary block merging information extraction process according to the present invention may be applied in one of the following orders in the horizontal, vertical and diagonal merging information extraction process as described above.
1. 수평합병정보추출 → 수직합병정보추출 → 대각선합병정보추출1. Horizontal merger information extraction → vertical merger information extraction → diagonal merger information extraction
2. 수평합병정보추출 → 대각선합병정보추출 → 수직합병정보추출2. Horizontal merger information extraction → diagonal merger information extraction → vertical merger information extraction
3. 수직합병정보추출 → 수평합병정보추출 → 대각선합병정보추출3. Vertical Merger Information Extraction → Horizontal Merger Information Extraction → Diagonal Merger Information Extraction
4. 수직합병정보추출 → 대각선합병정보추출 → 수평합병정보추출4. Extract vertical merger information → Extract diagonal merger information → Extract horizontal merger information
5. 대각선합병정보추출 → 수직합병정보추출 → 수평합병정보추출5. Diagonal merger information extraction → Vertical merger information extraction → Horizontal merger information extraction
6. 대각선합병정보추출 → 수평합병정보추출 → 수직합병정보추출6. Diagonal merger information extraction → Horizontal merger information extraction → Vertical merger information extraction
한편, 상기 합병정보추출과정은 도 12와 같은 영상포맷(4 : 2 : 0, 4 : 2 : 2, 4 : 4 : 4)에 따라 도 13과 같이 각기 다르게 적용된다.On the other hand, the merged information extraction process is applied differently as shown in Figure 13 according to the image format (4: 2: 0, 4: 2: 2 :, 4: 4: 4) as shown in FIG.
(a). 색차블록 없이 휘도블록만 있거나, 그레이스케일(GRAYSCALE)모양정보의 투명도 정보와 같이 네개의 블록으로 구성된 경우는 상기 합병정보추출과정 1~6중 어느한 순서로 적용될 수 있다.(a). When there is only a luminance block without a chrominance block or consists of four blocks such as transparency information of grayscale (GRAYSCALE) shape information, the merge information extraction processes 1 to 6 may be applied in any order.
(b). 4 : 2 : 0 포맷인 경우, 휘도블록은 상기 합병정보추출과정 1~6중 한 순서로 적용될 수 있다.(b). In the case of 4: 2: 0 format, the luminance blocks may be applied in one of the merge information extraction processes 1 to 6 above.
(c). 4 : 2 : 2 포맷인 경우, 휘도블록은 상기 합병정보추출과정 1~6중 어느한 순서로 적용될 수 있고, 색차블록은 색차성분별(Cb, Cr)로 각각 수평합병정보 추출과정만 적용될 수 있다.(c). In the case of 4: 2: 2 format, the luminance blocks may be applied in any one of the merged information extraction processes 1 to 6, and the color difference blocks may be applied only to the horizontal merged information extraction process by color difference components (Cb and Cr). have.
(d). 4 : 4 : 4 포맷인 경우, 휘도블록은 상기 합병정보추출과정 1~6중 한 순서로 적용될 수 있고, 색차블록은 색차성분별(Cb, Cr)로 각각 상기 합병정보추출과정 1~6중 어느한 순서로 적용될 수 있다. (d). In the case of 4: 4: 4 format, the luminance blocks may be applied in one order of the merge information extraction processes 1 to 6, and the chrominance blocks may be applied to each of the merge information extraction processes 1 to 6 by color difference components (Cb and Cr). It can be applied in either order.
한편, 상기 도 10 및 도 11의 물체경계블록 합병/분리 정보추출부(1200, 2200)에서의 합병정보추출과정은 상기 합병정보추출과정(1~6)에 있어서 화살표(→)이전 과정에서 합병이 일어날 수 있다는 플래그가 추출되면, 화살표(→)이후 과정은 모두 생략하고, 그 플래그가 일어난 과정에서 합병 및 분리가 일어나도록 물체경계블록 합병부(1300) 및 합병된 블록분리부(1900)로 출력한다. Meanwhile, the merging information extraction process in the object boundary block merging / separation information extracting units 1200 and 2200 of FIGS. 10 and 11 is merged in the process of moving the arrow (→) in the merging information extraction process (1 to 6). Is extracted, the process after the arrow (→) is omitted, and to the object boundary block merging unit 1300 and the merged block separation unit 1900 so that merging and separation occurs in the course of the flag. Output
한편, 상기 물체경계블록 합병부(1300)가 상기 물체경계블록 합병/분리 정보추출부(1200)로부터 추출된 합병정보에 관한 플래그와 상기 모양정보 부호화부(300)로부터 복원된 모양정보를 입력받아 이를 이용하여 상기 물체밖 영역패딩부(1100)에서 입력받은 매크로블록단위인 영상정보의 물체경계블록 합병동작에 대해 설명하기로 한다.On the other hand, the object boundary block merging unit 1300 receives a flag related to the merged information extracted from the object boundary block merging / separation information extracting unit 1200 and shape information restored from the shape information encoding unit 300. An object boundary block merging operation of image information, which is a macroblock unit received by the object outside area padding unit 1100, will be described.
도 14는 본 발명에 제 1실시예에 따른 물체경계블록 합병부의 동작에 관한 플로우챠트로서, (a)는 물체경계블록 합병부에서 이루어지는 전체 동작플로우챠트를 도시한 도면이고, (b)는 도 (a)의 스텝(S1, S3)에 모두 적용되는 동작플로우챠트이다.FIG. 14 is a flowchart showing the operation of the object boundary block merging unit according to the first embodiment of the present invention, where (a) is an overall operation flowchart performed in the object boundary block merging unit, and (b) is a diagram of FIG. This is an operation flowchart applied to all of the steps S1 and S3 in (a).
먼저, 물체경계블록 합병부(1300)는 물체밖 영역패딩부(1100)에서 입력받은 매크로 블록단위인 영상정보중 휘도블록에 물체경계블록합병을 적용시킨다(S1).First, the object boundary block merging unit 1300 applies the object boundary block merger to the luminance block of the image information which is a macroblock unit received from the object padding region 1100 (S1).
이어서, 상기 입력 영상정보에 색차블록이 존재하는 동시에 영상포맷이 4 : 2 : 0 이 아닌지의 여부를 판단한다(S2).Subsequently, it is determined whether the color difference block exists in the input image information and the image format is not 4: 2: 0 (S2).
만약, 상기 스텝(S2)에서 입력영상정보의 포맷이 4 : 2 : 2 나 4 : 4 : 4 인 경우(YES), 색차성분별로 색차블록에 물체경계블록 합병을 적용시킨다(S3).If the format of the input image information is 4: 2: 2 or 4: 4: 4 in step S2 (YES), the object boundary block merger is applied to the color difference block for each color difference component (S3).
한편, 상기 스텝(S2)에서 색차블록이 존재하지 않거나 영상포맷이 4 : 2 : 0일 경우(NO), 종료한다.On the other hand, if the chrominance block does not exist or the image format is 4: 2: 0 in step S2 (NO), the process ends.
상기 스텝(S1)에서 매크로 블록단위인 영상정보중 휘도블록에 물체경계블록합병을 적용하는 것에 대해서 도 14의 (b)를 참조하여 설명하기로 한다.In the step S1, the application of the object boundary block merger to the luminance block of the image information in macroblock units will be described with reference to FIG. 14B.
먼저, 물체경계블록 합병부(1300)는 입력되는 16×16 휘도블록내의 4가지 8×8 블록 중 한 블록(Bi)에 대한 합병/분리정보를 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력받아 그 블록(Bi)이 다른 블록을 합병하는 블록인지의 여부를 판단한다(S1-1).First, the object boundary block merging unit 1300 merges / separates information of one block Bi among four 8 × 8 blocks in an input 16 × 16 luminance block, and then merges / separates the information boundary unit 1200 of the object boundary block. It is determined whether or not the block (Bi) is a block to merge the other block is received from the (S1-1).
만약, 상기 스텝(S1-1)에서 상기 임의의 한 블록(Bi)이 합병하는 블록이면(YES), 상기 블록(Bi)과 그 블록(Bi)에 합병되는 블록을 도 16에 도시한 바와같이 합병한다(S1-2).If, in step S1-1, if any one of the blocks Bi is a merged block (YES), as shown in Fig. 16, the block Bi and a block merged with the block Bi are shown. Merger (S1-2).
상기 도 16는 본 발명의 제 1실시예에 따른 물체경계블록 합병기술을 나타낸 도면으로서, (a)는 합병이전의 블록을 나타낸 것으로서, 합병하는 블록이 좌측상단 블록이고, 합병되는 블록은 우측상단블록이며, 상기 좌측상단 블록의 패딩된 물체밖 픽셀값은 a이며, 우측상단 블록의 패딩된 물체밖 픽셀값은 b라고 가정한다.FIG. 16 is a diagram illustrating an object boundary block merging technology according to a first embodiment of the present invention, in which (a) shows a block before merging, in which a block to be merged is an upper left block, and a block to be merged is an upper right corner. It is assumed that the block is a block, the outside object pixel value of the upper left block is a, and the padded outside object pixel value of the upper right block is b.
(b)는 합병후의 블록을 나타낸 것으로서, 합병되는 상세 과정은 먼저, 합병되는 블록을 180도 회전시킨 후 합병하는 블록에 합병한다. 이때 180도 회전시킨 합병되는 블록의 물체내 영역의 영상정보는 합병하는 블록의 패딩된 정보를 대체하고, 180도 회전시킨 합병되는 블록의 물체밖 영역의 패딩된 정보는 합병하는 블록의 패딩된 정보와 평균한 값{(a+b)/2}으로 대체한다.(b) shows a block after the merge, and the detailed process of merging first rotates the merged block by 180 degrees and then merges the merged block. In this case, the image information of the intra-object region of the merged block rotated 180 degrees replaces the padded information of the merged block, and the padded information of the extra-object region of the merged block rotated 180 degrees is padded information of the merged block. And the averaged value {(a + b) / 2}.
이어서, 상기 i의 수를 하나 증가 시킨 후(S1-3), 상기 i가 4 보다 작은지의 여부를 판단하여(S1-4), 상기 i가 4보다 작으면(YES), 상기 스텝(S1-1)으로 진행하는 반면에 , 상기 i가 4가 되면 종료한다. Subsequently, after increasing the number of i by one (S1-3), it is determined whether i is less than 4 (S1-4), and if i is less than 4 (YES), the step (S1-) While proceeding to 1), when i reaches 4, it ends.
한편, 상기 스텝(S1-1)에서 상기 블록(Bi)이 다른 블록을 합병하는 블록이 아니면, 즉 합병되는 블록이나 물체밖블록이면(NO), 상기 스텝(S1-3)으로 진행된다.On the other hand, in step S1-1, if the block Bi is not a block for merging other blocks, that is, a block to be merged or an out-of-object block NO, the flow advances to step S1-3.
한편, 상기 스텝(S3)에서 색차성분별(Cb, Cr)로 임의의 색차블록에 물체경계블록을 합병하는 과정에 대해 상기 도 14의 (b)를 참조하여 설명하기로 한다.Meanwhile, a process of merging an object boundary block with an arbitrary color difference block by color difference components Cb and Cr in step S3 will be described with reference to FIG. 14B.
먼저, 물체경계블록 합병부(1300)는 입력된 영상정보의 색차정보(Cb 또는 Cr)내의 2가지 8×8 블록 중 한 블록(Bi)에 대한 합병/분리정보를 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력받아 그 블록(Bi)이 다른 블록을 합병하는 블록인지의 여부를 판단한다(S3-1).First, the object boundary block merging unit 1300 merges / separates merge / separation information of one block Bi among two 8 × 8 blocks in color difference information Cb or Cr of the input image information. In operation S3-1, the information extracting unit 1200 receives the input from the information extracting unit 1200 and determines whether the block Bi is a block for merging other blocks.
상기 스텝(S3-1)에서 상기 임의의 한 블록(Bi)이 합병하는 블록이면(YES), 상기 블록(Bi)과 그 블록에 합병되는 블록을 도 16에 도시한 바와같이 합병한다(S3-2).In step S3-1, if any one of the blocks Bi is a merged block (YES), the block Bi and a block merged with the block are merged as shown in Fig. 16 (S3-). 2).
상기 도 16은 본 발명의 제 1실시예에 따른 물체경계블록 합병기술을 나타낸 도면으로서, (a)는 합병이전의 블록을 나타낸 것으로서, 합병하는 블록이 좌측상단 블록이고, 합병되는 블록은 우측상단블록이며, 상기 좌측상단 블록의 패딩된 물체밖 픽셀값은 a이며, 우측상단 블록의 패딩된 물체밖 픽셀값은 b라고 가정한다.FIG. 16 is a diagram illustrating an object boundary block merging technology according to a first embodiment of the present invention, in which (a) shows a block before merging, in which a block to be merged is an upper left block, and a block to be merged is an upper right corner. It is assumed that the block is a block, the outside object pixel value of the upper left block is a, and the padded outside object pixel value of the upper right block is b.
(b)는 합병후의 블록을 나타낸 것으로서, 합병되는 상세 과정은 먼저, 합병되는 블록을 180도 회전시킨 후 합병하는 블록에 합병한다. 이때 180도 회전시킨 합병되는 블록의 물체내 영역의 영상정보는 합병하는 블록의 패딩된 정보를 대체하고, 180도 회전시킨 합병되는 블록의 물체밖 영역의 패딩된 정보는 합병하는 블록의 패딩된 정보와 평균한 값{(a+b)/2}으로 대체한다.(b) shows a block after the merge, and the detailed process of merging first rotates the merged block by 180 degrees and then merges the merged block. In this case, the image information of the intra-object region of the merged block rotated 180 degrees replaces the padded information of the merged block, and the padded information of the extra-object region of the merged block rotated 180 degrees is padded information of the merged block. And the averaged value {(a + b) / 2}.
이어서, 상기 i의 수를 하나 증가 시킨 후(S3-3), 상기 i가 2보다 작은지의 여부를 판단하여(S3-4), 상기 i가 2보다 작으면(YES), 상기 스텝(S3-1)으로 진행하는 반면에 , 상기 i가 2가 되면 종료한다. Subsequently, after increasing the number of i by one (S3-3), it is determined whether i is less than 2 (S3-4), and when i is less than 2 (YES), the step (S3-) On the other hand, the process proceeds to 1) and ends when i becomes 2.
한편, 상기 스텝(S3-1)에서 상기 블록(Bi)이 다른 블록을 합병하는 블록이 아니면, 즉 합병되는 블록이나 물체밖블록이면(NO), 상기 스텝(S3-3)으로 진행된다. On the other hand, in step S3-1, if the block Bi is not a block for merging other blocks, that is, a block to be merged or an out-of-object block NO, the flow advances to step S3-3.
한편, 상기 합병된 블록분리부(1900)가 상기 역 DCT부(1800)에서 복호화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력되는 합병/분리정보를 이용하여 합병된 블록을 분리하여 영상정보를 재구성하는 기술에 대해 상세히 설명하기로 한다.Meanwhile, the merged block separator 1900 receives a signal decoded by the inverse DCT unit 1800 and merges the merged data using the merge / separation information input from the object boundary block merge / separation information extractor 1200. A technique of reconstructing image information by separating the blocks is described in detail.
도 15는 본발명의 제 1, 2실시예에 따른 물체경계블록 분리부의 동작을 도시한 플로우챠트로서, (a)는 합병된 블록 분리부에서 이루어지는 전체 동작플로우챠트를 도시한 도면이고, (b)는 도 (a)의 스텝(S1, S3)에 모두 적용되는 동작플로우챠트이다.FIG. 15 is a flowchart showing the operation of the object boundary block separator according to the first and second embodiments of the present invention, and (a) is a diagram showing an overall operation flowchart performed in the merged block separator. ) Is an operational flowchart applied to both steps S1 and S3 in FIG.
먼저, 합병된 블록분리부(1900)는 역 DCT부(1800)에서 입력받은 매크로 블록단위인 영상정보중 휘도블록에 물체경계블록 분리를 적용시킨다(S1).First, the merged block separator 1900 applies the object boundary block separation to the luminance block of the image information that is the macroblock unit received from the inverse DCT unit 1800 (S1).
이어서, 상기 입력 영상정보에 색차블록이 존재하는 동시에 영상포맷이 4 : 2 : 0 이 아닌지의 여부를 판단한다(S2).Subsequently, it is determined whether the color difference block exists in the input image information and the image format is not 4: 2: 0 (S2).
만약, 상기 스텝(S2)에서 입력영상정보의 포맷이 4 : 2 : 2 나 4 : 4 : 4 인 경우(YES), 색차성분별(Cb, Cr)로 색차블록에 물체경계블록 분리를 적용시킨다(S3).If the format of the input image information is 4: 2: 2 or 4: 4: 4 at step S2 (YES), object boundary block separation is applied to the color difference block by color difference components (Cb, Cr). (S3).
한편, 상기 스텝(S2)에서 색차블록이 존재하지 않거나 영상포맷이 4 : 2 : 0일 경우(NO), 종료한다.On the other hand, if the chrominance block does not exist or the image format is 4: 2: 0 in step S2 (NO), the process ends.
상기 스텝(S1)에서 매크로 블록단위인 영상정보중 휘도블록에 물체경계블록분리를 적용하는 것에 대해서 도 15의 (b)를 참조하여 설명하기로 한다.In the step S1, the application of the object boundary block separation to the luminance block of the image information in macroblock units will be described with reference to FIG. 15B.
먼저, 합병된 블록분리부(1900)는 입력되는 16×16 휘도블록내의 4가지 8×8 블록 중 한 블록(Bi)에 대한 합병/분리정보를 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력받아 그 블록(Bi)이 다른 블록을 합병했는지의 여부를 판단한다(S1-1).First, the merged block divider 1900 merges / separates information of one block Bi among four 8 × 8 blocks in an input 16 × 16 luminance block by the object boundary block merged / separated information extractor 1200. ), It is determined whether the block Bi merges with another block (S1-1).
만약, 상기 스텝(S1-1)에서 상기 임의의 한 블록(Bi)이 다른 블록을 합병한 블록이면(YES), 상기 블록(Bi)으로부터 합병된 블럭을 도 17에 도시한 바와같이 분리한다(S1-2).If, in step S1-1, if any one of the blocks Bi is a merged block (YES), the merged block is separated from the block Bi as shown in Fig. 17 ( S1-2).
상기 도 17은 본 발명의 제 1, 2 실시예에 따른 물체경계블록 분리기술을 나타낸 도면으로서, (a)는 분리 이전의 합병한 블록을 나타낸 것으로서, 합병한 블록이 좌측상단 블록이고, (b)는 분리후의 블록을 나타낸 것으로서, 분리되는 상세 과정은 먼저, 합병한 블록이라고 판정되면 합병/분리정보에 의해 합병된 블록을 파악하고, 그 파악된 블록의 영상정보를 상기 합병한 블록을 180도 회전시킨 영상정보로 모두 대체한다. 도 17의 (b)에서 분리된 모습이 이상하게 보이나, 불필요한 정보는 합병과정에서 모양정보에 의해 무시되므로 단지 복사과정만이 수행되는 것과 동일하다.17 is a view showing the object boundary block separation technology according to the first and second embodiments of the present invention, (a) shows a merged block before separation, the merged block is the upper left block, (b ) Shows a block after separation, and the detailed separation process first identifies a merged block based on merge / separation information when it is determined to be a merged block, and 180 degrees of the merged block by image information of the identified block. Replace all with rotated image information. Although the separated state in FIG. 17B seems strange, unnecessary information is ignored by the shape information in the merging process, so that only the copying process is performed.
이어서, 상기 i의 수를 하나 증가 시킨 후(S1-3), 상기 i가 4 보다 작은지의 여부를 판단하여(S1-4), 상기 i가 4보다 작으면(YES), 상기 스텝(S1-1)으로 진행하는 반면에, 상기 i가 4가 되면 종료한다. Subsequently, after increasing the number of i by one (S1-3), it is determined whether i is less than 4 (S1-4), and if i is less than 4 (YES), the step (S1-) On the other hand, the process proceeds to 1) and terminates when i becomes 4.
한편, 상기 스텝(S1-1)에서 상기 블록(Bi)이 다른 블록을 합병한 블록이 아니면(NO), 상기 스텝(S1-3)으로 진행된다.On the other hand, in step S1-1, if the block Bi is not a block in which another block is merged (NO), the process proceeds to the step S1-3.
한편, 상기 스텝(S3)에서 색차성분별(Cb, Cr)로 임의의 색차블록에서 물체경계블록을 분리하는 과정에 대해 상기 도 15의 (b)를 참조하여 설명하기로 한다.Meanwhile, a process of separating the object boundary block from an arbitrary color difference block by color difference component Cb and Cr in step S3 will be described with reference to FIG. 15B.
먼저, 합병된 블록분리부(1900)는 입력되는 영상정보의 두가지 색차블록내의 2가지 8×8 색차블록 중 한 블록(Bi)에 대한 합병/분리정보를 상기 물체경계블록 합병/분리 정보추출부(1200)에서 입력받아 그 블록(Bi)이 다른 블록을 합병했는지의 여부를 판단한다(S3-1).First, the merged block separator 1900 merges / separates information of one block Bi among two 8 × 8 color difference blocks in two color difference blocks of the input image information. It is determined in step 1200 whether the block Bi merges with another block (S3-1).
상기 스텝(S3-1)에서 상기 임의의 한 블록(Bi)이 다른 블록을 합병한 블록이면(YES), 상기 블록(Bi)으로부터 합병된 블럭을 도 17에 도시한 바와같이 분리한다(S3-2).In step S3-1, if any one of the blocks Bi is a merged block (YES), the merged block is separated from the block Bi as shown in Fig. 17 (S3-). 2).
상기 도 17은 본 발명의 제 1, 2 실시예에 따른 물체경계블록 분리기술을 나타낸 도면으로서, (a)는 분리 이전의 합병한 블록을 나타낸 것으로서, 합병한 블록이 좌측상단 블록이고, (b)는 분리후의 블록을 나타낸 것으로서, 분리되는 상세 과정은 먼저, 합병한 블록이라고 판정되면 합병/분리정보에 의해 합병된 블록을 파악하고, 그 파악된 블록의 영상정보를 상기 합병한 블록을 180도 회전시킨 영상정보로 모두 대체한다. 도 17의 (b)에서 분리된 모습이 이상하게 보이나, 불필요한 정보는 합병과정에서 모양정보에 의해 무시되므로 단지 복사과정만이 수행되는 것과 동일하다.17 is a view showing the object boundary block separation technology according to the first and second embodiments of the present invention, (a) shows a merged block before separation, the merged block is the upper left block, (b ) Shows a block after separation, and the detailed separation process first identifies a merged block based on merge / separation information when it is determined to be a merged block, and 180 degrees of the merged block by image information of the identified block. Replace all with rotated image information. Although the separated state in FIG. 17B seems strange, unnecessary information is ignored by the shape information in the merging process, so that only the copying process is performed.
이어서, 상기 i의 수를 하나 증가 시킨 후(S3-3), 상기 i가 2 보다 작은지의 여부를 판단하여(S3-4), 상기 i가 2보다 작으면(YES), 상기 스텝(S3-1)으로 진행하는 반면에 , 상기 i가 2가 되면 종료한다. Subsequently, after increasing the number of i by one (S3-3), it is determined whether i is less than 2 (S3-4), and when i is less than 2 (YES), the step (S3-) On the other hand, the process proceeds to 1) and ends when i becomes 2.
한편, 상기 스텝(S3-1)에서 상기 블록(Bi)이 다른 블록을 합병한 블록이 아니면(NO), 상기 스텝(S3-3)으로 진행된다.On the other hand, in step S3-1, if the block Bi is not a block in which another block is merged (NO), the process proceeds to the step S3-3.
도 11은 본 발명의 제 2실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 도시한 도면으로서, 본 발명의 제 2실시예에 의한 MPEG-4 부호화기의 영상정보부화장치(2000)는 도 11에 도시한 바와같이 물체경계블록 합병/분리 정보추출부(2200), 물체경계블록 합병부(2100), 모양적응형 DCT부(2300), 양자화부(2400), 모양적응형 DCT계수 및 관련정보 부호화부(2500), 역 양자화부(2600), 역 모양적응형 DCT부(2700) 및 합병된 블록분리부(2800)로 구성되어 있다.FIG. 11 is a diagram illustrating an image information encoding apparatus of an MPEG-4 encoder according to a second embodiment of the present invention, and the image information encoding apparatus 2000 of the MPEG-4 encoder according to the second embodiment of the present invention is shown in FIG. As shown in Fig. 11, the object boundary block merging / separation information extraction unit 2200, the object boundary block merging unit 2100, the shape adaptation DCT unit 2300, the quantization unit 2400, the shape adaptation DCT coefficient, and related information The information encoding unit 2500, the inverse quantization unit 2600, the inverse shape adaptive DCT unit 2700, and the merged block separation unit 2800 are constituted.
상기 물체경계블록 합병/분리 정보추출부(2200)는 상기 모양정보 부호화부(300)로부터 복원된 모양정보를 입력받아 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출하여 출력하는 역할을 한다.The object boundary block merging / separation information extracting unit 2200 receives the shape information restored from the shape information encoding unit 300 and determines whether or not to merge the object boundary block and whether to separate the object boundary block. It extracts and outputs object boundary block merge / separation information.
상기 물체경계블록 합병부(2100)는 상기 감산기(500)에서 원 영상정보 또는 영상오차정보를 입력받아 상기 모양정보 부호화부(300)에서 입력되는 복원된 모양정보 및 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력되는 합병/분리 정보를 이용하여 물체경계블록의 영상정보를 합병하는 역할을 한다. The object boundary block merging unit 2100 receives the original image information or the image error information from the subtractor 500 and the restored shape information and the object boundary block merging / separation information received from the shape information encoding unit 300. The merger / separation information input from the extraction unit 2200 serves to merge the image information of the object boundary block.
상기 모양적응형 DCT부(2300)는 상기 물체경계블록 합병부(2100)에서 영상정보를 입력받아 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력되는 합병/분리 정보 및 합병된 영상의 모양정보를 입력받아 모양적응형 DCT를 수행하는 역할을 한다.The shape-adaptive DCT unit 2300 receives image information from the object boundary block merging unit 2100 and merges / separates information input from the object boundary block merging / separation information extracting unit 2200 and the merged image. It receives shape information and performs shape adaptation DCT.
상기 양자화부(2400)는 상기 모양적응형 DCT부(2300)에서 모양적응형 DCT계수를 입력받아 양자화하는 역할을 한다.The quantization unit 2400 serves to quantize the shape-adaptive DCT coefficient from the shape-adaptive DCT unit 2300.
상기 모양적응형 DCT계수 및 관련정보 부호화부(2500)는 상기 양자화부(2400)에서 양자화된 모양적응형 DCT계수를 입력받아, 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력된 합병/분리정보 및 합병된 영상의 모양정보를 이용하여 계수가 존재하지 않은 영역에 대해서는 스킵하여 지그재그 스캔을 적용하는 적응형 스캔(ADAPTIVE SCAN)을 실행하여 부호화하여서 다중화부(900)로 출력하는 역할을 한다.The shape-adaptive DCT coefficient and the related information encoder 2500 receive the shape-adaptive DCT coefficients quantized by the quantization unit 2400 and merge the inputs from the object boundary block merging / separation information extraction unit 2200. Using the separation information and the shape information of the merged image, it skips over an area where coefficients do not exist and executes an adaptive scan that applies a zigzag scan and encodes it to output to the multiplexer 900. do.
상기 역 양자화부(2600)는 상기 양자화부(2400)에서 양자화된 신호를 입력받아 역 양자화하는 역할을 한다.The inverse quantizer 2600 serves to inverse quantize the signal quantized by the quantizer 2400.
상기 역모양적응형 DCT부(2700)는 상기 역 양자화부(2600)에서 역 양자화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력되는 합병/분리정보 및 합병된 모양정보를 이용하여 역모양적응형 DCT를 수행하는 역할을 한다.The inversely adaptive DCT unit 2700 receives the inverse quantized signal from the inverse quantization unit 2600 and merges / separates information input from the object boundary block merging / separation information extracting unit 2200 and merged shape. It plays a role of performing inverse-adaptive DCT using information.
상기 합병된 블록분리부(2800)는 상기 역모양적응형 DCT부(2700)에서 복호화된 신호를 입력받아, 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력되는 합병/분리정보를 이용하여 합병된 블록을 분리하여 재구성된 영상정보를 가산기(700)를 통해 VOP 검출부(800)로 출력하는 역할을 한다.The merged block separator 2800 receives a signal decoded by the inversely adaptive DCT unit 2700 and uses merge / separation information input from the object boundary block merge / separation information extractor 2200. And separates the merged block and outputs the reconstructed image information to the VOP detector 800 through the adder 700.
상기와 같이 구성된 본 발명의 제 2실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 이용한 부호화방법에 대해 설명하기로한다.The encoding method using the image information encoding apparatus of the MPEG-4 encoder according to the second embodiment of the present invention configured as described above will be described.
먼저, 물체경계블록 합병/분리 정보추출부(2200)는 상기 모양정보 부호화부(300)로부터 복원된 모양정보를 입력받아 물체경계블록을 합병할 것의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출한다.First, the object boundary block merging / separation information extracting unit 2200 receives shape information restored from the shape information encoding unit 300 and determines whether or not to merge the object boundary block and whether to separate the object boundary block. Extract object boundary block merge / separation information.
이어서, 물체경계블록 합병부(2100)는 상기 감산기(500)에서 원 영상정보 또는 영상오차정보를 입력받아 상기 모양정보 부호화부(300)에서 입력되는 복원된 모양정보 및 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력되는 합병/분리 정보를 이용하여 물체경계블록의 영상정보를 합병한다. Subsequently, the object boundary block merging unit 2100 receives original image information or image error information from the subtractor 500 and merges / separates the restored shape information and the object boundary block inputted from the shape information encoder 300. The image information of the object boundary block is merged using the merge / separation information input from the information extractor 2200.
또한, 모양적응형 DCT부(2300)는 상기 물체경계블록 합병부(2100)에서 영상정보를 입력받아 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력되는 합병/분리 정보 및 합병된 영상의 모양정보를 입력받아 모양적응형 DCT를 수행한다.Also, the shape-adaptive DCT unit 2300 receives image information from the object boundary block merging unit 2100 and merges / separates information input from the object boundary block merging / separation information extracting unit 2200 and the merged image. Perform shape adaptation DCT by receiving shape information of.
그리고, 양자화부(2400)는 상기 모양적응형 DCT부(2300)에서 모양적응형 DCT계수를 입력받아 양자화하고, 모양적응형 DCT계수 및 관련정보 부호화부(2500)는 상기 양자화부(2400)에서 양자화된 모양적응형 DCT계수를 입력받아, 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력된 합병/분리정보 및 합병된 영상의 모양정보를 이용하여 계수가 존재하지 않은 영역에 대해서는 스킵하여 지그재그 스캔을 적용하는 적응형 스캔(ADAPTIVE SCAN)을 실행하여 부호화하여서 상기 다중화부(900)로 출력한다.In addition, the quantization unit 2400 receives the quantization of the shape-adaptive DCT coefficient from the shape-adaptive DCT unit 2300, and the shape-adaptive DCT coefficient and the related information encoder 2500 are quantized by the quantization unit 2400. By receiving the quantized shape-adaptive DCT coefficient and skipping the region where the coefficient does not exist using the merge / separation information input from the object boundary block merge / separation information extractor 2200 and the shape information of the merged image By performing an adaptive scan (ADAPTIVE SCAN) to apply a zigzag scan to be encoded and output to the multiplexer 900.
한편, 역 양자화부(2600)는 상기 양자화부(2400)에서 양자화된 신호를 입력받아 역 양자화하고, 역모양적응형 DCT부(2700)는 상기 역 양자화부(2600)에서 역 양자화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력되는 합병/분리정보 및 합병된 모양정보를 이용하여 역모양적응형 DCT를 수행한다.Meanwhile, the inverse quantization unit 2600 receives inverse quantization by receiving the quantized signal from the quantization unit 2400, and the inverse-adaptive DCT unit 2700 inputs the inverse quantization signal from the inverse quantization unit 2600. In response to the object boundary block merger / separation information extraction unit 2200, the merge / separation information and the merged shape information are input to perform an inverse shape adaptive DCT.
이어서, 합병된 블록분리부(2800)는 상기 역모양적응형 DCT부(2700)에서 복호화된 신호를 입력받아, 상기 물체경계블록 합병/분리 정보추출부(2200)에서 입력되는 합병/분리정보를 이용하여 합병된 블록을 분리하여 재구성된 영상정보를 가산기(700)를 통해 VOP 검출부(800)로 출력한다.Subsequently, the merged block separator 2800 receives the signal decoded by the inversely-adaptive DCT unit 2700, and receives merge / separation information input from the object boundary block merge / separation information extractor 2200. The merged blocks are separated, and the reconstructed image information is output to the VOP detector 800 through the adder 700.
상기 물체경계블록 합병/분리 정보추출부(2200)에서 복원된 모양정보를 이용해 물체경계블록 합병/분리 정보를 추출하는 과정은 패딩기술이 적용된 영상정보 부호화 방법에서와 동일하다.The process of extracting the object boundary block merging / separation information using the shape information restored by the object boundary block merging / separation information extracting unit 2200 is the same as in the image information encoding method to which padding technology is applied.
또한, 물체경계블록 합병부(2100)에서 이루어지는 물체경계블록 합병과정은 상기 패딩기술이 적용된 영상정보부화방법과 거의 유사하며, 단지 물체경계블록 합병과정에 있어서, 합병하는 블록은 합병되는 다른 블록의 영상정보(원영상정보 또는 영상오차정보)를 180도 회전시킨 후 합병하는 블록에 합병하며, 이때 180도 회전시킨 합병되는 블록의 물체내 영역의 영상정보는 합병하는 블록의 물체밖 영역의 정보를 대체하고 합병하는 물체밖 영역과 합병되는 물체밖영역의 모든 정보에 대해서는 DON'T CARE 한다는 점만 다르고 패딩기술이 적용된 경우와 모두 같다.In addition, the object boundary block merging process performed by the object boundary block merging unit 2100 is almost similar to the image information incubation method to which the padding technology is applied. The image information (original image information or image error information) is rotated 180 degrees and merged into the merged block. At this time, the image information of the in-object region of the merged block rotated 180 degrees indicates information of the out-of-object region of the merged block. All information in the out-of-object area to be merged and merged and the out-of-object area to be merged is the same as in the case of padding technology.
또한, 합병된 블록분리부(2800)에서 이루어지는 합병된 블록분리동작은 패딩기술이 적용된 영상정보 부호화방법과 모두 동일하다.In addition, the merged block separation operation performed by the merged block separator 2800 is the same as the image information encoding method to which the padding technique is applied.
도 18은 본 발명의 제 3실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 도시한 도면으로서, 본 발명의 제 3실시예에 의한 MPEG-4 부호화기의 영상정보부호화장치는 도 18에 도시한 바와같이 물체경계블록 합병/분리 정보추출부(3200), 물체경계블록 합병부(3100), 패딩모양정보추출부(3300), 물체밖영역 패딩부(3400), DCT부(3500), 양자화부(3600), DCT계수 및 관련정보 부호화부(3700), 역 양자화부(3800), 역 DCT부(3900) 및 합병된 블록분리부(4000)로 구성되어 있다.FIG. 18 is a diagram showing an image information encoding apparatus of an MPEG-4 encoder according to a third embodiment of the present invention, and the image information encoding apparatus of the MPEG-4 encoder according to the third embodiment of the present invention is shown in FIG. As described above, the object boundary block merging / separation information extracting unit 3200, the object boundary block merging unit 3100, the padding shape information extracting unit 3300, the object boundary region padding unit 3400, the DCT unit 3500, and quantization A unit 3600, a DCT coefficient and related information encoder 3700, an inverse quantizer 3800, an inverse DCT unit 3900, and a merged block separator 4000 are provided.
상기 물체경계블록 합병/분리 정보추출부(3200)는 상기 모양정보 부호화부(300)로부터 복원된 모양정보를 입력받아 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출하여 출력하는 역할을 한다.The object boundary block merging / separation information extracting unit 3200 receives shape information restored from the shape information encoding unit 300 and determines whether or not to merge the object boundary block and whether to separate the object boundary block. It extracts and outputs object boundary block merge / separation information.
상기 물체경계블록 합병부(3100)는 상기 감산기(500)로부터 원영상정보 또는 영상오차정보를 입력받아 상기 모양정보 부호화부(300)에서 입력되는 복원된 모양정보 및 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력되는 합병/분리정보를 이용하여 물체경계블록의 영상정보를 합병하는 역할을 한다. The object boundary block merging unit 3100 receives the original image information or the image error information from the subtractor 500 and the restored shape information and the object boundary block merging / separation information input from the shape information encoding unit 300. The merger / separation information input from the extractor 3200 serves to merge image information of the object boundary block.
상기 패딩모양정보추출부(3300)는 상기 물체경계블록 합병/분리 정보추출부(3200)로부터 합병/분리정보를 입력받고, 상기 모양정보 부호화부(300)로부터 패딩을 위한 모양정보(원영상 모양정보, 복원된 모양정보 또는 원영상 모양정보와 복원된 모양정보를 이용하여 생성한 임의의 모양정보등)를 입력받아 물체경계블록이 합병된 블록 및 합병되지 않은 블록의 패딩을 위한 모양정보를 출력하는 역할을 한다. The padding shape information extractor 3300 receives merger / separation information from the object boundary block merger / separation information extractor 3200 and shape information for padding from the shape information encoder 300 (original image shape). Information, restored shape information or arbitrary shape information created using original shape information and restored shape information, etc.), and outputs shape information for padding of the object boundary block and the unmerged block. It plays a role.
상기 물체밖 영역패딩부(3400)는 상기 물체경계블록 합병부(3100)로부터 영상정보를 입력받아 상기 패딩모양정보 추출부(3300)에서 입력되는 합병된 블록 및 합병되지않은 블록의 패딩을 위한 모양정보를 이용하여 물체밖영역을 패딩하는 역할을 한다.The object outside area padding unit 3400 receives image information from the object boundary block merging unit 3100 to form padding of merged blocks and non-merged blocks input from the padding shape information extracting unit 3300. Padding the area outside the object by using the information.
상기 DCT부(3500)는 상기 물체밖 영역패딩부(3400)로부터 영상정보를 입력받아 DCT를 수행하는 역할을 하고, 상기 양자화부(3600)는 상기 DCT부(3500)에서 DCT계수를 입력받아 양자화하는 역할을 하며, 상기 DCT계수 및 관련정보 부호화부(3700)는 상기 양자화부(3600)에서 양자화된 DCT계수를 입력받아 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력되는 합병/분리정보를 이용하여 가변장부호화하여 상기 다중화부(900)로 출력하는 역할을 한다.The DCT unit 3500 receives image information from the object outside area padding unit 3400 to perform DCT, and the quantization unit 3600 receives the DCT coefficient from the DCT unit 3500 to quantize the quantization unit. The DCT coefficient and the related information encoder 3700 may receive a DCT coefficient quantized by the quantization unit 3600 and merge / separate the object boundary block merge / separation information extractor 3200. Variable length encoding by using the information to output to the multiplexer 900.
상기 역 양자화부(3800)는 상기 양자화부(3600)에서 양자화된 신호를 입력받아 역 양자화하는 역할을 하고, 상기 역 DCT부(3900)는 상기 역 양자화부(3800)에서 역 양자화된 신호를 입력받아 역 DCT를 수행하는 역할을 하며, 상기 합병된 블록분리부(4000)는 상기 역 DCT부(3900)에서 복호화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부(3200)로부터 입력되는 합병/분리정보를 이용하여 합병된 블록을 분리하여 재구성된 영상정보를 상기 가산기(700)를 통해 상기 VOP 검출부(800)로 출력하는 역할을 한다.The inverse quantization unit 3800 receives inverse quantization by receiving the quantized signal from the quantization unit 3600, and the inverse DCT unit 3900 inputs the inverse quantized signal in the inverse quantization unit 3800. And performs a reverse DCT, and the merged block separator 4000 receives a signal decoded by the reverse DCT unit 3900 and is input from the object boundary block merge / separation information extractor 3200. It divides the merged blocks using merge / separation information and outputs reconstructed image information to the VOP detector 800 through the adder 700.
상기와 같이 구성된 본 발명의 제 3실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 이용한 부호화방법에 대해 설명하기로한다.An encoding method using the image information encoding apparatus of the MPEG-4 encoder according to the third embodiment of the present invention configured as described above will be described.
먼저, 물체경계블록 합병/분리 정보추출부(3200)가 상기 모양정보 부호화부(300)로부터 복원된 모양정보를 입력받아 물체경계블록을 합병할 것인지의 여부 및 분리할 것인지에 대한 여부를 판단하고 그에 따른 물체경계블록 합병/분리 정보를 추출하여 출력한다.First, the object boundary block merging / separation information extracting unit 3200 receives shape information restored from the shape information encoding unit 300 and determines whether or not to merge the object boundary block and whether to separate the object boundary block. Extracts the object boundary block merge / separation information accordingly and outputs
이어서, 물체경계블록 합병부(3100)는 상기 감산기(500)로부터 원영상정보 또는 영상오차정보를 입력받아 상기 모양정보 부호화부(300)에서 입력되는 복원된 모양정보 및 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력되는 합병/분리정보를 이용하여 물체경계블록의 영상정보를 합병한다. Subsequently, the object boundary block merging unit 3100 receives original image information or image error information from the subtractor 500 and merges / separates the restored shape information and the object boundary block inputted from the shape information encoder 300. The image information of the object boundary block is merged using the merge / separation information input from the information extracting unit 3200.
이때, 패딩모양정보추출부(3300)는 상기 물체경계블록 합병/분리 정보추출부(3200)로부터 합병/분리정보를 입력받고, 상기 모양정보 부호화부(300)로부터 패딩을 위한 모양정보(원영상 모양정보, 복원된 모양정보 또는 원영상 모양정보와 복원된 모양정보를 이용하여 생성한 임의의 모양정보등)를 입력받아 물체경계블록이 합병된 블록 및 합병되지 않은 블록의 패딩을 위한 모양정보를 출력한다. In this case, the padding shape information extractor 3300 receives merger / separation information from the object boundary block merger / separation information extractor 3200 and shape information for padding from the shape information encoder 300 (the original image). Shape information, restored shape information or arbitrary shape information created using original shape information and restored shape information), etc.) and inputs shape information for padding of the object boundary block and the unmerged block. Output
이어서, 물체밖 영역패딩부(3400)는 상기 물체경계블록 합병부(3100)로부터 영상정보를 입력받아 상기 패딩모양정보 추출부(3300)에서 입력되는 합병된 블록 및 합병되지않은 블록의 패딩을 위한 모양정보를 이용하여 물체밖영역을 패딩한다.Subsequently, the object outside area padding unit 3400 receives image information from the object boundary block merging unit 3100 to pad the merged block and the unmerged block that are input from the padding shape information extracting unit 3300. Pad the area outside the object using shape information.
또한, DCT부(3500)는 상기 물체밖 영역패딩부(3400)로부터 영상정보를 입력받아 DCT를 수행하고, 양자화부(3600)는 상기 DCT부(3500)에서 DCT계수를 입력받아 양자화한다.In addition, the DCT unit 3500 receives the image information from the outside object padding unit 3400 and performs DCT, and the quantization unit 3600 receives the DCT coefficient from the DCT unit 3500 and quantizes it.
이어서, DCT계수 및 관련정보 부호화부(3700)는 상기 양자화부(3600)에서 양자화된 DCT계수를 입력받아 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력되는 합병/분리정보를 이용하여 가변장부호화하여 상기 다중화부(900)로 출력한다.Subsequently, the DCT coefficient and related information encoder 3700 receives the DCT coefficient quantized by the quantizer 3600 and uses the merge / separation information input from the object boundary block merge / separation information extractor 3200. Variable length encoding is output to the multiplexer 900.
한편, 역 양자화부(3800)는 상기 양자화부(3600)에서 양자화된 신호를 입력받아 역 양자화하고, 역 DCT부(3900)는 상기 역 양자화부(3800)에서 역 양자화된 신호를 입력받아 역 DCT를 수행한다.On the other hand, the inverse quantizer 3800 receives the quantized signal from the quantizer 3600 and inverse quantizes, and the inverse DCT unit 3900 receives the inverse quantized signal from the inverse quantizer 3800 and receives inverse DCT. Perform
이어서, 합병된 블록분리부(4000)는 상기 역 DCT부(3900)에서 복호화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부(3200)로부터 입력되는 합병/분리정보를 이용하여 합병된 블록을 분리하여 재구성된 영상정보를 상기 가산기(700)를 통해 상기 VOP 검출부(800)로 출력한다.Subsequently, the merged block separating unit 4000 receives the signal decoded by the inverse DCT unit 3900 and merges using the merge / separation information input from the object boundary block merging / separation information extracting unit 3200. The block is divided and outputs the reconstructed image information to the VOP detector 800 through the adder 700.
상기 물체경계블록 합병/분리 정보추출부(3200)에서 합병/분리정보 추출과정은 상기 제 1, 2실시예와 동일하다.The merging / separating information extraction process in the object boundary block merging / separation information extracting unit 3200 is the same as in the first and second embodiments.
상기 물체경계블록 합병부(3100)가 상기 물체경계블록 합병/분리 정보추출부(3200)로부터 추출된 합병정보에 관한 플래그와 상기 모양정보 부호화부(300)로부터 복원된 모양정보를 입력받아 이를 이용하여 상기 감산기(500)에서 매크로 블록단위로 입력받은 원영상정보 또는 영상오차정보의 물체경계블록합병동작에 대해 설명하기로 한다.The object boundary block merging unit 3100 receives a flag relating to the merged information extracted from the object boundary block merging / separation information extracting unit 3200 and shape information restored from the shape information encoding unit 300 and uses the received information. The object boundary block merging operation of the original image information or the image error information input in macroblock units by the subtractor 500 will be described.
도 19는 본 발명의 제 3실시예에 따른 물체경계블록 합병부의 동작에 관한 플로우챠트로서, (a)는 물체경계블록 합병부에서 이루어지는 전체 동작플로우챠트를 도시한 도면이고, (b)는 도 (a)의 스텝(S1, S3)에 모두 적용되는 동작플로우챠트이다.FIG. 19 is a flowchart showing the operation of the object boundary block merging unit according to the third embodiment of the present invention, where (a) is an overall operation flowchart performed in the object boundary block merging unit, and (b) is a diagram of FIG. This is an operation flowchart applied to all of the steps S1 and S3 in (a).
먼저, 물체경계블록 합병부(3100)는 감산기(500)에서 입력받은 매크로 블록단위인 영상정보중 휘도블록에 물체경계블록합병을 적용시킨다(S1).First, the object boundary block merging unit 3100 applies the object boundary block merger to the luminance block of the image information which is the macro block unit input from the subtractor 500 (S1).
상기 입력 영상정보에 색차블록이 존재하는 동시에 영상포맷이 4 : 2 : 0 이 아닌지의 여부를 판단한다(S2).It is determined whether a color difference block exists in the input image information and whether the image format is not 4: 2: 0 (S2).
상기 스텝(S2)에서 입력영상정보의 포맷이 4 : 2 : 2 나 4 : 4 : 4 인 경우(YES), 색차성분별로 색차블록에 물체경계블록 합병을 적용시킨다(S3).If the format of the input image information is 4: 2: 2 or 4: 4: 4 in step S2 (YES), the object boundary block merger is applied to the color difference block for each color difference component (S3).
한편, 상기 스텝(S2)에서 색차블록이 존재하지 않거나 영상포맷이 4 : 2 : 0일 경우(NO), 종료한다.On the other hand, if the chrominance block does not exist or the image format is 4: 2: 0 in step S2 (NO), the process ends.
상기 스텝(S1)에서 매크로 블록단위인 영상정보중 휘도블록에 물체경계블록합병을 적용하는 것에 대해서 도 19의 (b)를 참조하여 설명하기로 한다.The application of the object boundary block merger to the luminance block of the image information in macroblock units in step S1 will be described with reference to FIG. 19B.
먼저, 물체경계블록 합병부(3100)는 입력되는 16×16 휘도블록내의 4가지 8×8 블록 중 한 블록(Bi)에 대한 합병/분리정보를 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력받아 그 블록(Bi)이 다른 블록을 합병하는 블록인지의 여부를 판단한다(S1-1).First, the object boundary block merging unit 3100 merges / separates information of one block Bi among four 8 × 8 blocks in an input 16 × 16 luminance block, and then merges / separates information extracting unit 3200 the object boundary block. It is determined whether or not the block (Bi) is a block to merge the other block is received from the (S1-1).
상기 스텝(S1-1)에서 상기 임의의 한 블록(Bi)이 합병하는 블록이면(YES), 상기 블록(Bi)과 그 블록에 합병되는 블록을 도 21에 도시한 바와같이 합병한(S1-2).If the arbitrary one block Bi is a merged block (YES) in step S1-1, the block Bi and a block merged with the block are merged as shown in Fig. 21 (S1-). 2).
상기 도 21는 본 발명의 제 3실시예에 따른 물체경계블록 합병기술을 나타낸 도면으로서, (a)는 합병이전의 블록을 나타낸 것으로서, 합병하는 블록이 좌측상단 블록이고, 합병되는 블록은 우측상단블록이라 가정한다. (b)는 합병후의 블록을 나타낸 것으로서, 합병되는 상세 과정은 먼저, 합병되는 블록을 180도 회전시킨 후 합병하는 블록에 합병한다. 이때 180도 회전시킨 합병되는 블록의 물체내 영역의 영상정보는 합병하는 블록의 정보를 대체한다.21 is a view showing the object boundary block merging technology according to the third embodiment of the present invention, where (a) shows a block before merging, and the block to be merged is the upper left block and the block to be merged is the upper right Assume a block (b) shows a block after the merge, and the detailed process of merging first rotates the merged block by 180 degrees and then merges the merged block. In this case, the image information of the intra-object region of the merged block rotated 180 degrees replaces the information of the merged block.
이어서, 상기 i의 수를 하나 증가 시킨 후(S1-3), 상기 i가 4 보다 작은지의 여부를 판단하여(S1-4), 상기 i가 4보다 작으면(YES), 상기 스텝(S1-1)으로 진행하는 반면에 , 상기 i가 4가 되면 종료한다. Subsequently, after increasing the number of i by one (S1-3), it is determined whether i is less than 4 (S1-4), and if i is less than 4 (YES), the step (S1-) While proceeding to 1), when i reaches 4, it ends.
한편, 상기 스텝(S1-1)에서 상기 블록(Bi)이 다른 블록을 합병하는 블록이 아니면, 즉 합병되는 블록이나 물체밖 블록이면(NO), 상기 스텝(S1-3)으로 진행된다.On the other hand, in step S1-1, if the block Bi is not a block for merging other blocks, that is, a block to be merged or an out-of-object block (NO), the process proceeds to step S1-3.
한편, 상기 스텝(S3)에서 색차성분별(Cb, Cr)로 임의의 색차블록에 물체경계블록을 합병하는 과정에 대해 상기 도 19의 (b)를 참조하여 설명하기로 한다.Meanwhile, a process of merging an object boundary block with an arbitrary color difference block by color difference components Cb and Cr in step S3 will be described with reference to FIG. 19B.
먼저, 물체경계블록 합병부(3100)는 입력된 영상정보의 색차정보(Cb 또는 Cr)내의 2가지 8×8 블록 중 한 블록(Bi)에 대한 합병/분리정보를 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력받아 그 블록(Bi)이 다른 블록을 합병하는 블록인지의 여부를 판단한다(S3-1).First, the object boundary block merging unit 3100 merges / separates the object boundary block merging / separation information for one block Bi among two 8 × 8 blocks in the color difference information Cb or Cr of the input image information. In operation S3-1, the information extracting unit 3200 receives the input from the information extracting unit 3200 and determines whether the block Bi is a block for merging other blocks.
상기 스텝(S3-1)에서 상기 임의의 한 블록(Bi)이 합병하는 블록이면(YES), 상기 블록(Bi)과 그 블록에 합병되는 블록을 도 21에 도시한 바와같이 합병한다(S3-2).If the arbitrary block Bi is a merged block in step S3-1 (YES), the block Bi and a block merged with the block are merged as shown in Fig. 21 (S3-). 2).
상기 도 21은 본 발명의 제 3실시예에 따른 물체경계블록 합병기술을 나타낸 도면으로서, (a)는 합병이전의 블록을 나타낸 것으로서, 합병하는 블록이 좌측상단 블록이고, 합병되는 블록은 우측상단블록이다. (b)는 합병후의 블록을 나타낸 것으로서, 합병되는 상세 과정은 먼저, 합병되는 블록을 180도 회전시킨 후 합병하는 블록에 합병한다. 이때 180도 회전시킨 합병되는 블록의 물체내 영역의 영상정보는 합병하는 블록의 정보를 대체한다.21 is a view showing the object boundary block merging technology according to the third embodiment of the present invention, in which (a) shows a block before merging, and the block to be merged is the upper left block, and the block to be merged is the upper right. It is a block. (b) shows a block after the merge, and the detailed process of merging first rotates the merged block by 180 degrees and then merges the merged block. In this case, the image information of the intra-object region of the merged block rotated 180 degrees replaces the information of the merged block.
이어서, 상기 i의 수를 하나 증가 시킨 후(S3-3), 상기 i가 2보다 작은지의 여부를 판단하여(S3-4), 상기 i가 2보다 작으면(YES), 상기 스텝(S3-1)으로 진행하는 반면에 , 상기 i가 2가 되면 종료한다. Subsequently, after increasing the number of i by one (S3-3), it is determined whether i is less than 2 (S3-4), and when i is less than 2 (YES), the step (S3-) On the other hand, the process proceeds to 1) and ends when i becomes 2.
한편, 상기 스텝(S3-1)에서 상기 블록(Bi)이 다른 블록을 합병하는 블록이 아니면, 즉 합병되는 블록이나 물체밖블록이면(NO), 상기 스텝(S3-3)으로 진행된다. On the other hand, in step S3-1, if the block Bi is not a block for merging other blocks, that is, a block to be merged or an out-of-object block NO, the flow advances to step S3-3.
한편, 상기 합병된 블록분리부(4000)가 상기 역 DCT부(3900)에서 복호화된 신호를 입력받아 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력되는 합병/분리 정보를 이용하여 합병된 블록을 분리하여 영상정보를 재구성하는 기술에 대해 상세히 설명하기로 한다.Meanwhile, the merged block separator 4000 receives a signal decoded by the inverse DCT unit 3900 and merges the merged data using the merge / separation information input from the object boundary block merge / separation information extractor 3200. A technique of reconstructing image information by separating the blocks is described in detail.
도 20은 본발명의 제 3실시예에 따른 물체경계블록 분리부의 동작을 도시한 플로우챠트로서, (a)는 합병된 블록 분리부에서 이루어지는 전체 동작플로우챠트를 도시한 도면이고, (b)는 도 (a)의 스텝(S1, S3)에 모두 적용되는 동작플로우챠트이다.FIG. 20 is a flowchart showing the operation of the object boundary block separator according to the third embodiment of the present invention, where (a) is an overall operation flowchart performed in the merged block separator, and (b) This is an operational flowchart applied to both steps S1 and S3 in FIG.
먼저, 합병된 블록분리부(4000)는 역 DCT부(3900)에서 입력받은 매크로 블록단위인 영상정보중 휘도블록에 물체경계블록 분리를 적용시킨다(S1).First, the merged block separator 4000 applies the object boundary block separation to the luminance block of the image information which is the macroblock unit input from the inverse DCT unit 3900 (S1).
상기 입력 영상정보에 색차블록이 존재하는 동시에 영상포맷이 4 : 2 : 0 이 아닌지의 여부를 판단한다(S2).It is determined whether a color difference block exists in the input image information and whether the image format is not 4: 2: 0 (S2).
상기 스텝(S2)에서 입력영상정보의 포맷이 4 : 2 : 2 나 4 : 4 : 4 인 경우(YES), 색차성분별로 색차블록에 물체경계블록 분리를 적용시킨다.In step S2, when the format of the input image information is 4: 2: 2 or 4: 4: 4 (YES), object boundary block separation is applied to the color difference block for each color difference component.
한편, 상기 스텝(S2)에서 색차블록이 존재하지 않거나 영상포맷이 4 : 2 : 0일 경우(NO), 종료한다.On the other hand, if the chrominance block does not exist or the image format is 4: 2: 0 in step S2 (NO), the process ends.
상기 스텝(S1)에서 매크로 블록단위인 영상정보중 휘도블록에 물체경계블록분리를 적용하는 것에 대해서 도 20의 (b)를 참조하여 설명하기로 한다.In the step S1, the application of the object boundary block separation to the luminance block of the image information in macroblock units will be described with reference to FIG. 20B.
먼저, 합병된 블록분리부(4000)는 입력되는 16×16 휘도블록내의 4가지 8×8 블록 중 한 블록(Bi)에 대한 합병/분리정보를 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력받아 그 블록(Bi)이 다른 블록을 합병했는지의 여부를 판단한다(S1-1).First, the merged block separating unit 4000 merges / separates information of one block Bi among four 8 × 8 blocks in an input 16 × 16 luminance block by the object boundary block merging / separation information extracting unit 3200. ), It is determined whether the block Bi merges with another block (S1-1).
상기 스텝(S1-1)에서 상기 임의의 한 블록(Bi)이 다른 블록을 합병한 블록이면(YES), 상기 블록(Bi)으로부터 합병된 블럭을 도 22에 도시한 바와같이 분리한다(S1-2).If the one arbitrary block Bi is a block in which the other blocks are merged in the step S1-1 (YES), the merged blocks are separated from the block Bi as shown in Fig. 22 (S1-). 2).
상기 도 22는 본 발명의 제 3실시예에 따른 물체경계블록 분리기술을 나타낸 도면으로서, (a)는 분리 이전의 합병한 블록을 나타낸 것으로서, 합병한 블록이 좌측상단 블록이고, (b)는 분리후의 블록을 나타낸 것으로서, 분리되는 상세 과정은 먼저, 합병한 블록이라고 판정되면 합병/분리정보에 의해 합병된 블록을 파악하고, 그 파악된 블록의 영상정보를 상기 합병한 블록을 180도 회전시킨 영상정보로 모두 대체한다. 도 22의 (b)에서 분리된 모습이 이상하게 보이나, 불필요한 정보는 합병과정에서 모양정보에 의해 무시되므로 단지 복사과정만이 수행되는 것과 동일하다.22 is a view showing the object boundary block separation technology according to the third embodiment of the present invention, (a) shows a merged block before separation, and the merged block is the upper left block, and (b) The detailed process for separating, which shows the block after separation, first determines the merged block by the merge / separation information when it is determined that the merged block, and rotates the merged block 180 degrees by the image information of the identified block. Replace all with video information. Although the separated state in FIG. 22 (b) seems strange, unnecessary information is ignored by the shape information in the merging process, so that only the copying process is performed.
이어서, 상기 i의 수를 하나 증가 시킨 후(S1-3), 상기 i가 4 보다 작은지의 여부를 판단하여(S1-4), 상기 i가 4보다 작으면(YES), 상기 스텝(S1-1)으로 진행하는 반면에 , 상기 i가 4가 되면 종료한다. Subsequently, after increasing the number of i by one (S1-3), it is determined whether i is less than 4 (S1-4), and if i is less than 4 (YES), the step (S1-) While proceeding to 1), when i reaches 4, it ends.
한편, 상기 스텝(S1-1)에서 상기 블록(Bi)이 다른 블록을 합병한 블록이 아니면(NO), 상기 스텝(S1-3)으로 진행된다.On the other hand, in step S1-1, if the block Bi is not a block in which another block is merged (NO), the process proceeds to the step S1-3.
한편, 상기 스텝(S3)에서 색차성분별(Cb, Cr)로 임의의 색차블록에서 물체경계블록을 분리하는 과정에 대해 상기 도 20의 (b)를 참조하여 설명하기로 한다.Meanwhile, a process of separating the object boundary block from any color difference block by the color difference components Cb and Cr in step S3 will be described with reference to FIG. 20B.
먼저, 합병된 블록분리부(4000)는 입력되는 영상정보의 두가지 색차블록내의 2가지 8×8 색차블록 중 한 블록(Bi)에 대한 합병/분리정보를 상기 물체경계블록 합병/분리 정보추출부(3200)에서 입력받아 그 블록(Bi)이 다른 블록을 합병했는지의 여부를 판단한다(S3-1).First, the merged block separating unit 4000 merges / separates information of one block Bi among two 8 × 8 color difference blocks in two color difference blocks of the input image information, and merges / separates information extracting unit of the object boundary block. In operation S3-1, it is determined whether the block Bi is merged with another block by receiving the input at 3200.
상기 스텝(S3-1)에서 상기 임의의 한 블록(Bi)이 다른 블록을 합병한 블록이면(YES), 상기 블록(Bi)으로부터 합병된 블럭을 도 22에 도시한 바와같이 분리한다(S3-2).In step S3-1, if any one of the blocks Bi is a merged block (YES), the merged block is separated from the block Bi as shown in Fig. 22 (S3-). 2).
상기 도 22는 본 발명의 제 3실시예에 따른 물체경계블록 분리기술을 나타낸 도면으로서, (a)는 분리 이전의 합병한 블록을 나타낸 것으로서, 합병한 블록이 좌측상단 블록이고, (b)는 분리후의 블록을 나타낸 것으로서, 분리되는 상세 과정은 먼저, 합병한 블록이라고 판정되면 합병/분리정보에 의해 합병된 블록을 파악하고, 그 파악된 블록의 영상정보를 상기 합병한 블록을 180도 회전시킨 영상정보로 모두 대체한다. 도 22의 (b)에서 분리된 모습이 이상하게 보이나, 불필요한 정보는 합병과정에서 모양정보에 의해 무시되므로 단지 복사과정만이 수행되는 것과 동일하다.22 is a view showing the object boundary block separation technology according to the third embodiment of the present invention, (a) shows a merged block before separation, and the merged block is the upper left block, and (b) The detailed process for separating, which shows the block after separation, first determines the merged block by the merge / separation information when it is determined that the merged block, and rotates the merged block 180 degrees by the image information of the identified block. Replace all with video information. Although the separated state in FIG. 22 (b) seems strange, unnecessary information is ignored by the shape information in the merging process, so that only the copying process is performed.
이어서, 상기 i의 수를 하나 증가 시킨 후(S3-3), 상기 i가 2 보다 작은지의 여부를 판단하여(S3-4), 상기 i가 2보다 작으면(YES), 상기 스텝(S3-1)으로 진행하는 반면에 , 상기 i가 2가 되면 종료한다. Subsequently, after increasing the number of i by one (S3-3), it is determined whether i is less than 2 (S3-4), and when i is less than 2 (YES), the step (S3-) On the other hand, the process proceeds to 1) and ends when i becomes 2.
한편, 상기 스텝(S3-1)에서 상기 블록(Bi)이 다른 블록을 합병한 블록이 아니면(NO), 상기 스텝(S3-3)으로 진행된다.On the other hand, in step S3-1, if the block Bi is not a block in which another block is merged (NO), the process proceeds to the step S3-3.
한편, 상기 제 1, 2, 3 실시예에 의한 MPEG-4 부호화기의 영상정보 부호화방법에 있어서, 물체경계블록 합병부 및 합병된 블록분리부가 색차블록을 합병 및 분리하는 과정중 비교하는 i값을 2로 두었으나, 이는 영상포맷을 4 : 2 : 2 로 가정한 경우에 적용되는 값이며, 만약 영상포맷이 4 : 4 : 4일 경우는 i값이 4가 된다. On the other hand, in the video information encoding method of the MPEG-4 encoder according to the first, second, and third embodiments, i-values for comparing the object boundary block merging unit and the merged block separating unit during merging and separating color difference blocks are compared. Although it is set to 2, this value is applied when the image format is assumed to be 4: 2: 2. If the image format is 4: 4: 4, the i value is 4.
상술한 바와 같이 본 발명에 의한 MPEG-4 부호화기의 영상정보 부호화장치 및 그 방법에 의하면 영역기반의 영상정보 부호화시 물체경계블록을 합병할 것인지 분리할 것인지의 여부를 복원된 모양정보를 이용하여 판단한 후 그에 따른 물체 경계블록 합병/분리 정보를 추출하는 물체경계블록 합병/분리 정보추출부를 물체경계블록 합병부 및 합병된 블록분리부와 분리시켜 구성하므로써 중복된 구성을 피할 수 있어 시스템 구현시 복잡도를 줄일 수 있도록 한다는 뛰어난 효과가 있다.As described above, according to the video information encoding apparatus and method of the MPEG-4 encoder according to the present invention, it is determined by using the reconstructed shape information whether or not to merge or separate object boundary blocks when encoding region-based image information. After that, the object boundary block merging / separation information extraction unit extracting the object boundary block merging / separation information is separated from the object boundary block merging unit and the merged block separation unit, thereby avoiding the redundant configuration. It is an excellent effect that can be reduced.
도 1은 일반적인 MPEG-4 영상부호화기의 하드웨어적인 블록구성도,1 is a hardware block diagram of a typical MPEG-4 video encoder;
도 2는 임의의 영상에서 전체영상이나 그 영상을 이루는 의미있는 물체영역내의 정보만으로 구성된 영상인 VOP를 나타낸 도면,FIG. 2 is a view showing a VOP, which is an image composed only of information in a whole image or a meaningful object region constituting the image in an arbitrary image;
도 3은 VOP내의 매크로블록 종류를 도시한 도면,3 is a diagram illustrating the type of macroblocks in a VOP;
도 4는 VOP내의 블록 종류를 도시한 도면, 4 shows block types in a VOP;
도 5는 영역기반의 영상부호화 방법시의 저주파성분 확장 패딩기술을 설명하기 위한 도면,FIG. 5 is a view for explaining a low frequency component extended padding technique in a region-based image encoding method; FIG.
도 6은 영역기반의 영상부호화 방법시의 제로패딩기술을 설명하기 위한 도면,6 is a diagram for describing a zero padding technique in an area-based image encoding method;
도 7은 영역기반의 영상부호화 방법시의 모양적응형 DCT기술을 설명하기 위한 도면,7 is a view for explaining the shape-adaptive DCT technology in the area-based image encoding method;
도 8은 종래 패딩기술이 적용된 물체경계블록 합병/분리 기술에 따른 영상정보 부호화부의 구성도,8 is a block diagram of an image information encoder according to an object boundary block merge / separation technique to which a conventional padding technique is applied;
도 9는 종래 모양적응형 DCT가 적용된 물체경계블록 합병/분리 기술에 따른 영상정보 부호화부의 구성도,9 is a block diagram of an image information encoding unit according to an object boundary block merge / separation technique to which a conventional shape-adaptive DCT is applied;
도 10은 본 발명의 제 1실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 도시한 도면,10 is a diagram showing an image information encoding apparatus of an MPEG-4 encoder according to the first embodiment of the present invention;
도 11은 본 발명의 제 2실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 도시한 도면,11 is a diagram showing an image information encoding apparatus of an MPEG-4 encoder according to a second embodiment of the present invention;
도 12는 부호화하려는 영상의 영상포맷에 따른 매크로블록내의 블록 배열을 도시한 도면,12 is a diagram showing a block arrangement in a macroblock according to an image format of an image to be encoded;
도 13은 도 12의 각 영상포맷에 대해 물체경계블록 합병/분리가 적용되는 모델을 도시한 도면,FIG. 13 is a diagram illustrating a model to which object boundary block merging / separation is applied to each image format of FIG. 12. FIG.
도 14는 본 발명의 제 1실시예에 따른 물체경계블록 합병부의 동작에 관한 플로우챠트,14 is a flowchart of the operation of the object boundary block merging unit according to the first embodiment of the present invention;
도 15는 본 발명의 제 1, 2실시예에 따른 물체경계블록 분리부의 동작을 도시한 플로우챠트,15 is a flowchart showing the operation of the object boundary block separator according to the first and second embodiments of the present invention;
도 16은 본 발명의 제 1실시예에 따른 물체경계블록 합병기술을 나타낸 도면,FIG. 16 is a view illustrating an object boundary block merging technology according to a first embodiment of the present invention; FIG.
도 17은 본 발명의 제 1, 2실시예에 따른 물체경계블록 분리기술을 나타낸 도면,17 is a view showing a boundary object separation technology according to the first and second embodiments of the present invention;
도 18은 본 발명의 제 3실시예에 의한 MPEG-4 부호화기의 영상정보 부호화장치를 도시한 도면,18 is a diagram showing an image information encoding apparatus of an MPEG-4 encoder according to a third embodiment of the present invention;
도 19는 본 발명의 제 3실시예에 따른 물체경계블록 합병부의 동작에 관한 플로우챠트,19 is a flowchart of the operation of the object boundary block merging unit according to the third embodiment of the present invention;
도 20은 본 발명의 제 3실시예에 따른 물체경계블록 분리부의 동작에 관한 플로우챠트,20 is a flowchart illustrating an operation of an object boundary block separator according to a third embodiment of the present invention;
도 21은 본 발명의 제 3실시예에 따른 물체경계블록 합병기술을 나타낸 도면,21 is a view showing the object boundary block merging technology according to a third embodiment of the present invention;
도 22는 본 발명의 제 3실시예에 따른 물체경계블록 분리기술을 나타낸 도면.22 is a view illustrating a boundary object separation technique according to a third embodiment of the present invention.
<도면의 주요부분에 대한 부호의 설명><Description of Symbols for Main Parts of Drawings>
1000 : 영상정보 부호화장치 1100 : 물체밖 영역패딩부1000: Image information encoding apparatus 1100: Area padding outside the object
1200 : 물체경계블록 합병/분리 정보추출부 1300 : 물체경계블록 합병부1200: object boundary block merger / separation information extraction unit 1300: object boundary block merger
1400 : DCT부 1500 : 양자화부1400: DCT unit 1500: quantization unit
1600 : DCT계수 및 관련정보 부호화부 1700 : 역 양자화부1600: DCT coefficient and related information encoder 1700: Inverse quantizer
1800 : 역 DCT부 1900 : 합병된 블록분리부1800: reverse DCT unit 1900: merged block separation unit
Claims (49)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-1999-0012597A KR100530853B1 (en) | 1999-04-09 | 1999-04-09 | Device for encoding video information of mpeg-4 encoder and thereof method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-1999-0012597A KR100530853B1 (en) | 1999-04-09 | 1999-04-09 | Device for encoding video information of mpeg-4 encoder and thereof method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20000065873A KR20000065873A (en) | 2000-11-15 |
KR100530853B1 true KR100530853B1 (en) | 2005-11-23 |
Family
ID=19579293
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-1999-0012597A Expired - Fee Related KR100530853B1 (en) | 1999-04-09 | 1999-04-09 | Device for encoding video information of mpeg-4 encoder and thereof method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100530853B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980024883A (en) * | 1996-09-25 | 1998-07-06 | 김영환 | Image information encoding / decoding apparatus and method |
KR19980068228A (en) * | 1997-02-17 | 1998-10-15 | 김영환 | Image Information Coding Method Using Object Boundary Block Merging / Segmentation |
JPH1169356A (en) * | 1997-08-25 | 1999-03-09 | Mitsubishi Electric Corp | Video encoding and video decoding |
-
1999
- 1999-04-09 KR KR10-1999-0012597A patent/KR100530853B1/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19980024883A (en) * | 1996-09-25 | 1998-07-06 | 김영환 | Image information encoding / decoding apparatus and method |
KR19980068228A (en) * | 1997-02-17 | 1998-10-15 | 김영환 | Image Information Coding Method Using Object Boundary Block Merging / Segmentation |
JPH1169356A (en) * | 1997-08-25 | 1999-03-09 | Mitsubishi Electric Corp | Video encoding and video decoding |
Also Published As
Publication number | Publication date |
---|---|
KR20000065873A (en) | 2000-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100303685B1 (en) | Image predictive encoding device and method | |
JP3895431B2 (en) | Video information encoding method using object boundary block merge / division | |
EP1289301B1 (en) | Method and device for encoding image | |
US6307885B1 (en) | Device for and method of coding/decoding image information | |
KR100306337B1 (en) | Digital image coding method and digital image coder, and digital image decoding method and digital image decoder, and data storage medium | |
JP4226172B2 (en) | Video compression encoding apparatus and decoding apparatus using adaptive conversion method and method thereof | |
KR930018537A (en) | Video signal band compression device of digital VTR | |
JP3720850B2 (en) | Method and apparatus for encoding and decoding digitized images | |
KR20010031548A (en) | Method and device for processing a digitized image | |
JP2025513600A (en) | VIDEO DECODING METHOD, VIDEO ENCODING METHOD, APPARATUS, COMPUTER PRO | |
KR100530853B1 (en) | Device for encoding video information of mpeg-4 encoder and thereof method | |
KR100359819B1 (en) | An Efficient Edge Prediction Methods In Spatial Domain Of Video Coding | |
KR100319916B1 (en) | Hierarchical Scalable Digital Image Compression / Restoration Methods and Apparatus | |
KR100466592B1 (en) | Boundary block video data coding method | |
WO2020248099A1 (en) | Perceptual adaptive quantization and rounding offset with piece-wise mapping function | |
JP3798432B2 (en) | Method and apparatus for encoding and decoding digital images | |
KR100522595B1 (en) | MPEG video decoding methods and MPEG video decoders | |
JP2001268581A (en) | Image prediction decoding method, image prediction decoding device, image prediction encoding method, image prediction encoding device, and data storage medium | |
KR100327102B1 (en) | A conversion method of compressed moving video on the video communication system | |
KR100483672B1 (en) | Shape Information Encoding Method of Image Signal Processing | |
KR100417131B1 (en) | Shape-Adaptive Video Encoding Device Using Merging and Padding of Macroblocks | |
KR100559713B1 (en) | Color information encoding / decoding device for parallel scan and its method | |
KR100312411B1 (en) | A conversion method of the compressed moving video on the video communication system | |
Lee | Standard coding for mpeg-1, mpeg-2 and advanced coding for mpeg-4 | |
KR100491998B1 (en) | Image size information representation / encoding method in video encoding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
N231 | Notification of change of applicant | ||
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
A201 | Request for examination | ||
PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-3-3-R10-R18-oth-X000 |
|
PN2301 | Change of applicant |
St.27 status event code: A-3-3-R10-R13-asn-PN2301 St.27 status event code: A-3-3-R10-R11-asn-PN2301 |
|
R17-X000 | Change to representative recorded |
St.27 status event code: A-3-3-R10-R17-oth-X000 |
|
D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 4 |
|
FPAY | Annual fee payment |
Payment date: 20091027 Year of fee payment: 5 |
|
PR1001 | Payment of annual fee |
St.27 status event code: A-4-4-U10-U11-oth-PR1001 Fee payment year number: 5 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20101118 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20101118 |
|
P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |