WO2012176381A1 - 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 - Google Patents
動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 Download PDFInfo
- Publication number
- WO2012176381A1 WO2012176381A1 PCT/JP2012/003555 JP2012003555W WO2012176381A1 WO 2012176381 A1 WO2012176381 A1 WO 2012176381A1 JP 2012003555 W JP2012003555 W JP 2012003555W WO 2012176381 A1 WO2012176381 A1 WO 2012176381A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- prediction
- block
- value
- coding
- intra
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/186—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
Definitions
- the present invention relates to a moving picture coding apparatus and a moving picture coding method for coding a moving picture with high efficiency, a moving picture decoding apparatus and a moving picture decoding method for decoding a moving picture coded with high efficiency, and It is about
- an input video frame is divided into rectangular blocks (coding blocks), and the coded blocks are divided.
- coding blocks coded blocks
- orthogonal transformation and quantization processing in block units on a prediction error signal which is a difference between the coding block and the prediction image
- MPEG-4 AVC / H. In H.264 (ISO / IEC 14496-10
- MPEG-4 AVC / H. In H.264 in the luminance intra prediction mode, one prediction mode can be selected from a plurality of prediction modes in block units.
- FIG. 14 is an explanatory drawing showing the intra prediction mode in the case where the block size of luminance is 4 ⁇ 4 pixels.
- white circles in the block represent pixels to be encoded, and black circles represent encoded pixels that are pixels used for prediction.
- nine intra prediction modes of mode 0 to mode 8 are defined.
- mode 2 is a mode in which average value prediction is performed, and pixels in a block are predicted by using the average value of the upper and left adjacent pixels of the block.
- Modes other than mode 2 are modes in which directionality prediction is performed.
- Mode 0 is vertical prediction, and generates a predicted image by vertically repeating adjacent pixels on a block. For example, in the case of vertical stripes, mode 0 is selected.
- Mode 1 is horizontal prediction, in which a prediction image is generated by repeating the left adjacent pixel of a block in the horizontal direction. For example, in the case of horizontal stripes, mode 1 is selected.
- Mode 3 to mode 8 are to generate interpolation pixels in a predetermined direction (direction indicated by an arrow) using encoded pixels on the top or the left of the block to generate a predicted image.
- the block size of luminance to which intra prediction is applied can be selected from 4 ⁇ 4 pixels, 8 ⁇ 8 pixels, and 16 ⁇ 16 pixels, and in the case of 8 ⁇ 8 pixels, 4 ⁇ 4 pixels Similarly, nine intra prediction modes are defined. However, for the pixels used for prediction, not pixels that have already been encoded but those that have been subjected to filter processing on these pixels are used. On the other hand, in the case of 16 ⁇ 16 pixels, in addition to the intra prediction mode relating to the average value prediction, the vertical direction prediction and the horizontal direction prediction, four intra prediction modes called Plane prediction are defined.
- the intra prediction mode related to Plane prediction is a mode in which pixels generated by interpolating in the diagonal direction the coded adjacent pixels on the top and the left of the block are set as prediction values.
- the directionality prediction mode is shown in FIG. 15 because the prediction value is generated by repeating an interpolation pixel generated from an adjacent pixel or an adjacent pixel of a block in a predetermined direction (prediction direction). If the direction of the boundary (edge) of the object in the prediction target block matches the prediction direction, and the signal value in the block is constant along the prediction direction, the prediction efficiency becomes high and the code amount Can be reduced.
- MPEG-4 AVC ISO / IEC 14496-10
- the direction of the boundary (edge) of the object in the block to be predicted matches the prediction direction, and within the block to be predicted along the prediction direction. If the signal value of is constant, it is possible to predict with high accuracy by using directional prediction. However, even if the direction of the boundary (edge) of the object in the block to be predicted matches the prediction direction, as shown in FIG. 16, if the signal value changes along the prediction direction, the prediction is performed. There was a problem that the error became large.
- the present invention has been made to solve the above-described problems, and is capable of achieving highly accurate prediction even when the signal value changes along the prediction direction, and improving the image quality.
- An object of the present invention is to obtain a coding device, a moving picture decoding device, a moving picture coding method and a moving picture decoding method.
- the intraframe prediction process is the horizontal direction prediction process
- the luminance value of the pixel adjacent to the left of the prediction block is used.
- a value proportional to the amount of change in luminance in the horizontal direction of the pixels adjacent to the top of the prediction block is added, and the value after the addition is determined as the prediction value of the prediction image to generate a prediction image
- the intra-frame prediction processing is vertical prediction processing
- a value proportional to R is added, and the value after the addition is determined as the prediction value of the prediction image.
- the intra prediction process is the horizontal prediction processing
- the prediction block is generated for the luminance value of the pixel adjacent to the left of the prediction block.
- Intra-frame prediction when generating a predicted image by adding a value proportional to the amount of change in luminance value in the horizontal direction of pixels adjacent to the top of the pixel and determining the value after the addition as the predicted value of the predicted image
- the processing is vertical prediction processing
- (A) shows distribution of the coding block and prediction block after division
- (b) is explanatory drawing which shows the condition where coding mode m ( Bn ) is allocated by hierarchy division.
- Is an explanatory diagram showing an example of the prediction block P i n-selectable intra prediction parameter coding block B n (intra prediction mode).
- the upper left pixels in the prediction block P i n is an explanatory diagram showing a relative coordinate whose origin.
- FIG. 1 is a block diagram showing a moving picture coding apparatus according to a first embodiment of the present invention.
- the block division unit 1 when a block division unit 1 receives a video signal indicating an input image, the block division unit 1 divides the input image into a maximum coding block which is a coding block of the maximum size determined by the coding control unit 2 and A process of hierarchically dividing the largest coded block into each coded block is performed until the upper limit hierarchy number determined by the quantization control unit 2 is reached.
- the block division unit 1 divides the input image into coding blocks in accordance with the division determined by the coding control unit 2 and carries out a process of outputting the coding blocks.
- each coding block is divided into one or more prediction blocks as a prediction processing unit.
- the block division unit 1 constitutes block division means.
- the coding control unit 2 determines the maximum size of the coding block which is a processing unit when the prediction processing is performed, and determines the number of layers of the upper limit when the coding block of the maximum size is hierarchically divided. Then, the process of determining the size of each coding block is performed. In addition, the coding control unit 2 selects one or more coding modes (one or more intra coding modes, one or more inter coding modes) for the coding block output from the block division unit 1. A process of selecting a coding mode with the highest coding efficiency is performed. Further, when the coding mode with the highest coding efficiency is the intra coding mode, the coding control unit 2 predicts an intra prediction parameter to be used when performing intra prediction processing on a coding block in the intra coding mode.
- Inter-prediction used when performing inter-prediction processing on a coding block in the inter-coding mode where the coding mode is determined for each prediction block that is a processing unit and the coding mode with the highest coding efficiency is the inter coding mode
- a process of determining a parameter for each prediction block which is a prediction process unit is performed.
- the coding control unit 2 carries out a process of determining a prediction differential coding parameter to be given to the transform / quantization unit 7 and the inverse quantization / inverse transform unit 8.
- the coding control unit 2 constitutes coding control means.
- the changeover switch 3 outputs the coding block output from the block division unit 1 to the intra prediction unit 4, and the coding control unit 2 If the coding mode determined by the above is the inter coding mode, the process of outputting the coding block output from the block division unit 1 to the motion compensation prediction unit 5 is performed.
- the intra prediction unit 4 performs coding control on the encoded block output from the changeover switch 3 while referring to the locally decoded image stored in the intra prediction memory 10 for each prediction block which is a prediction processing unit.
- the intra prediction process (intra-frame prediction process) using the intra prediction parameter determined by the unit 2 is performed to generate an intra predicted image.
- the intra prediction unit 4 is adjacent on the prediction block with respect to the luminance value of the pixel adjacent to the left of the prediction block.
- the value proportional to the amount of change in luminance value in the horizontal direction of the pixel being added is added, the value after addition is determined as the predicted value of the predicted image, and the intraframe prediction processing in generating the predicted image is the vertical direction
- a value proportional to the amount of change in luminance value in the vertical direction of the pixel adjacent to the left of the prediction block is added to the luminance value of the pixel adjacent above the prediction block, The value after the addition is determined as the predicted value of the predicted image.
- the intra prediction unit 4 and the memory 10 for intra prediction constitute an intra prediction means.
- the motion compensation prediction unit 5 compares the coding block output from the changeover switch 3 with the locally decoded image of one or more frames stored in the motion compensation prediction frame memory 12 in comparison with the prediction block unit which is a prediction processing unit to obtain a motion vector Inter prediction process (motion compensation prediction process) on the coding block using the motion vector and the inter prediction parameter determined by the coding control unit 2 to perform an inter prediction image Implement the process to generate.
- the prediction block unit which is a prediction processing unit to obtain a motion vector Inter prediction process (motion compensation prediction process) on the coding block using the motion vector and the inter prediction parameter determined by the coding control unit 2 to perform an inter prediction image Implement the process to generate.
- the subtraction unit 6 subtracts the intra prediction image generated by the intra prediction unit 4 or the inter prediction image generated by the motion compensation prediction unit 5 from the coding block output from the block division unit 1 and subtracts the subtraction.
- a process of outputting the predicted difference signal (difference image) which is the result to the conversion / quantization unit 7 is performed.
- the transformation / quantization unit 7 refers to the prediction difference coding parameter determined by the coding control unit 2 and performs orthogonal transformation processing (for example, DCT (discrete cosine transformation) or the like) on the prediction difference signal output from the subtraction unit 6.
- the transformation coefficient is calculated by performing orthogonal transformation processing such as KL transformation or the like in which a basic design is performed on a specific learning sequence in advance to calculate a transformation coefficient, and referring to the prediction difference encoding parameter And carry out processing for outputting compressed data, which are transform coefficients after quantization, to the inverse quantization / inverse transform unit 8 and the variable length coding unit 13.
- the subtractor 6 and the transform / quantizer 7 constitute a quantizing unit.
- the inverse quantization / inverse transform unit 8 dequantizes the compressed data output from the transform / quantization unit 7 with reference to the prediction differential encoding parameter determined by the encoding control unit 2 and also predicts the differential An inverse orthogonal transformation process is performed on the transform coefficient, which is compressed data after inverse quantization, with reference to the encoding parameter, to calculate a locally decoded prediction difference signal corresponding to the prediction difference signal output from subtraction unit 6 Perform the process.
- the adder 9 adds the locally decoded prediction difference signal calculated by the inverse quantization / inverse transformer 8, the intra prediction image generated by the intra prediction unit 4, or the inter prediction image generated by the motion compensation prediction unit 5. Are added to each other to calculate a locally decoded image corresponding to the coding block output from the block division unit 1.
- the intra prediction memory 10 is a recording medium for storing the locally decoded image calculated by the adding unit 9.
- the loop filter unit 11 performs a predetermined filtering process on the locally decoded image calculated by the adding unit 9 and performs a process of outputting the locally decoded image after the filtering process.
- the motion compensation prediction frame memory 12 is a recording medium for storing the locally decoded image after the filtering process.
- the variable-length coding unit 13 outputs the compressed data output from the transform / quantization unit 7 and the output signal of the coding control unit 2 (block division information in the maximum coding block, coding mode, prediction differential coding parameter, A process of generating a bitstream by performing variable length coding on the intra prediction parameter or the inter prediction parameter and the motion vector (when the coding mode is the inter coding mode) output from the motion compensation prediction unit 5 is performed .
- the variable-length coding unit 13 constructs a variable-length coding unit.
- the unit 7, the inverse quantization / inverse conversion unit 8, the addition unit 9, the intra prediction memory 10, the loop filter unit 11, the motion compensation prediction frame memory 12, and the variable length coding unit 13 are each dedicated hardware (for example, although it is assumed that a semiconductor integrated circuit mounted with a CPU, a one-chip microcomputer, etc.) is used, but the moving picture coding apparatus is constituted by a computer, the block division unit 1 and coding control Unit 2, selector switch 3, intra prediction unit 4, motion compensation prediction unit 5, subtraction unit 6, transformation / quantization unit 7, inverse quantization / inverse transformation unit 8, addition unit 9, loop filter unit 11, and variable-length code Conversion unit 1
- the processing contents stored programs describing the the memory of the computer may execute a program that the CPU of the computer is stored in the memory.
- FIG. 2 is a flowchart showing the
- FIG. 3 is a block diagram showing a moving picture decoding apparatus in accordance with Embodiment 1 of the present invention.
- the variable-length decoding unit 31 receives a bit stream generated by the moving picture coding apparatus shown in FIG. 1, compressed data, block division information, coding mode, intra prediction parameter (coding mode)
- intra prediction parameter coding mode
- the inter prediction parameter when the coding mode is the inter coding mode
- the prediction differential coding parameter and the motion vector are variable Implement long decoding process.
- the variable-length decoding unit 31 constructs a variable-length decoding unit.
- the inverse quantization / inverse transform unit 32 dequantizes the compressed data subjected to the variable length decoding by the variable length decoding unit 31 with reference to the prediction differential encoding parameter subjected to the variable length decoding by the variable length decoding unit 31,
- the local decoding prediction output from the inverse quantization / inverse transformation unit 8 in FIG. 1 is performed by performing inverse orthogonal transformation processing on transform coefficients which are compressed data after inverse quantization with reference to the prediction differential encoding parameters.
- a process of calculating the same decoded predicted difference signal as the difference signal is performed.
- the inverse quantization / inverse transform unit 32 constitutes an inverse quantization means.
- the changeover switch 33 outputs the intra prediction parameter variable-length decoded by the variable-length decoding unit 31 to the intra prediction unit 34, If the coding mode variable-length decoded by the variable-length decoding unit 31 is the inter coding mode, processing for outputting the inter prediction parameter and motion vector variable-length decoded by the variable-length decoding unit 31 to the motion compensation unit 35 carry out.
- the intra prediction unit 34 is a block division information subjected to variable length decoding by the variable length decoding unit 31 and a decoded block specified from the coding mode (a block corresponding to a “coded block” of the moving picture coding apparatus of FIG.
- intra prediction processing using intra prediction parameters output from the changeover switch 33 (in-frame prediction) with reference to the decoded image stored in the intra prediction memory 37 for each prediction block which is a prediction processing unit Processing is performed to perform processing for generating an intra predicted image.
- the intra prediction unit 34 is adjacent on the prediction block with respect to the luminance value of the pixel adjacent to the left of the prediction block.
- the value proportional to the amount of change in luminance value in the horizontal direction of the pixel being added is added, the value after addition is determined as the predicted value of the predicted image, and the intraframe prediction processing at the time of generating the predicted image is the vertical direction
- a value proportional to the amount of change in luminance value in the vertical direction of the pixel adjacent to the left of the prediction block is added to the luminance value of the pixel adjacent above the prediction block, The value after the addition is determined as the predicted value of the predicted image.
- An intra prediction unit is configured by the intra prediction unit 34 and the memory 37 for intra prediction.
- the motion compensation unit 35 generates a motion compensation prediction frame memory 39 for each prediction block, which is a prediction processing unit, for the block division information specified by the variable length decoding unit 31 and the block division information specified by the coding mode Implement inter prediction processing (motion compensation prediction processing) using the motion vector output from the changeover switch 33 and the inter prediction parameter while referring to the stored decoded image to generate an inter prediction image .
- the addition unit 36 adds the decoded prediction difference signal calculated by the inverse quantization / inverse conversion unit 32, and the intra prediction image generated by the intra prediction unit 34 or the inter prediction image generated by the motion compensation unit 35. Then, a process of calculating the same decoded image as the local decoded image output from the adding unit 9 of FIG. 1 is performed.
- the intra prediction memory 37 is a recording medium for storing the decoded image calculated by the adding unit 36.
- the loop filter unit 38 performs a predetermined filtering process on the decoded image calculated by the adding unit 36, and performs a process of outputting the decoded image after the filtering process.
- the motion compensation prediction frame memory 39 is a recording medium for storing the decoded image after the filtering process.
- variable length decoding unit 31 the inverse quantization / inverse conversion unit 32, the changeover switch 33, the intra prediction unit 34, the motion compensation unit 35, the addition unit 36, and the intra prediction which are components of the moving picture decoding apparatus Memory 37, loop filter unit 38, and motion compensation prediction frame memory 39 are assumed to be configured with dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, etc.).
- dedicated hardware for example, a semiconductor integrated circuit on which a CPU is mounted, a one-chip microcomputer, etc.
- FIG. 4 is a flowchart showing the contents of processing (moving picture decoding method) of the moving picture decoding apparatus in accordance with Embodiment 1 of the present invention.
- intra-prediction from encoded adjacent pixels or motion-compensated prediction between adjacent frames is performed with each frame image of video as an input image, and a predicted difference signal obtained is obtained.
- a moving picture coding apparatus that performs compression processing by orthogonal transformation and quantization, and then performs variable length coding to generate a bit stream, and a moving picture decoding that decodes a bit stream output from the moving picture coding apparatus The apparatus will be described.
- the moving picture coding apparatus shown in FIG. 1 divides the video signal into blocks of various sizes according to local changes in the space and time direction of the video signal, and performs intra-frame and inter-frame adaptive coding. It is characterized by Generally, a video signal has a characteristic that the complexity of the signal changes locally in space and time. When viewed spatially, on some video frames, for example, some patterns have uniform signal characteristics in relatively large image areas such as sky or wall, small images such as a person or a picture including fine texture There may be a mixture of patterns having complicated texture patterns in the area. Even in time, although the sky and walls locally have a small change in the pattern in the time direction, the moving person or object moves temporally in a rigid or non-rigid motion, so the temporal change Is large.
- the encoding process generates a prediction difference signal with small signal power and entropy by temporal and spatial prediction, and performs a process to reduce the overall code amount, but the parameters used for prediction are as large as possible in the image signal area. If it can apply uniformly, the code amount of the said parameter can be made small.
- the same prediction parameter is applied to a large image area with respect to an image signal pattern having a large change in time and space, the number of prediction errors increases, so the code amount of the prediction difference signal increases. . Therefore, in a region where temporal and spatial changes are large, the block size for performing prediction processing is reduced by applying the same prediction parameter, and the data amount of parameters used for prediction is increased, and the power and entropy of the prediction difference signal It is desirable to reduce the
- prediction processing etc. in order to perform encoding adapted to the general nature of the video signal, prediction processing etc. is first started from a predetermined maximum block size, and the area of the video signal is hierarchically divided.
- prediction processing and coding processing of prediction differences thereof are adapted to be adapted to each divided area.
- the image frame is an arbitrary video signal such as a monochrome image signal or an infrared image signal, which is composed of horizontal and vertical two-dimensional digital sample (pixel) columns.
- the gray level of each pixel may be 8 bits, or may be a gray level such as 10 bits or 12 bits.
- the video signal of the input image is assumed to be a YUV signal, and two color difference components U and V are subsampled with respect to the luminance component Y 4: 2: 0
- a processing data unit corresponding to each frame of the video signal is referred to as a "picture".
- “picture” is described as a video frame signal which is sequentially scanned (progressive scan), but when the video signal is an interlace signal, “picture” is a unit forming a video frame. It may be a field image signal.
- the coding control unit 2 determines the size of the largest coding block used for coding a picture to be coded (current picture) and the upper limit of the number of layers into which the largest coding block is hierarchically divided (FIG. 2). Step ST1).
- the size of the maximum coding block for example, the same size may be determined for all the pictures according to the resolution of the video signal of the input image, or the local movement of the video signal of the input image
- the difference in complexity may be quantified as a parameter to set a small size for a picture with large motion, while setting a large size for a picture with small movement.
- the method of determining the upper limit of the number of divided layers for example, according to the resolution of the video signal of the input image, the method of determining the same number of layers for all pictures or when the motion of the video signal of the input image is severe There is a method of setting the number of layers deeper and setting so as to detect finer movement, and setting the number of layers smaller if the movement is small.
- the coding control unit 2 selects a coding mode corresponding to each coding block divided hierarchically from the available one or more coding modes (step ST2). That is, the coding control unit 2 divides the image area of the maximum coding block size hierarchically into coding blocks having coding block sizes until reaching the upper limit of the number of division layers determined previously. Determine the coding mode for each coding block. There are one or more intra coding modes (collectively referred to as "INTRA") and one or more inter coding modes (collectively referred to as "INTER”) as coding modes. The coding control unit 2 selects a coding mode corresponding to each coding block from all coding modes available for the picture or a subset thereof.
- each coding block hierarchically divided by the block division unit 1 described later is further divided into one or more prediction blocks which are units for performing prediction processing, and the division state of the prediction block is also the coding mode. Included as information in.
- the method of selecting the coding mode by the coding control unit 2 is a known technique, the detailed description is omitted, but, for example, the coding process for the coding block is performed using any available coding mode. There is a method of implementing to verify the coding efficiency, and selecting a coding mode with the highest coding efficiency among a plurality of available coding modes.
- the encoding control unit 2 determines, for each encoding block, the quantization parameter and transform block size used when the differential image is compressed, and the prediction used when the prediction processing is performed. Determine the parameters (intra prediction parameters or inter prediction parameters). However, when the coding block is further divided into prediction block units for performing prediction processing, it is possible to select a prediction parameter (intra prediction parameter or inter prediction parameter) for each prediction block. Furthermore, in a coding block in which the coding mode is the intra coding mode, coding is performed in prediction block units since coded pixels adjacent to the prediction block are used when performing intra prediction processing as described later. Therefore, selectable transform block sizes are limited to less than or equal to the size of the prediction block.
- the coding control unit 2 outputs the prediction differential coding parameter including the quantization parameter and the conversion block size to the conversion / quantization unit 7, the dequantization / inverse conversion unit 8 and the variable length coding unit 13. Also, the coding control unit 2 outputs the intra prediction parameter to the intra prediction unit 4 as needed. In addition, the coding control unit 2 outputs the inter prediction parameter to the motion compensation prediction unit 5 as necessary.
- the block division unit 1 divides the video signal of the input image into the maximum coding block size determined by the coding control unit 2, and further divides the divided maximum coding block into a code.
- the coding block is hierarchically divided into coding blocks determined by the quantization control unit 2, and the coding block is output.
- FIG. 5 is an explanatory view showing an example in which the largest coding block is hierarchically divided into a plurality of coding blocks.
- the largest coding block is a coding block in which the luminance component described as "the 0th layer" has a size of (L 0 , M 0 ).
- the coding block is obtained by hierarchically dividing up to a predetermined depth separately defined in the quadtree structure.
- the coding block is an image area of size (L n , M n ).
- the coding block size determined by the coding control unit 2 is defined as the size (L n , M n ) of the luminance component of the coding block.
- (L n + 1 , M n + 1 ) (L n / 2, M n / 2) always holds.
- the size of all color components is (L n , M n ), but 4: 2
- the coding block size of the corresponding chrominance component is (L n / 2, M n / 2).
- the coding block of the n hierarchy expressed in B n denote the encoding modes selectable by the coding block B n with m (B n).
- the encoding mode m (B n ) may be configured to use an individual mode for each color component, or common to all color components It may be configured to use the mode. The following description will be made on the assumption that the coding mode for the luminance component of the YUV signal and the coding block of the 4: 2: 0 format is indicated unless otherwise specified.
- the coding block B n is divided by the block division unit 1 into one or more prediction blocks representing prediction processing units. Thereafter, a prediction block belonging to the coding block B n P i n (i is the predicted block number in the n layer) is denoted as.
- Figure 5 shows an example of P 0 0 and P 1 0. How prediction block division of the coding block B n is performed is included as information in the coding mode m (B n ).
- Prediction block P i n is that although prediction process all according to the coding mode m (B n) is performed, which for each predicted block P i n, select individual prediction parameters (intra prediction parameters or inter prediction parameter) it can.
- the coding control unit 2 generates, for example, a block division state as shown in FIG. 6 for the largest coding block, and specifies the coding block.
- a rectangle surrounded by a dotted line in FIG. 6A represents each coding block, and a hatched block in each coding block represents a division state of each prediction block.
- FIG. 6B shows a quadtree graph showing the situation where the coding mode m (B n ) is assigned by hierarchical division, in the example of FIG. 6A.
- the nodes enclosed by ⁇ in FIG. 6B are nodes (coding blocks) to which a coding mode m (B n ) is assigned.
- the information of this quadtree graph is output from the encoding control unit 2 to the variable length encoding unit 13 together with the encoding mode m (B n ) and multiplexed into a bit stream.
- the changeover switch 3 is output from the block division unit 1 when the coding mode m (B n ) determined by the coding control unit 2 is the intra coding mode (when m (B n ) ⁇ ⁇ ⁇ ⁇ INTRA).
- the coding block B n is output to the intra prediction unit 4.
- the coding mode m (B n ) determined by the coding control unit 2 is the inter coding mode (m (B n ) ⁇ INTER)
- the coding block output from the block division unit 1 It outputs B n to the motion compensation prediction unit 5.
- the intra prediction unit 4 determines that the coding mode m (B n ) determined by the coding control unit 2 is the intra coding mode (in the case where m (B n ) ⁇ INTRA) and the switch 3 to the coding block B
- the encoding block B n and implementing intra prediction process for each of the prediction block P i n in it generates an intra prediction image P INTRAi n (step ST4).
- intra prediction parameters used for generating the intra prediction image P INTRAi n is from encoding control unit 2 It is output to the variable-length coding unit 13 and multiplexed into a bit stream. Details of the processing content of the intra prediction unit 4 will be described later.
- the motion compensation prediction unit 5 determines that the coding mode m (B n ) determined by the coding control unit 2 is the inter coding mode (when m (B n ) ⁇ INTER), and the switching block 3 starts the coding block.
- the motion vector by comparing the locally decoded image after the filtering process stored in the prediction block P i n and the motion compensated prediction frame memory 12 of the encoding block B n I searched, using inter prediction parameters determined by the motion vector and the encoding control unit 2, implemented inter prediction processing for each of the prediction block P i n in the encoding block B n, the inter prediction image P generating a INTERi n (step ST5).
- inter prediction parameters used for generating the inter prediction image P INTERi n is from encoding control unit 2 It is output to the variable-length coding unit 13 and multiplexed into a bit stream.
- the motion vector searched by the motion compensation prediction unit 5 is also output to the variable length coding unit 13 and multiplexed into a bit stream.
- Subtraction unit 6 upon receiving the encoded block B n from the block dividing unit 1 from its prediction block P i n the coded block B n, the intra prediction image P INTRAi n generated by the intra prediction unit 4, or , by subtracting one of the inter prediction image P INTERi n generated by the motion compensation prediction unit 5, and outputs the prediction difference signal e i n a subtraction result to the transform and quantization unit 7 (step ST6) .
- Transform and quantization unit 7 receives the prediction difference signal e i n from the subtracting unit 6, with reference to the predictive differential coding parameters determined by the coding control unit 2, perpendicular with respect to the prediction difference signal e i n
- a transformation process for example, an orthogonal transformation process such as a discrete cosine transformation (DCT) or a KL transformation in which a basic design is previously performed on a specific learning sequence
- DCT discrete cosine transformation
- KL transformation KL transformation in which a basic design is previously performed on a specific learning sequence
- the transform / quantization unit 7 quantizes the transform coefficient with reference to the prediction differential encoding parameter, and performs inverse quantization / inverse transform unit 8 and variable length of the compressed data which is the transform coefficient after quantization. It is output to the encoding unit 13 (step ST7).
- the inverse quantization / inverse transform unit 8 When the inverse quantization / inverse transform unit 8 receives the compressed data from the transform / quantization unit 7, the inverse quantization / inverse transform unit 8 dequantizes the compressed data with reference to the prediction differential coding parameter determined by the coding control unit 2. . Further, the inverse quantization / inverse transform unit 8 refers to the prediction differential encoding parameter to perform inverse orthogonal transform processing (for example, inverse DCT, inverse KL transformation, etc.) on transform coefficients which are compressed data after inverse quantization. was performed, and outputs to the adder 9 calculates the local decoded prediction difference signal corresponding to the prediction difference signal e i n output from the subtraction unit 6 (step ST8).
- inverse orthogonal transform processing for example, inverse DCT, inverse KL transformation, etc.
- Adding unit 9 receives the local decoded prediction difference signal from the inverse quantization and inverse transform unit 8, and the local decoded prediction difference signal, an intra prediction image P INTRAi n generated by the intra prediction unit 4, or, motion compensation by adding one of the inter prediction image P INTERi n generated by the prediction unit 5 calculates a local decoded image (step ST9).
- the addition unit 9 outputs the local decoded image to the loop filter unit 11 and stores the local decoded image in the intra prediction memory 10. This local decoded image becomes an encoded image signal used in the subsequent intra prediction processing.
- the loop filter unit 11 When receiving the locally decoded image from the adding unit 9, the loop filter unit 11 performs predetermined filtering processing on the locally decoded image, and stores the locally decoded image after the filtering process in the motion compensated prediction frame memory 12. To do (step ST10).
- the filtering process by the loop filter unit 11 may be performed in units of the largest coded block or individual coded blocks of the input local decoded image, or one picture after the local decoded image for one picture is input. It may be done in minutes.
- the predetermined filtering process a process of filtering the block boundary so that the discontinuity (block noise) of the coding block boundary becomes inconspicuous, and between the video signal of FIG.
- steps ST3 to ST9 is repeatedly performed until the processing for all the coding blocks B n divided hierarchically is completed, and when the processing for all the coding blocks B n is completed, the processing proceeds to step ST13. (Steps ST11 and ST12).
- the variable-length coding unit 13 takes the compressed data output from the transform / quantization unit 7 and the block division information in the maximum coding block output from the coding control unit 2 (FIG. 6B as an example).
- Quadtree information coding mode m (B n ) and prediction differential coding parameter, intra prediction parameter (if coding mode is intra coding mode) output from the coding control unit 2 or inter prediction
- the parameters (when the coding mode is the inter coding mode) and the motion vector (when the coding mode is the inter coding mode) output from the motion compensation prediction unit 5 are subjected to variable length coding, and A bit stream indicating the coding result is generated (step ST13).
- FIG. 7 is an explanatory diagram showing an example of the prediction block P i n-selectable intra prediction parameters in the encoding block B n (intra prediction mode).
- FIG. 7 shows the intra prediction mode and the prediction direction vector indicated by the intra prediction mode.
- the relative angle between the prediction direction vectors decreases as the number of selectable intra prediction modes increases. It is designed to be
- Intra prediction unit 4 as described above, with reference to the intra prediction parameters of the prediction block P i n, to implement intra prediction processing for the prediction block P i n, but to generate an intra prediction image P INTRAi n , it will be described here intra process of generating an intra prediction signal of a prediction block P i n in the luminance signal.
- the pixels used and the coded pixel (2 ⁇ l i n +1) pieces on the prediction block P i n, the left coded pixels (2 ⁇ m i n) pieces on the prediction may be more or less than the pixels shown in FIG.
- it is used to predict one line or pixel of one column in the vicinity of the predicted block P i n, 2 rows or two columns, or may be used more pixels in the prediction.
- Generating a predicted image when the index value of the intra prediction mode for prediction block P i n is 0 (vertical prediction) is to calculate the predicted values of the pixels in the prediction block P i n from the following equation (1) Do.
- the coordinates (x, y) is the relative coordinates with the origin at the upper left pixel in the prediction block P i n (see Figure 9)
- S '(x, y) is the predicted value at the coordinates (x, y)
- S (x, y) are the luminance values (decoded luminance values) of the coded pixel at coordinates (x, y).
- the prediction block distance between the encoded pixels adjacent to the left of P i n is separated as the prediction target pixel correlation is low, reduce the influence of encoded pixels adjacent to the left of the prediction block P i n it is possible, it is possible to perform highly accurate prediction according to the correlation between the encoded pixels adjacent to the left of the prediction block P i n. Further, it may be limited to the block size of the prediction block P i n that performs prediction processing in equation (1).
- the prediction block P i n the 16 ⁇ 16 pixels or more block size equation (1) is without applying prediction value of the conventional vertical prediction (prediction block P i luminance value of encoded pixels adjacent to the upper side of the n S (x, -1)) and, from 16 ⁇ 16 pixels
- prediction block P i luminance value of encoded pixels adjacent to the upper side of the n S (x, -1) prediction block P i luminance value of encoded pixels adjacent to the upper side of the n S (x, -1)
- the prediction block P i if the index value of the intra prediction mode for n is 1 (horizontal prediction), the prediction image by calculating the predicted values of the pixels in the prediction block P i n from the following equation (2)
- the coordinates (x, y) is the relative coordinates with the origin at the upper left pixel in the prediction block P i n (see Figure 9)
- S '(x, y) is the predicted value at the coordinates (x, y)
- S (x, y) are the luminance values (decoded luminance values) of the coded pixel at coordinates (x, y).
- luminance values of encoded pixels adjacent to the left of the prediction block P i n is the predicted value of the horizontal prediction of S (-1, y) Te, S (x, -1) representing a change amount of the luminance value in the horizontal direction of the encoded pixels adjacent to the upper side of the prediction block P i n (pixels surrounded by a thick frame in FIG.
- the pixel correlation decreases apart distance between encoded pixels adjacent to the upper side of the prediction block P i n, possible to reduce the influence of the encoded pixels adjacent to the upper side of the prediction block P i n since it is, it is possible to perform highly accurate prediction according to the correlation between the encoded pixels adjacent to the upper side of the prediction block P i n. Further, it may be limited to the block size of the prediction block P i n that performs prediction process of formula (2).
- the prediction block P i n the 16 ⁇ 16 pixels or more block size equation (2) the predicted value of the conventional horizontal prediction without applying the (predicted block P i luminance value of encoded pixels adjacent to the left of the n S (-1, y)) and then, from the 16 ⁇ 16 pixels
- the equation (2) By applying the equation (2) only for small blocks, it is possible to suppress an increase in the amount of computation while improving the prediction performance over the conventional horizontal prediction.
- the index value of the intra prediction mode for prediction block P i n is 2 (average prediction) is adjacent to the left of the prediction block P i predicted block P i n the encoded pixels adjacent to the upper side of the n generating a prediction image the mean value of the coded pixel as a prediction value of the pixels in the prediction block P i n that.
- the index value of the intra prediction mode is other than 0 (vertical direction prediction), 1 (horizontal direction prediction), and 2 (average value prediction)
- it is based on the prediction direction vector ⁇ p (dx, dy) indicated by the index value Te, generating the predicted values of the pixels in the prediction block P i n. As shown in FIG.
- the interpolated pixel generated from the integer pixel adjacent to the reference pixel is Make it a forecast value.
- a value interpolated from two pixels adjacent to the reference pixel is used as a predicted value. Note that interpolation pixels may be generated not only from adjacent two pixels but also from adjacent two or more pixels as prediction values.
- the MPEG-4 AVC / H As in the case of intra prediction of a block of 8 ⁇ 8 pixels in H.264, with regard to pixels used for performing intra prediction, filtering processing is performed on these pixels, not the pixels themselves in the encoded adjacent block. You may use a thing.
- the intra prediction parameter (intra prediction mode) selectable with color difference signals does not have to be the same as the luminance signal, and vertical prediction and horizontal prediction can not be performed in the conventional manner (MPEG-4 AVC / H.264). It may be a prediction method.
- the color difference signals are signals in which the resolution is reduced to 1/2 in both horizontal and vertical directions with respect to the luminance signal (Y signal) Since the complexity of the image signal is low compared to the luminance signal and prediction is easy, selectable intra prediction parameters (intra prediction mode) are set to a smaller number than the luminance signal, and vertical prediction and horizontal prediction are also conventionally performed. To reduce the amount of code required to encode intra prediction parameters (intra prediction mode) without significantly reducing the prediction efficiency, and to realize low calculation processing of the prediction processing by using a simple prediction method of it can.
- the scaling value 1 / t used in the vertical direction prediction and the scaling value 1 / u used in the horizontal direction prediction are determined in advance between the video encoding device and the video decoding device.
- the intra prediction unit 4 of the video encoding apparatus outputs t and u to the variable length coding unit 13 in units of sequences or in units of pictures, and the variable length coding unit 13 varies t and u.
- the long code may be included in a bit stream, and the moving picture decoding apparatus may use t and u for variable length decoding from the bit stream.
- the block size using the vertical direction prediction of Equation (1) and the horizontal direction prediction of Equation (2) may be previously decided between the video encoding device and the video decoding device.
- An ON / OFF flag for each block size representing a block size using the vertical prediction of Expression (1) or the horizontal prediction of Expression (2) for the sequence unit or picture unit by the intra prediction unit 4 of the video coding apparatus Is output to the variable-length coding unit 13, and the variable-length coding unit 13 performs variable-length coding on the ON / OFF flag to be included in the bitstream, and the video decoding apparatus changes the ON / OFF flag from the bitstream It may be decrypted and used.
- the characteristics of the video signal of the input image can be further improved. Corresponding prediction processing can be realized.
- variable-length decoding unit 31 receives a bit stream generated by the moving picture coding apparatus shown in FIG. 1, the variable-length decoding section 31 executes variable-length decoding processing on the bit stream (step ST21 in FIG.
- the information of the frame size is decoded in a sequence unit or a picture unit composed of At this time, the parameter t of the scaling value used in the vertical direction prediction, the parameter u of the scaling value used in the horizontal direction prediction, and the block size representing the block size using the vertical direction prediction of equation (1) and the horizontal direction prediction of equation (2)
- a unit encoded by the video encoding apparatus of FIG. 1 sequence unit or Decode in picture units.
- the variable length decoding unit 31 determines the maximum coding block size and the upper limit of the number of division layers determined by the coding control unit 2 of the moving picture coding apparatus of FIG. 1 in the same procedure as the moving picture coding apparatus (FIG. Step ST22). For example, when the maximum coding block size and the division layer number upper limit are determined according to the resolution of the video signal, the maximum coding block is processed in the same procedure as the moving picture coding apparatus based on the decoded frame size information. Determine the size. When the maximum coding block size and the division layer number upper limit are multiplexed into the bit stream on the moving picture coding device side, values decoded from the bit stream are used.
- the maximum coding block size is referred to as a maximum decoding block size
- the maximum coding block is referred to as a maximum decoding block.
- the variable-length decoding unit 31 decodes the division state of the largest decoded block as shown in FIG. 6 in units of the determined largest decoded block. Based on the decoded division state, a decoded block (a block corresponding to a "coded block" of the moving picture coding apparatus of FIG. 1) is specified hierarchically (step ST23).
- variable-length decoding unit 31 decodes the coding mode assigned to the decoded block. Based on the information included in the decoded coding mode, the decoded block is further divided into prediction blocks which are one or more prediction processing units, and prediction parameters assigned to each prediction block are decoded (step ST24).
- variable length decoding unit 31 is included in the decoded block, and the intra prediction parameter is included for each of one or more prediction blocks serving as a prediction processing unit Decrypt Furthermore, the variable-length decoding unit 31 divides the decoded block into one or more converted blocks serving as a conversion processing unit based on the information of the converted block size included in the prediction differential encoding parameter, and the compressed data (The transform coefficient after transform / quantization) is decoded (step ST24).
- variable-length decoding unit 31 If the coding mode m (B n ) variable-length decoded by the variable-length decoding unit 31 is the intra coding mode (if m (B n ) ⁇ INTRA), the change-over switch 33 operates the variable-length decoding unit 31 The intra prediction parameter of the prediction block unit which has been variable-length decoded is output to the intra prediction unit 34. On the other hand, if the coding mode m (B n ) variable-length decoded by the variable-length decoding unit 31 is the inter coding mode (if m (B n ) ⁇ INTER), then the variable-length decoding unit 31 performs variable-length decoding The motion prediction unit 35 outputs the predicted block unit inter prediction parameter and motion vector to the motion compensation unit 35.
- the intra prediction unit 34 switches the switch 33.
- the intra prediction unit 34 if the index value of the intra prediction mode for prediction block P i n is 0 (vertical prediction) is the predicted value of the pixels in the prediction block P i n from the above equation (1) It is calculated, and generates an intra prediction image P INTRAi n. Also, if the index value of the intra prediction mode for prediction block P i n is 1 (horizontal prediction) calculates the predicted values of the pixels in the prediction block P i n the above equation (2), the intra generating a predicted image P INTRAi n. However, when the block size using the vertical prediction of Equation (1) or the horizontal prediction of Equation (2) is limited, the vertical prediction of Equation (1) or the horizontal prediction of Equation (2) is used. performing intra prediction processing by the vertical prediction ⁇ and horizontal prediction of the prediction block P i n in size than the block size conventional (MPEG-4 AVC / H.264) .
- the motion compensation unit 35 performs switching switch 33 Using the motion vector and the inter prediction parameter while referring to the decoded image after the filtering process stored in the motion compensated prediction frame memory 39 by receiving the motion vector and the inter prediction parameter of the prediction block unit output from by carrying out inter-prediction processing for each of the prediction block P i n in the decoding block generates an inter prediction image P INTERi n (step ST27).
- the predictive difference encoding is performed in the same procedure as the inverse quantization / inverse transform unit 8 in FIG.
- the compressed data is dequantized, and with reference to the prediction differential coding parameter, the inverse orthogonal transformation processing is performed on the transform coefficient which is the compressed data after the dequantization, as shown in FIG.
- the same decoded prediction difference signal as the local decoded prediction difference signal output from the inverse quantization / inverse transform unit 8 of is calculated (step ST28).
- Addition unit 36 a decoding prediction difference signal calculated by the inverse quantization and inverse transform unit 32, an intra prediction image P INTRAi n generated by the intra prediction unit 34, or, inter prediction generated by the motion compensation unit 35 by adding one of the image P INTERi n calculates a decoded image, and outputs to the loop filter unit 38, and stores the decoded image to the intra prediction memory 37 (step ST29).
- This decoded image is a decoded image signal used in the subsequent intra prediction processing.
- the loop filter unit 38 When the processing of steps ST23 to ST29 on all the decoded blocks B n is completed (step ST30), the loop filter unit 38 performs predetermined filtering processing on the decoded image output from the addition unit 36, and performs filtering.
- the decoded image after processing is stored in the motion compensation prediction frame memory 39 (step ST31).
- the filtering process by the loop filter unit 38 may be performed in units of the largest decoded block of the input decoded image or in individual decoded blocks, or after one image of the decoded image is input, it is collectively performed for one picture.
- examples of the predetermined filtering process include a process of filtering block boundaries so that discontinuity (block noise) of a coding block boundary becomes inconspicuous, and a filter process of compensating for distortion of a decoded image.
- This decoded image becomes a reference image for motion compensation prediction, and becomes a reproduced image.
- the prediction block is a prediction block.
- a value proportional to the amount of change in luminance in the horizontal direction of the pixel adjacent to the top of the prediction block is added to the luminance value of the pixel adjacent to the left of
- the intra-frame prediction processing at the time of generating the prediction image is determined to be the prediction value of the vertical prediction processing
- the luminance value of the pixel adjacent on the top of the prediction block is adjacent to the left of the prediction block Since a value proportional to the amount of change in luminance value in the vertical direction of the pixel being added is added and the value after addition is determined as the predicted value of the predicted image, the signal value changes along the prediction direction Achieve high-precision prediction even if you An effect that can increase the image quality.
- the intra prediction unit 34 of the moving picture decoding apparatus when the intra prediction unit 34 of the moving picture decoding apparatus generates the prediction image in the intra-frame prediction process is the horizontal direction prediction process, it is adjacent to the left of the prediction block.
- a value proportional to the amount of change in luminance value in the horizontal direction of the pixel adjacent to the top of the prediction block is added to the luminance value of a certain pixel, and the value after the addition is determined as the prediction value of the prediction image.
- the intra-frame prediction process at the time of generating the predicted image is the vertical direction prediction process
- the vertical value of the pixel adjacent to the left of the predicted block with respect to the luminance value of the pixel adjacent above the predicted block Since a value proportional to the amount of change in luminance value in the direction is added, and the value after addition is determined as the predicted value of the predicted image, the signal value is high even if the signal value changes along the predicted direction. Achieve accurate predictions and improve image quality It is an effect that can.
- the distance from the pixel adjacent to the top of the prediction block is Since the scaling value for the distant row is set to a smaller value, the distance between the pixel adjacent to the top of the prediction block and the pixel having a lower correlation is higher on the prediction block. The influence of adjacent pixels can be reduced, and as a result, it is possible to predict with high accuracy.
- a scaling value according to a row distant from pixels adjacent to the left of the prediction block Since the pixel is set to a value as small as possible, the distance between the pixel adjacent to the left of the prediction block is increased, and the pixel with lower correlation is affected by the pixel adjacent to the left of the prediction block. Can be reduced, and as a result, it is possible to predict with high accuracy.
- the luminance values of the pixels adjacent to the top of the prediction block are calculated. And the value obtained by multiplying the amount of change in luminance value in the vertical direction of the pixel adjacent to the left of the prediction block by the scaling value set for each column in the prediction block, and the value after the addition.
- the luminance of the pixel adjacent to the top of the prediction block is determined.
- a value proportional to the amount of change in luminance in the vertical direction of the pixel adjacent to the left of the prediction block is added to the value, and the value after the addition is determined as the prediction value of the prediction image, For the remaining columns in the prediction block
- the luminance value of pixels adjacent on the prediction block may be determined to the prediction value of the prediction image.
- the intraframe prediction processing at the time of generating a prediction image is horizontal prediction processing
- a predetermined few rows from the upper end in the prediction block are adjacent to the left of the prediction block
- the scaling value set for each row in the prediction block to the luminance value change amount of the pixel in the horizontal direction of the pixel adjacent to the top of the prediction block, to the luminance value of the pixel
- the luminance value of the pixel adjacent to the left of the prediction block is determined as the prediction value of the prediction image You may do it.
- Intra prediction unit 4 and 34 may calculate the predicted if the index value of the intra prediction mode for the block P i n is 0 (vertical prediction), the prediction values of the pixels in the prediction block P i n from the following equation (4) And generate a predicted image.
- the predetermined size is 16 ⁇ 16 pixels
- the prediction block P i n the 16 ⁇ 16 pixels or more block size
- the B 0, the same result as the conventional vertical prediction, the increase in processing It can be suppressed.
- the condition determination processing of whether x ⁇ B or x ⁇ B becomes unnecessary, so that the conventional vertical prediction is always performed without performing the condition determination processing. By doing this, no increase in calculation processing from the conventional vertical direction prediction processing occurs.
- the prediction block P i n the smaller block size than 16 ⁇ 16 pixels, such as 4 ⁇ 4 pixels or 8 ⁇ 8 pixels, since the B ⁇ 1, that than conventional vertical prediction improve prediction performance it can.
- the leftmost column in the predicted block P i n is applied the above formula of the formula (4) A value proportional to the amount of change in luminance value in the vertical direction of the pixel adjacent to the left of the prediction block is added.
- the luminance value in the vertical direction change of the pixel adjacent to the left of the prediction block Values proportional to the quantity are not added.
- the calculation formula of the predicted value may be divided into a pixel at the position of x ⁇ B and a pixel at the position of x ⁇ B as in the above-mentioned formula (4).
- the predicted block P i for all the pixels in the n conventional vertical prediction of the predicted value in the form of the prediction block P i n encoded adjacent to the upper side of the (decoded) pixel luminance value S (x in, After copying -1, only the pixel at the position of x ⁇ B is configured to add the value obtained by scaling S (-1, y)-S (-1, -1) to 1 / t, etc.
- any configuration may be adopted.
- the intra prediction unit 4 and 34 the prediction block when the index value of the intra prediction mode for P i n is 1 (horizontal prediction), the prediction values of the pixels in the prediction block P i n from the following equation (5) To generate a predicted image.
- the predetermined size is 16 ⁇ 16 pixels
- the prediction block P i n the 16 ⁇ 16 pixels or more block size
- the C 0, the same result as the conventional horizontal prediction, the increase in processing Can be suppressed.
- the condition determination processing to which y ⁇ C or y ⁇ C belongs is unnecessary, so that the conventional horizontal prediction is always performed without performing the above condition determination processing. By doing this, no increase in arithmetic processing from the conventional horizontal prediction processing occurs.
- the prediction block P i n the smaller block size than 16 ⁇ 16 pixels, such as 4 ⁇ 4 pixels or 8 ⁇ 8 pixels, since the C ⁇ 1, while improving the prediction performance than conventional horizontal directional prediction, An increase in the amount of computation can be significantly suppressed.
- the top row of the prediction block P i n is applied the above formula of the formula (5) A value proportional to the amount of change in luminance in the horizontal direction of the pixel adjacent to the top of the prediction block is added.
- the horizontal direction of the luminance value change of pixels adjacent on the prediction block Values proportional to the quantity are not added.
- the calculation formula of the predicted value may be divided into a pixel at the position of y ⁇ C and a pixel at the position of y ⁇ C.
- the predicted block P i for all the pixels in the n conventional horizontal prediction of the predicted value in the form of the prediction block P i n coded adjacent to the left of (decoded) pixel luminance value S (-1 , Y) are copied, and a value obtained by scaling S (x, ⁇ 1) ⁇ S ( ⁇ 1, ⁇ 1) to 1 / u is added to only the pixel at the position of y ⁇ C.
- any configuration may be adopted.
- 1 / t or B which is a scaling value used in vertical direction prediction (the luminance in the vertical direction of the pixel adjacent to the left of the coding block with respect to the luminance value of the pixel adjacent on the prediction block
- the moving picture decoding apparatus may be decided, but the intra prediction unit 4 of the moving picture coding apparatus performs variable length coding on t, u, B and C in units of sequences or in units of pictures.
- the long coding unit 13 performs variable-length coding of t, u, B, and C into a bit stream, and the moving picture decoding apparatus performs variable-length decoding of t, u, B, and C from the bit stream for use. It is also good. As described above, by enabling t, u, B, and C to be adaptively controlled in units of sequences or in units of pictures, it is possible to realize prediction processing according to the characteristics of the video signal of the input image.
- the block size using the vertical direction prediction of Equation (4) and the horizontal direction prediction of Equation (5) may be previously decided between the video encoding device and the video decoding device, An ON / OFF flag for each block size representing a block size using the vertical prediction of Expression (4) or the horizontal prediction of Expression (5) in the sequence unit or the picture unit by the intra prediction unit 4 of the video coding apparatus.
- the intra prediction units 4 and 34 start from the upper end in the prediction block. For a predetermined number of rows, to the luminance value of the pixel adjacent to the left of the prediction block, a value proportional to the horizontal luminance value change amount of the pixel adjacent above the prediction block is added Then, the value after the addition is determined as the prediction value of the prediction image, but for the remaining rows in the prediction block, the luminance value of the pixel adjacent to the left of the prediction block is the prediction value of the prediction image
- the present invention is effective in that it is possible to improve the prediction efficiency of horizontal prediction while suppressing an increase in the amount of computation.
- the intra prediction unit 4, 34 when the intra prediction unit 4, 34 generates the prediction image in the intra-frame prediction processing in the vertical direction, the predetermined number sequence from the left end in the prediction block is adjacent to the top of the prediction block.
- a value proportional to the amount of change in luminance value in the vertical direction of the pixel adjacent to the left of the prediction block is added to the luminance value of the current pixel, and the value after the addition is used as the prediction value of the prediction image.
- the luminance value of the pixel adjacent to the top of the prediction block is determined to be the prediction value of the prediction image, thereby suppressing the increase in the amount of calculation. While, it is possible to improve the prediction efficiency of the vertical direction prediction.
- Embodiment 3 The block diagram of the moving picture coding apparatus in this Embodiment 3 is the same as FIG. 1 shown in the above-mentioned Embodiment 1, and the block diagram of the moving picture decoding apparatus in this Embodiment 3 is the above-mentioned Embodiment This is similar to FIG. 3 indicated by 1.
- intra-prediction from encoded adjacent pixels or motion compensation prediction between adjacent frames is performed with each frame image of video as an input image, and a predicted difference signal obtained is obtained.
- a moving picture coding apparatus that performs compression processing by orthogonal transformation and quantization, and then performs variable length coding to generate a bit stream, and a moving picture decoding that decodes a bit stream output from the moving picture coding apparatus The apparatus will be described.
- the moving picture coding apparatus shown in FIG. 1 divides the video signal into blocks of various sizes according to local changes in the space and time direction of the video signal, and performs intra-frame and inter-frame adaptive coding. It is characterized by Generally, a video signal has a characteristic that the complexity of the signal changes locally in space and time. When viewed spatially, on some video frames, for example, some patterns have uniform signal characteristics in relatively large image areas such as sky or wall, small images such as a person or a picture including fine texture There may be a mixture of patterns having complicated texture patterns in the area. Even in time, although the sky and walls locally have a small change in the pattern in the time direction, the moving person or object moves temporally in a rigid or non-rigid motion, so the temporal change Is large.
- the encoding process generates a prediction difference signal with small signal power and entropy by temporal and spatial prediction, and performs a process to reduce the overall code amount, but the parameters used for prediction are as large as possible in the image signal area. If it can apply uniformly, the code amount of the said parameter can be made small.
- the same prediction parameter is applied to a large image area with respect to an image signal pattern having a large change in time and space, the number of prediction errors increases, so the code amount of the prediction difference signal increases. . Therefore, in a region where temporal and spatial changes are large, the block size for performing prediction processing is reduced by applying the same prediction parameter, and the data amount of parameters used for prediction is increased, and the power and entropy of the prediction difference signal It is desirable to reduce the
- prediction processing etc. is first started from a predetermined maximum block size, and the area of the video signal is hierarchically divided.
- prediction processing and coding processing of prediction differences thereof are adapted to be adapted to each divided area.
- the image frame is an arbitrary video signal such as a monochrome image signal or an infrared image signal, which is composed of horizontal and vertical two-dimensional digital sample (pixel) columns.
- the gray level of each pixel may be 8 bits, or may be a gray level such as 10 bits or 12 bits.
- the video signal of the input image is assumed to be a YUV signal, and two color difference components U and V are subsampled with respect to the luminance component Y 4: 2: 0
- a processing data unit corresponding to each frame of the video signal is referred to as a "picture”.
- “picture” is described as a video frame signal which is sequentially scanned (progressive scan), but when the video signal is an interlace signal, “picture” is a unit forming a video frame. It may be a field image signal.
- the coding control unit 2 determines the size of the largest coding block used for coding a picture to be coded (current picture) and the upper limit of the number of layers into which the largest coding block is hierarchically divided (FIG. 2). Step ST1).
- the size of the maximum coding block for example, the same size may be determined for all the pictures according to the resolution of the video signal of the input image, or the local movement of the video signal of the input image
- the difference in complexity may be quantified as a parameter to set a small size for a picture with large motion, while setting a large size for a picture with small movement.
- the method of determining the upper limit of the number of divided layers for example, according to the resolution of the video signal of the input image, the method of determining the same number of layers for all pictures or when the motion of the video signal of the input image is severe There is a method of setting the number of layers deeper and setting so as to detect finer movement, and setting the number of layers smaller if the movement is small.
- the coding control unit 2 selects a coding mode corresponding to each coding block divided hierarchically from the available one or more coding modes (step ST2). That is, the coding control unit 2 divides the image area of the maximum coding block size hierarchically into coding blocks having coding block sizes until reaching the upper limit of the number of division layers determined previously. Determine the coding mode for each coding block. There are one or more intra coding modes (collectively referred to as "INTRA") and one or more inter coding modes (collectively referred to as "INTER”) as coding modes. The coding control unit 2 selects a coding mode corresponding to each coding block from all coding modes available for the picture or a subset thereof.
- each coding block hierarchically divided by the block division unit 1 described later is further divided into one or more prediction blocks which are units for performing prediction processing, and the division state of the prediction block is also the coding mode. Included as information in.
- the method of selecting the coding mode by the coding control unit 2 is a known technique, the detailed description is omitted, but, for example, the coding process for the coding block is performed using any available coding mode. There is a method of implementing to verify the coding efficiency, and selecting a coding mode with the highest coding efficiency among a plurality of available coding modes.
- the encoding control unit 2 determines, for each encoding block, the quantization parameter and transform block size used when the differential image is compressed, and the prediction used when the prediction processing is performed. Determine the parameters (intra prediction parameters or inter prediction parameters). However, when the coding block is further divided into prediction block units for performing prediction processing, it is possible to select a prediction parameter (intra prediction parameter or inter prediction parameter) for each prediction block. Furthermore, in a coding block in which the coding mode is the intra coding mode, coding is performed in prediction block units since coded pixels adjacent to the prediction block are used when performing intra prediction processing as described later. Therefore, selectable transform block sizes are limited to less than or equal to the size of the prediction block.
- the coding control unit 2 outputs the prediction differential coding parameter including the quantization parameter and the conversion block size to the conversion / quantization unit 7, the dequantization / inverse conversion unit 8 and the variable length coding unit 13. Also, the coding control unit 2 outputs the intra prediction parameter to the intra prediction unit 4 as needed. In addition, the coding control unit 2 outputs the inter prediction parameter to the motion compensation prediction unit 5 as necessary.
- the block division unit 1 divides the video signal of the input image into the maximum coding block size determined by the coding control unit 2, and further divides the divided maximum coding block into a code.
- the coding block is hierarchically divided into coding blocks determined by the quantization control unit 2, and the coding block is output.
- FIG. 5 is an explanatory view showing an example in which the largest coding block is hierarchically divided into a plurality of coding blocks.
- the largest coding block is a coding block in which the luminance component described as "the 0th layer" has a size of (L 0 , M 0 ).
- the coding block is obtained by hierarchically dividing up to a predetermined depth separately defined in the quadtree structure.
- the coding block is an image area of size (L n , M n ).
- the coding block size determined by the coding control unit 2 is defined as the size (L n , M n ) of the luminance component of the coding block.
- (L n + 1 , M n + 1 ) (L n / 2, M n / 2) always holds.
- the size of all color components is (L n , M n ), but 4: 2
- the coding block size of the corresponding chrominance component is (L n / 2, M n / 2).
- the coding block of the n hierarchy expressed in B n denote the encoding modes selectable by the coding block B n with m (B n).
- the encoding mode m (B n ) may be configured to use an individual mode for each color component, or common to all color components It may be configured to use the mode. The following description will be made on the assumption that the coding mode for the luminance component of the YUV signal and the coding block of the 4: 2: 0 format is indicated unless otherwise specified.
- the coding block B n is divided by the block division unit 1 into one or more prediction blocks representing prediction processing units. Thereafter, a prediction block belonging to the coding block B n P i n (i is the predicted block number in the n layer) is denoted as.
- Figure 5 shows an example of P 0 0 and P 1 0. How prediction block division of the coding block B n is performed is included as information in the coding mode m (B n ).
- Prediction block P i n is that although prediction process all according to the coding mode m (B n) is performed, which for each predicted block P i n, select individual prediction parameters (intra prediction parameters or inter prediction parameter) it can.
- the coding control unit 2 generates, for example, a block division state as shown in FIG. 6 for the largest coding block, and specifies the coding block.
- a rectangle surrounded by a dotted line in FIG. 6A represents each coding block, and a hatched block in each coding block represents a division state of each prediction block.
- FIG. 6B shows a quadtree graph showing the situation where the coding mode m (B n ) is assigned by hierarchical division, in the example of FIG. 6A.
- the nodes enclosed by ⁇ in FIG. 6B are nodes (coding blocks) to which a coding mode m (B n ) is assigned.
- the information of this quadtree graph is output from the encoding control unit 2 to the variable length encoding unit 13 together with the encoding mode m (B n ) and multiplexed into a bit stream.
- the changeover switch 3 is output from the block division unit 1 when the coding mode m (B n ) determined by the coding control unit 2 is the intra coding mode (when m (B n ) ⁇ ⁇ ⁇ ⁇ INTRA).
- the coding block B n is output to the intra prediction unit 4.
- the coding mode m (B n ) determined by the coding control unit 2 is the inter coding mode (m (B n ) ⁇ INTER)
- the coding block output from the block division unit 1 It outputs B n to the motion compensation prediction unit 5.
- the intra prediction unit 4 determines that the coding mode m (B n ) determined by the coding control unit 2 is the intra coding mode (in the case where m (B n ) ⁇ INTRA) and the switch 3 to the coding block B
- the encoding block B n and implementing intra prediction process for each of the prediction block P i n in it generates an intra prediction image P INTRAi n (step ST4).
- intra prediction parameters used for generating the intra prediction image P INTRAi n is from encoding control unit 2 It is output to the variable-length coding unit 13 and multiplexed into a bit stream. Details of the processing content of the intra prediction unit 4 will be described later.
- the motion compensation prediction unit 5 determines that the coding mode m (B n ) determined by the coding control unit 2 is the inter coding mode (when m (B n ) ⁇ INTER), and the switching block 3 starts the coding block.
- the motion vector by comparing the locally decoded image after the filtering process stored in the prediction block P i n and the motion compensated prediction frame memory 12 of the encoding block B n I searched, using inter prediction parameters determined by the motion vector and the encoding control unit 2, implemented inter prediction processing for each of the prediction block P i n in the encoding block B n, the inter prediction image P generating a INTERi n (step ST5).
- inter prediction parameters used for generating the inter prediction image P INTERi n is from encoding control unit 2 It is output to the variable-length coding unit 13 and multiplexed into a bit stream.
- the motion vector searched by the motion compensation prediction unit 5 is also output to the variable length coding unit 13 and multiplexed into a bit stream.
- Subtraction unit 6 upon receiving the encoded block B n from the block dividing unit 1 from its prediction block P i n the coded block B n, the intra prediction image P INTRAi n generated by the intra prediction unit 4, or , by subtracting one of the inter prediction image P INTERi n generated by the motion compensation prediction unit 5, and outputs the prediction difference signal e i n a subtraction result to the transform and quantization unit 7 (step ST6) .
- Transform and quantization unit 7 receives the prediction difference signal e i n from the subtracting unit 6, with reference to the predictive differential coding parameters determined by the coding control unit 2, perpendicular with respect to the prediction difference signal e i n
- a transformation process for example, an orthogonal transformation process such as a discrete cosine transformation (DCT) or a KL transformation in which a basic design is previously performed on a specific learning sequence
- DCT discrete cosine transformation
- KL transformation KL transformation in which a basic design is previously performed on a specific learning sequence
- the transform / quantization unit 7 quantizes the transform coefficient with reference to the prediction differential encoding parameter, and performs inverse quantization / inverse transform unit 8 and variable length of the compressed data which is the transform coefficient after quantization. It is output to the encoding unit 13 (step ST7).
- the inverse quantization / inverse transform unit 8 When the inverse quantization / inverse transform unit 8 receives the compressed data from the transform / quantization unit 7, the inverse quantization / inverse transform unit 8 dequantizes the compressed data with reference to the prediction differential coding parameter determined by the coding control unit 2. . Further, the inverse quantization / inverse transform unit 8 refers to the prediction differential encoding parameter to perform inverse orthogonal transform processing (for example, inverse DCT, inverse KL transformation, etc.) on transform coefficients which are compressed data after inverse quantization. was performed, and outputs to the adder 9 calculates the local decoded prediction difference signal corresponding to the prediction difference signal e i n output from the subtraction unit 6 (step ST8).
- inverse orthogonal transform processing for example, inverse DCT, inverse KL transformation, etc.
- Adding unit 9 receives the local decoded prediction difference signal from the inverse quantization and inverse transform unit 8, and the local decoded prediction difference signal, an intra prediction image P INTRAi n generated by the intra prediction unit 4, or, motion compensation by adding one of the inter prediction image P INTERi n generated by the prediction unit 5 calculates a local decoded image (step ST9).
- the addition unit 9 outputs the local decoded image to the loop filter unit 11 and stores the local decoded image in the intra prediction memory 10. This local decoded image becomes an encoded image signal used in the subsequent intra prediction processing.
- the loop filter unit 11 When receiving the locally decoded image from the adding unit 9, the loop filter unit 11 performs predetermined filtering processing on the locally decoded image, and stores the locally decoded image after the filtering process in the motion compensated prediction frame memory 12. To do (step ST10).
- the filtering process by the loop filter unit 11 may be performed in units of the largest coded block or individual coded blocks of the input local decoded image, or one picture after the local decoded image for one picture is input. It may be done in minutes.
- the predetermined filtering process a process of filtering the block boundary so that the discontinuity (block noise) of the coding block boundary becomes inconspicuous, and between the video signal of FIG.
- steps ST3 to ST9 is repeatedly performed until the processing for all the coding blocks B n divided hierarchically is completed, and when the processing for all the coding blocks B n is completed, the processing proceeds to step ST13. (Steps ST11 and ST12).
- the variable-length coding unit 13 takes the compressed data output from the transform / quantization unit 7 and the block division information in the maximum coding block output from the coding control unit 2 (FIG. 6B as an example).
- Quadtree information coding mode m (B n ) and prediction differential coding parameter, intra prediction parameter (if coding mode is intra coding mode) output from the coding control unit 2 or inter prediction
- the parameters (when the coding mode is the inter coding mode) and the motion vector (when the coding mode is the inter coding mode) output from the motion compensation prediction unit 5 are subjected to variable length coding, and A bit stream indicating the coding result is generated (step ST13).
- FIG. 17 is an explanatory diagram showing an example of the prediction block P i n-selectable intra prediction parameters in the encoding block B n (intra prediction mode).
- N I represents the number of intra prediction modes.
- FIG. 17 shows the intra prediction mode and the prediction direction vector indicated by the intra prediction mode.
- the relative angle between the prediction direction vectors decreases as the number of selectable intra prediction modes increases. It is designed to be
- Intra prediction unit 4 as described above, with reference to the intra prediction parameters of the prediction block P i n, to implement intra prediction processing for the prediction block P i n, but to generate an intra prediction image P INTRAi n , it will be described here intra process of generating an intra prediction signal of a prediction block P i n in the luminance signal.
- the pixels used and the coded pixel (2 ⁇ l i n +1) pieces on the prediction block P i n, the left coded pixels (2 ⁇ m i n) pieces on the prediction may be more or less than the pixels shown in FIG.
- it is used to predict one line or pixel of one column in the vicinity of the predicted block P i n, 2 rows or two columns, or may be used more pixels in the prediction.
- the index value of the intra prediction mode for prediction block P i n is 0 (plane (Planar) prediction) is adjacent to the left of the prediction block P i predicted block P i n the encoded pixels adjacent to the upper side of the n using encoded pixels that generates a predicted image interpolated value in accordance with the distance between the prediction pixel and the adjacent pixels in the prediction block P i n as the predicted value.
- Generating a predicted image when the index value of the intra prediction mode for prediction block P i n is 1 is to calculate the predicted values of the pixels in the prediction block P i n from the following equation (1) Do.
- the coordinates (x, y) is the relative coordinates with the origin at the upper left pixel in the prediction block P i n (see Figure 9)
- S '(x, y) is the predicted value at the coordinates (x, y)
- S (x, y) are the luminance values (decoded luminance values) of the coded pixel at coordinates (x, y).
- the prediction block distance between the encoded pixels adjacent to the left of P i n is separated as the prediction target pixel correlation is low, reduce the influence of encoded pixels adjacent to the left of the prediction block P i n it is possible, it is possible to perform highly accurate prediction according to the correlation between the encoded pixels adjacent to the left of the prediction block P i n.
- the equation (1) can be expressed by an equation by bit shift as shown below.
- equation (1a) “>> a” indicates an operation of arithmetic shift to the right by a bits.
- the block size of the prediction block P i n that performs prediction processing of the formula (1) may be limited to a particular size. Generally easily include various signals changes in the block in a large block size, since the case can be predicted with high accuracy less using directional prediction, for example, the prediction block P i n the 16 ⁇ 16 pixels or more block size , without applying equation (1), conventional prediction value in the vertical direction prediction (prediction block P i n the luminance value S (x of encoded pixels adjacent to the upper side of, -1)) and, 16 ⁇ 16 By applying equation (1) only to blocks smaller than pixels, it is possible to suppress an increase in the amount of computation while improving prediction performance over conventional vertical prediction.
- the prediction block P i if the index value of the intra prediction mode for n are 2 (horizontal prediction), the prediction image by calculating the predicted values of the pixels in the prediction block P i n from the following equation (2)
- the coordinates (x, y) is the relative coordinates with the origin at the upper left pixel in the prediction block P i n (see Figure 9)
- S '(x, y) is the predicted value at the coordinates (x, y)
- S (x, y) are the luminance values (decoded luminance values) of the coded pixel at coordinates (x, y).
- luminance values of encoded pixels adjacent to the left of the prediction block P i n is the predicted value of the horizontal prediction of S (-1, y) Te, S (x, -1) representing a change amount of the luminance value in the horizontal direction of the encoded pixels adjacent to the upper side of the prediction block P i n (pixels surrounded by a thick frame in FIG.
- equation (2) can be expressed by an equation by bit shift as shown below.
- equation (2a) “>> a” indicates an operation of arithmetic shift to the right by a bits.
- the block size of the prediction block P i n that performs prediction process of formula (2) may be limited to a particular size. Generally easily include various signals changes in the block in a large block size, since the case can be predicted with high accuracy less using directional prediction, for example, the prediction block P i n the 16 ⁇ 16 pixels or more block size without applying equation (2), the predicted value of the conventional horizontal prediction (prediction block P i luminance value of encoded pixels adjacent to the left of the n S (-1, y)) , 16 ⁇ 16 By applying equation (2) only to blocks smaller than pixels, it is possible to suppress an increase in the amount of computation while improving the prediction performance over conventional horizontal prediction.
- the index value of the intra prediction mode for the block P i n is 3 (average value (DC) prediction) is the prediction block P i predicted block P i n the encoded pixels adjacent to the upper side of the n generating a prediction image the mean value of the encoded pixels adjacent to the left as the predicted values of the pixels in the prediction block P i n.
- the index value in intra prediction mode is other than 0 (Planar prediction), 1 (vertical prediction), 2 (horizontal prediction), 3 (average value (DC) prediction)
- the prediction indicated by the index value direction vector ⁇ p (dx, dy) on the basis of, for generating a predicted value of a pixel in the prediction block P i n. As shown in FIG.
- the interpolated pixel generated from the integer pixel adjacent to the reference pixel is Make it a forecast value.
- a value interpolated from two pixels adjacent to the reference pixel is used as a predicted value. Note that interpolation pixels may be generated not only from adjacent two pixels but also from adjacent two or more pixels as prediction values.
- the MPEG-4 AVC / H As in the case of intra prediction of a block of 8 ⁇ 8 pixels in H.264, with regard to pixels used for performing intra prediction, filtering processing is performed on these pixels, not the pixels themselves in the encoded adjacent block. You may use a thing.
- the intra prediction parameter (intra prediction mode) selectable with color difference signals does not have to be the same as the luminance signal, and vertical prediction and horizontal prediction can not be performed in the conventional manner (MPEG-4 AVC / H.264). It may be a prediction method.
- the color difference signals are signals in which the resolution is reduced to 1/2 in both horizontal and vertical directions with respect to the luminance signal (Y signal) Since the complexity of the image signal is low compared to the luminance signal and prediction is easy, selectable intra prediction parameters (intra prediction mode) are set to a smaller number than the luminance signal, and vertical prediction and horizontal prediction are also conventionally performed. To reduce the amount of code required to encode intra prediction parameters (intra prediction mode) without significantly reducing the prediction efficiency, and to realize low calculation processing of the prediction processing by using a simple prediction method of it can.
- the scaling value 1 / t used in the vertical direction prediction and the scaling value 1 / u used in the horizontal direction prediction are determined in advance between the video encoding device and the video decoding device.
- the intra prediction unit 4 of the video encoding apparatus outputs t and u to the variable length coding unit 13 in units of sequences or in units of pictures, and the variable length coding unit 13 varies t and u.
- the long code may be included in a bit stream, and the moving picture decoding apparatus may use t and u for variable length decoding from the bit stream.
- the block size using the vertical direction prediction of Equation (1) and the horizontal direction prediction of Equation (2) may be previously decided between the video encoding device and the video decoding device.
- An ON / OFF flag for each block size representing a block size using the vertical prediction of Expression (1) or the horizontal prediction of Expression (2) for the sequence unit or picture unit by the intra prediction unit 4 of the video coding apparatus Is output to the variable-length coding unit 13, and the variable-length coding unit 13 performs variable-length coding on the ON / OFF flag to be included in the bitstream, and the video decoding apparatus changes the ON / OFF flag from the bitstream It may be decrypted and used.
- the characteristics of the video signal of the input image can be further improved. Corresponding prediction processing can be realized.
- variable-length decoding unit 31 receives a bit stream generated by the moving picture coding apparatus shown in FIG. 1, the variable-length decoding section 31 executes variable-length decoding processing on the bit stream (step ST21 in FIG.
- the information of the frame size is decoded in a sequence unit or a picture unit composed of At this time, the parameter t of the scaling value used in the vertical direction prediction, the parameter u of the scaling value used in the horizontal direction prediction, and the block size representing the block size using the vertical direction prediction of equation (1) and the horizontal direction prediction of equation (2)
- a unit encoded by the video encoding apparatus of FIG. 1 sequence unit or Decode in picture units.
- the variable length decoding unit 31 determines the maximum coding block size and the upper limit of the number of division layers determined by the coding control unit 2 of the moving picture coding apparatus of FIG. 1 in the same procedure as the moving picture coding apparatus (FIG. Step ST22). For example, when the maximum coding block size and the division layer number upper limit are determined according to the resolution of the video signal, the maximum coding block is processed in the same procedure as the moving picture coding apparatus based on the decoded frame size information. Determine the size. When the maximum coding block size and the division layer number upper limit are multiplexed into the bit stream on the moving picture coding device side, values decoded from the bit stream are used.
- the maximum coding block size is referred to as a maximum decoding block size
- the maximum coding block is referred to as a maximum decoding block.
- the variable-length decoding unit 31 decodes the division state of the largest decoded block as shown in FIG. 6 in units of the determined largest decoded block. Based on the decoded division state, a decoded block (a block corresponding to a "coded block" of the moving picture coding apparatus of FIG. 1) is specified hierarchically (step ST23).
- variable-length decoding unit 31 decodes the coding mode assigned to the decoded block. Based on the information included in the decoded coding mode, the decoded block is further divided into prediction blocks which are one or more prediction processing units, and prediction parameters assigned to each prediction block are decoded (step ST24).
- the variable-length decoding unit 31 is included in the decoding block, and is intra for each of one or more prediction blocks serving as a prediction processing unit. Decode prediction parameters.
- the coding mode assigned to the decoded block is the inter coding mode, it is included in the decoded block, and the inter prediction parameter and motion vector are decoded for each of one or more prediction blocks serving as a prediction processing unit. To do (step ST24).
- variable-length decoding unit 31 divides the decoded block into one or more converted blocks serving as a conversion processing unit based on the information of the converted block size included in the prediction differential encoding parameter, and the compressed data for each converted block (The transform coefficient after transform / quantization) is decoded (step ST24).
- variable-length decoding unit 31 If the coding mode m (B n ) variable-length decoded by the variable-length decoding unit 31 is the intra coding mode (if m (B n ) ⁇ INTRA), the change-over switch 33 operates the variable-length decoding unit 31 The intra prediction parameter of the prediction block unit which has been variable-length decoded is output to the intra prediction unit 34. On the other hand, if the coding mode m (B n ) variable-length decoded by the variable-length decoding unit 31 is the inter coding mode (if m (B n ) ⁇ INTER), then the variable-length decoding unit 31 performs variable-length decoding The motion prediction unit 35 outputs the predicted block unit inter prediction parameter and motion vector to the motion compensation unit 35.
- the intra prediction unit 34 switches the switch 33.
- the intra prediction unit 34 if the index value of the intra prediction mode for prediction block P i n is 0 (vertical prediction) is the predicted value of the pixels in the prediction block P i n from the above equation (1) It is calculated, and generates an intra prediction image P INTRAi n. Also, if the index value of the intra prediction mode for prediction block P i n is 1 (horizontal prediction) calculates the predicted values of the pixels in the prediction block P i n the above equation (2), the intra generating a predicted image P INTRAi n. However, when the block size using the vertical prediction of Equation (1) or the horizontal prediction of Equation (2) is limited, the vertical prediction of Equation (1) or the horizontal prediction of Equation (2) is used. performing intra prediction processing by the vertical prediction ⁇ and horizontal prediction of the prediction block P i n in size than the block size conventional (MPEG-4 AVC / H.264) .
- the motion compensation unit 35 performs switching switch 33 Using the motion vector and the inter prediction parameter while referring to the decoded image after the filtering process stored in the motion compensated prediction frame memory 39 by receiving the motion vector and the inter prediction parameter of the prediction block unit output from by carrying out inter-prediction processing for each of the prediction block P i n in the decoding block generates an inter prediction image P INTERi n (step ST27).
- the predictive difference encoding is performed in the same procedure as the inverse quantization / inverse transform unit 8 in FIG.
- the compressed data is dequantized, and with reference to the prediction differential coding parameter, the inverse orthogonal transformation processing is performed on the transform coefficient which is the compressed data after the dequantization, as shown in FIG.
- the same decoded prediction difference signal as the local decoded prediction difference signal output from the inverse quantization / inverse transform unit 8 of is calculated (step ST28).
- Addition unit 36 a decoding prediction difference signal calculated by the inverse quantization and inverse transform unit 32, an intra prediction image P INTRAi n generated by the intra prediction unit 34, or, inter prediction generated by the motion compensation unit 35 by adding one of the image P INTERi n calculates a decoded image, and outputs to the loop filter unit 38, and stores the decoded image to the intra prediction memory 37 (step ST29).
- This decoded image is a decoded image signal used in the subsequent intra prediction processing.
- the loop filter unit 38 When the processing of steps ST23 to ST29 on all the decoded blocks B n is completed (step ST30), the loop filter unit 38 performs predetermined filtering processing on the decoded image output from the addition unit 36, and performs filtering.
- the decoded image after processing is stored in the motion compensation prediction frame memory 39 (step ST31).
- the filtering process by the loop filter unit 38 may be performed in units of the largest decoded block of the input decoded image or in individual decoded blocks, or after one image of the decoded image is input, it is collectively performed for one picture.
- examples of the predetermined filtering process include a process of filtering block boundaries so that discontinuity (block noise) of a coding block boundary becomes inconspicuous, and a filter process of compensating for distortion of a decoded image.
- This decoded image becomes a reference image for motion compensation prediction, and becomes a reproduced image.
- the prediction block is a prediction block.
- a value proportional to the amount of change in luminance in the horizontal direction of the pixel adjacent to the top of the prediction block is added to the luminance value of the pixel adjacent to the left of
- the intra-frame prediction processing at the time of generating the prediction image is determined to be the prediction value of the vertical prediction processing
- the luminance value of the pixel adjacent on the top of the prediction block is adjacent to the left of the prediction block Since a value proportional to the amount of change in luminance value in the vertical direction of the pixel being added is added and the value after addition is determined as the predicted value of the predicted image, the signal value changes along the prediction direction Achieve high-precision prediction even if you An effect that can increase the image quality.
- the intra prediction unit 34 of the moving picture decoding apparatus when the intra prediction unit 34 of the moving picture decoding apparatus generates the prediction image in the intra-frame prediction process is the horizontal direction prediction process, the intra prediction unit 34 is adjacent to the left of the prediction block. A value proportional to the amount of change in luminance value in the horizontal direction of the pixel adjacent to the top of the prediction block is added to the luminance value of a certain pixel, and the value after the addition is determined as the prediction value of the prediction image.
- the intra-frame prediction process at the time of generating the predicted image is the vertical direction prediction process
- the vertical value of the pixel adjacent to the left of the predicted block with respect to the luminance value of the pixel adjacent above the predicted block Since a value proportional to the amount of change in luminance value in the direction is added, and the value after addition is determined as the predicted value of the predicted image, the signal value is high even if the signal value changes along the predicted direction. Achieve accurate predictions and improve image quality It is an effect that can.
- the distance from the pixel adjacent to the top of the prediction block is Since the scaling value for the distant row is set to a smaller value, the distance between the pixel adjacent to the top of the prediction block and the pixel having a lower correlation is higher on the prediction block. The influence of adjacent pixels can be reduced, and as a result, it is possible to predict with high accuracy.
- a scaling value according to a row distant from pixels adjacent to the left of the prediction block Since the pixel is set to a value as small as possible, the distance between the pixel adjacent to the left of the prediction block is increased, and the pixel with lower correlation is affected by the pixel adjacent to the left of the prediction block. Can be reduced, and as a result, it is possible to predict with high accuracy.
- the present invention allows free combination of each embodiment, or modification of any component of each embodiment, or omission of any component in each embodiment. .
- the present invention is suitable for a moving picture coding apparatus that needs to perform moving picture coding with high efficiency, and to a moving picture decoding apparatus that needs to decode moving pictures that are highly efficiently coded. Is suitable.
- 1 block division unit (block division unit), 2 coding control unit (coding control unit), 3 changeover switch, 4 intra prediction unit (intra prediction unit), 5 motion compensation prediction unit (motion compensation prediction unit), 6 subtraction Part (quantization means), 7 transformation / quantization part (quantization means), 8 inverse quantization / inverse transformation part, 9 addition part, 10 memory for intra prediction (intra prediction means), 11 loop filter part, 12 motion Compensated prediction frame memory (motion compensation prediction means), 13 variable length coding unit (variable length coding means), 31 variable length decoding unit (variable length decoding means), 32 inverse quantization / inverse conversion unit (inverse quantization means) , 33 selector switches, 34 intra prediction unit (intra prediction means), 35 motion compensation unit (motion compensation prediction means), 36 addition units, 37 intra prediction memory (in La predicting means), 38 a loop filter unit, 39 motion-compensated prediction frame memory (motion compensation prediction means).
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
MPEG-4 AVC/H.264において、輝度のイントラ予測モードでは、ブロック単位に、複数の予測モードの中から1つの予測モードを選択することができる。
図14は輝度のブロックサイズが4×4画素の場合のイントラ予測モードを示す説明図である。
図14では、ブロック内の白丸が符号化対象の画素を表し、黒丸は予測に用いる画素である符号化済みの画素を表している。輝度のブロックサイズが4×4画素の場合には、モード0からモード8の9つのイントラ予測モードが規定されている。
モード2以外のモードは方向性予測を行うモードである。モード0は垂直方向予測であり、ブロックの上の隣接画素を垂直方向に繰り返すことで予測画像を生成するものである。例えば、縦縞模様のときにはモード0が選択される。
モード1は水平方向予測であり、ブロックの左の隣接画素を水平方向に繰り返すことで予測画像を生成するものである。例えば、横縞模様のときにはモード1が選択される。
モード3からモード8は、ブロックの上又は左の符号化済みの画素を用いて、所定の方向(矢印が示す方向)に補間画素を生成して予測画像を生成するものである。
これに対し、16×16画素の場合には、平均値予測、垂直方向予測及び水平方向予測に係るイントラ予測モードに加えて、Plane予測と呼ばれる4つのイントラ予測モードが規定されている。
Plane予測に係るイントラ予測モードは、ブロックの上と左の符号化済みの隣接画素を斜め方向に内挿補間して生成された画素を予測値とするモードである。
実施の形態1.
図1はこの発明の実施の形態1による動画像符号化装置を示す構成図である。
図1において、ブロック分割部1は入力画像を示す映像信号を入力すると、その入力画像を符号化制御部2により決定された最大サイズの符号化ブロックである最大符号化ブロックに分割するとともに、符号化制御部2により決定された上限の階層数に至るまで、その最大符号化ブロックを階層的に各符号化ブロックへ分割する処理を実施する。
即ち、ブロック分割部1は入力画像を符号化制御部2により決定された分割に応じて各符号化ブロックに分割して、その符号化ブロックを出力する処理を実施する。また、各符号化ブロックは予測処理単位となる1つないし複数の予測ブロックに分割される。
なお、ブロック分割部1はブロック分割手段を構成している。
また、符号化制御部2は選択可能な1以上の符号化モード(1以上のイントラ符号化モード、1以上のインター符号化モード)の中から、ブロック分割部1から出力される符号化ブロックに対する符号化効率が最も高い符号化モードを選択する処理を実施する。
また、符号化制御部2は符号化効率が最も高い符号化モードがイントラ符号化モードである場合、そのイントラ符号化モードで符号化ブロックに対するイントラ予測処理を実施する際に用いるイントラ予測パラメータを予測処理単位である予測ブロック毎に決定し、符号化効率が最も高い符号化モードがインター符号化モードである場合、そのインター符号化モードで符号化ブロックに対するインター予測処理を実施する際に用いるインター予測パラメータを予測処理単位である予測ブロック毎に決定する処理を実施する。
さらに、符号化制御部2は変換・量子化部7及び逆量子化・逆変換部8に与える予測差分符号化パラメータを決定する処理を実施する。
なお、符号化制御部2は符号化制御手段を構成している。
なお、イントラ予測部4は予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、予測ブロックの左に隣接している画素の輝度値に対して、予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算して、その加算後の値を予測画像の予測値に決定し、予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、予測ブロックの上に隣接している画素の輝度値に対して、予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を予測画像の予測値に決定する。
イントラ予測部4及びイントラ予測用メモリ10からイントラ予測手段が構成されている。
変換・量子化部7は符号化制御部2により決定された予測差分符号化パラメータを参照して、減算部6から出力された予測差分信号に対する直交変換処理(例えば、DCT(離散コサイン変換)や、予め特定の学習系列に対して基底設計がなされているKL変換等の直交変換処理)を実施して変換係数を算出するとともに、その予測差分符号化パラメータを参照して、その変換係数を量子化し、量子化後の変換係数である圧縮データを逆量子化・逆変換部8及び可変長符号化部13に出力する処理を実施する。
なお、減算部6及び変換・量子化部7から量子化手段が構成されている。
加算部9は逆量子化・逆変換部8により算出された局所復号予測差分信号と、イントラ予測部4により生成されたイントラ予測画像、又は、動き補償予測部5により生成されたインター予測画像とを加算して、ブロック分割部1から出力された符号化ブロックに相当する局所復号画像を算出する処理を実施する。
ループフィルタ部11は加算部9により算出された局所復号画像に対して、所定のフィルタリング処理を実施して、フィルタリング処理後の局所復号画像を出力する処理を実施する。
動き補償予測フレームメモリ12はフィルタリング処理後の局所復号画像を格納する記録媒体である。
なお、可変長符号化部13は可変長符号化手段を構成している。
図2はこの発明の実施の形態1による動画像符号化装置の処理内容(動画像符号化方法)を示すフローチャートである。
図3において、可変長復号部31は図1の動画像符号化装置により生成されたビットストリームを入力すると、そのビットストリームから圧縮データ、ブロック分割情報、符号化モード、イントラ予測パラメータ(符号化モードがイントラ符号化モードである場合)、インター予測パラメータ(符号化モードがインター符号化モードである場合)、予測差分符号化パラメータ及び動きベクトル(符号化モードがインター符号化モードである場合)を可変長復号する処理を実施する。
なお、可変長復号部31は可変長復号手段を構成している。
なお、逆量子化・逆変換部32は逆量子化手段を構成している。
なお、イントラ予測部34は予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、予測ブロックの左に隣接している画素の輝度値に対して、予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算して、その加算後の値を予測画像の予測値に決定し、予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、予測ブロックの上に隣接している画素の輝度値に対して、予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を予測画像の予測値に決定する。
イントラ予測部34及びイントラ予測用メモリ37からイントラ予測手段が構成されている。
加算部36は逆量子化・逆変換部32により算出された復号予測差分信号と、イントラ予測部34により生成されたイントラ予測画像、又は、動き補償部35により生成されたインター予測画像とを加算して、図1の加算部9から出力された局所復号画像と同一の復号画像を算出する処理を実施する。
ループフィルタ部38は加算部36により算出された復号画像に対して、所定のフィルタリング処理を実施して、フィルタリング処理後の復号画像を出力する処理を実施する。
動き補償予測フレームメモリ39はフィルタリング処理後の復号画像を格納する記録媒体である。
図4はこの発明の実施の形態1による動画像復号装置の処理内容(動画像復号方法)を示すフローチャートである。
この実施の形態1では、映像の各フレーム画像を入力画像として、符号化済みの近傍画素からのイントラ予測又は近接フレーム間での動き補償予測を実施して、得られた予測差分信号に対して直交変換・量子化による圧縮処理を施し、その後、可変長符号化を行ってビットストリームを生成する動画像符号化装置と、その動画像符号化装置から出力されるビットストリームを復号する動画像復号装置について説明する。
一般的に、映像信号は、空間・時間的に信号の複雑さが局所的に変化する特性を有している。空間的に見ると、ある映像フレーム上では、例えば、空や壁などのような比較的広い画像領域中で均一な信号特性を有する絵柄もあれば、人物や細かいテクスチャを含む絵画など、小さい画像領域内で複雑なテクスチャパターンを有する絵柄も混在することがある。
時間的に見ても、空や壁は局所的に時間方向の絵柄の変化は小さいが、動く人物や物体は、その輪郭が時間的に剛体・非剛体の運動をするため、時間的な変化が大きい。
一方、時間的・空間的に変化の大きい画像信号パターンに対して、同一の予測パラメータを大きな画像領域に適用すると、予測の誤りが増えてしまうため、予測差分信号の符号量が増加してしまう。
したがって、時間的・空間的に変化が大きい領域では、同一の予測パラメータを適用して予測処理を行うブロックサイズを小さくして、予測に用いるパラメータのデータ量を増やし、予測差分信号の電力・エントロピーを低減する方が望ましい。
ただし、各画素の階調は、8ビットでもよいし、10ビットや12ビットなどの階調でもよい。
また、映像信号の各フレームに対応する処理データ単位を「ピクチャ」と称する。
この実施の形態1では、「ピクチャ」は順次走査(プログレッシブスキャン)された映像フレーム信号として説明を行うが、映像信号がインタレース信号である場合、「ピクチャ」は映像フレームを構成する単位であるフィールド画像信号であってもよい。
まず、符号化制御部2は、符号化対象となるピクチャ(カレントピクチャ)の符号化に用いる最大符号化ブロックのサイズと、最大符号化ブロックを階層分割する階層数の上限を決定する(図2のステップST1)。
最大符号化ブロックのサイズの決め方としては、例えば、入力画像の映像信号の解像度に応じて、全てのピクチャに対して同一のサイズを定めてもよいし、入力画像の映像信号の局所的な動きの複雑さの違いをパラメータとして定量化して、動きの激しいピクチャには、小さいサイズを定める一方、動きが少ないピクチャには、大きいサイズを定めるようにしてもよい。
分割階層数の上限の決め方としては、例えば、入力画像の映像信号の解像度に応じて、全てのピクチャに対して同一の階層数を定める方法や、入力画像の映像信号の動きが激しい場合には、階層数を深くして、より細かい動きが検出できるように設定し、動きが少ない場合には、階層数を抑えるように設定する方法などがある。
即ち、符号化制御部2は、最大符号化ブロックサイズの画像領域毎に、先に定めた分割階層数の上限に至るまで、階層的に符号化ブロックサイズを有する符号化ブロックに分割して、各々の符号化ブロックに対する符号化モードを決定する。
符号化モードには、1つないし複数のイントラ符号化モード(総称して「INTRA」と称する)と、1つないし複数のインター符号化モード(総称して、「INTER」と称する)とがあり、符号化制御部2は、当該ピクチャで利用可能な全ての符号化モード、又は、そのサブセットの中から、各々の符号化ブロックに対応する符号化モードを選択する。
符号化制御部2による符号化モードの選択方法は、公知の技術であるため詳細な説明を省略するが、例えば、利用可能な任意の符号化モードを用いて、符号化ブロックに対する符号化処理を実施して符号化効率を検証し、利用可能な複数の符号化モードの中で、最も符号化効率がよい符号化モードを選択する方法などがある。
ただし、符号化ブロックがさらに予測処理を行う予測ブロック単位に分割される場合は、予測ブロック毎に予測パラメータ(イントラ予測パラメータ又はインター予測パラメータ)を選択できる。
さらに、符号化モードがイントラ符号化モードである符号化ブロックにおいては、後述するようにイントラ予測処理を行う際に予測ブロックに隣接する符号化済みの画素を用いることから、予測ブロック単位に符号化を行う必要があるため、選択可能な変換ブロックサイズは予測ブロックのサイズ以下に制限される。
符号化制御部2は、量子化パラメータ及び変換ブロックサイズを含む予測差分符号化パラメータを変換・量子化部7、逆量子化・逆変換部8及び可変長符号化部13に出力する。
また、符号化制御部2は、イントラ予測パラメータを必要に応じてイントラ予測部4に出力する。
また、符号化制御部2は、インター予測パラメータを必要に応じて動き補償予測部5に出力する。
ブロック分割部1は、入力画像の映像信号を入力すると、その入力画像の映像信号を符号化制御部2により決定された最大符号化ブロックサイズに分割し、さらに、分割した最大符号化ブロックを符号化制御部2により決定された符号化ブロックへ階層的に分割して、その符号化ブロックを出力する。
図5において、最大符号化ブロックは、「第0階層」と記されている輝度成分が(L0,M0)のサイズを有する符号化ブロックである。
最大符号化ブロックを出発点として、4分木構造で別途定める所定の深さまで、階層的に分割を行うことによって符号化ブロックを得るようにしている。
深さnにおいては、符号化ブロックはサイズ(Ln,Mn)の画像領域である。
ただし、LnとMnは、同じであってもよいし、異なっていてもよいが、図5では、Ln=Mnのケースを示している。
4分木分割を行うため、常に、(Ln+1,Mn+1)=(Ln/2,Mn/2)が成立する。
なお、RGB信号など、全ての色成分が同一サンプル数を有するカラー映像信号(4:4:4フォーマット)では、全ての色成分のサイズが(Ln,Mn)になるが、4:2:0フォーマットを扱う場合、対応する色差成分の符号化ブロックサイズは(Ln/2,Mn/2)になる。
複数の色成分からなるカラー映像信号の場合、符号化モードm(Bn)は、色成分毎に、それぞれ個別のモードを用いるように構成されてもよいし、全ての色成分に対し共通のモードを用いるように構成されてもよい。以降、特に断らない限り、YUV信号、4:2:0フォーマットの符号化ブロックの輝度成分に対する符号化モードを指すものとして説明を行う。
以降、符号化ブロックBnに属する予測ブロックをPi n(iは、第n階層における予測ブロック番号)と表記する。図5にP0 0とP1 0の一例を示す。
符号化ブロックBnの予測ブロック分割がどのようになされているかは、符号化モードm(Bn)の中に情報として含まれる。
予測ブロックPi nは、全て符号化モードm(Bn)に従って予測処理が行われるが、予測ブロックPi n毎に、個別の予測パラメータ(イントラ予測パラメータ又はインター予測パラメータ)を選択することができる。
図6(a)の点線で囲まれた矩形が各符号化ブロックを表し、各符号化ブロック内にある斜線で塗られたブロックが各予測ブロックの分割状態を表している。
図6(b)は、図6(a)の例について、階層分割によって符号化モードm(Bn)が割り当てられる状況を4分木グラフで示したものである。図6(b)の□で囲まれているノードは、符号化モードm(Bn)が割り当てられたノード(符号化ブロック)である。
この4分木グラフの情報は符号化モードm(Bn)と共に符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
一方、符号化制御部2により決定された符号化モードm(Bn)がインター符号化モードである場合(m(Bn)∈INTERの場合)、ブロック分割部1から出力された符号化ブロックBnを動き補償予測部5に出力する。
なお、動画像復号装置がイントラ予測画像PINTRAi nと全く同じイントラ予測画像を生成する必要があるため、イントラ予測画像PINTRAi nの生成に用いられたイントラ予測パラメータは、符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
イントラ予測部4の処理内容の詳細は後述する。
なお、動画像復号装置がインター予測画像PINTERi nと全く同じインター予測画像を生成する必要があるため、インター予測画像PINTERi nの生成に用いられたインター予測パラメータは、符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
また、動き補償予測部5により探索された動きベクトルも可変長符号化部13に出力されて、ビットストリームに多重化される。
また、変換・量子化部7は、その予測差分符号化パラメータを参照して、その変換係数を量子化し、量子化後の変換係数である圧縮データを逆量子化・逆変換部8及び可変長符号化部13に出力する(ステップST7)。
また、逆量子化・逆変換部8は、その予測差分符号化パラメータを参照して、逆量子化後の圧縮データである変換係数に対する逆直交変換処理(例えば、逆DCT、逆KL変換など)を実施して、減算部6から出力された予測差分信号ei nに相当する局所復号予測差分信号を算出して加算部9に出力する(ステップST8)。
なお、加算部9は、その局所復号画像をループフィルタ部11に出力するとともに、その局所復号画像をイントラ予測用メモリ10に格納する。
この局所復号画像が、以降のイントラ予測処理の際に用いられる符号化済みの画像信号になる。
なお、ループフィルタ部11によるフィルタリング処理は、入力される局所復号画像の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1ピクチャ分の局所復号画像が入力された後に1ピクチャ分まとめて行ってもよい。
また、所定のフィルタリング処理の例としては、符号化ブロック境界の不連続性(ブロックノイズ)が目立たなくなるようにブロック境界をフィルタリングする処理、入力画像である図1の映像信号と局所復号画像との間の誤差が最小となるように局所復号画像の歪みを補償するフィルタ処理などが挙げられる。
ただし、入力画像である図1の映像信号と局所復号画像との間の誤差が最小となるように局所復号画像の歪みを補償するフィルタ処理を行う場合には、映像信号をループフィルタ部11で参照する必要があるため、ループフィルタ部11に映像信号を入力するように図1の動画像符号化装置を変更する必要がる。
図7は符号化ブロックBn内の各予測ブロックPi nが選択可能なイントラ予測パラメータ(イントラ予測モード)の一例を示す説明図である。
図7では、イントラ予測モードと、そのイントラ予測モードが示す予測方向ベクトルを示しており、図7の例では、選択可能なイントラ予測モードの個数が増えるに従って、予測方向ベクトル同士の相対角度が小さくなるように設計されている。
図8はli n=mi n=4の場合の予測ブロックPi n内の画素の予測値を生成する際に用いる画素の一例を示す説明図である。
図8では、予測ブロックPi nの上の符号化済みの画素(2×li n+1)個と、左の符号化済みの画素(2×mi n)個を予測に用いる画素としているが、予測に用いる画素は、図8に示す画素より多くても少なくてもよい。
また、図8では、予測ブロックPi nの近傍の1行又は1列分の画素を予測に用いているが、2行又は2列、あるいは、それ以上の画素を予測に用いてもよい。
ただし、座標(x,y)は予測ブロックPi n内の左上画素を原点とする相対座標(図9を参照)であり、S’(x,y)は座標(x,y)における予測値、S(x,y)は座標(x,y)における符号化済み画素の輝度値(復号された輝度値)である。
ただし、上記予測値が輝度値の取り得る値の範囲に収まっていない場合には、その範囲内に収まるように値を丸めるようにする。
例えば、t=2x+1とすれば、図11に示すように、スケーリング値が左端の列から順に1/2,1/4,1/8,1/16というように小さくなっていくため、予測ブロックPi nの左に隣接する符号化済み画素からの距離が離れるほど、加算する垂直方向の輝度値の変化量が小さくなる。
これにより、予測ブロックPi nの左に隣接する符号化済み画素との距離が離れて相関が低くなる予測対象画素ほど、予測ブロックPi nの左に隣接する符号化済み画素の影響を小さくすることができるため、予測ブロックPi nの左に隣接する符号化済み画素との相関に応じた高精度な予測を行うことができる。
さらに、式(1)の予測処理を行う予測ブロックPi nのブロックサイズを限定してもよい。一般に大きなブロックサイズではブロック内に様々な信号変化が含まれ易く、方向性予測を用いて高精度に予測できるケースが少ないため、例えば、16×16画素以上のブロックサイズの予測ブロックPi nでは式(1)は適用せずに従来の垂直方向予測の予測値(予測ブロックPi nの上に隣接する符号化済み画素の輝度値S(x,-1))とし、16×16画素より小さいブロックのみで式(1)を適用することで、従来の垂直方向予測よりも予測性能を向上させながら、演算量の増加を抑えることができる。
ただし、座標(x,y)は予測ブロックPi n内の左上画素を原点とする相対座標(図9を参照)であり、S’(x,y)は座標(x,y)における予測値、S(x,y)は座標(x,y)における符号化済み画素の輝度値(復号された輝度値)である。
ただし、上記予測値が輝度値の取り得る値の範囲に収まっていない場合には、その範囲内に収まるように値を丸めるようにする。
例えば、u=2y+1とすれば、図13に示すように、スケーリング値が上端の行から順に1/2,1/4,1/8,1/16というように小さくなっていくため、予測ブロックPi nの上に隣接する符号化済み画素からの距離が離れるほど、加算する水平方向の輝度値の変化量が小さくなる。
これにより、予測ブロックPi nの上に隣接する符号化済み画素との距離が離れて相関が低くなる画素ほど、予測ブロックPi nの上に隣接する符号化済み画素の影響を小さくすることができるため、予測ブロックPi nの上に隣接する符号化済み画素との相関に応じた高精度な予測を行うことができる。
さらに、式(2)の予測処理を行う予測ブロックPi nのブロックサイズを限定してもよい。一般に大きなブロックサイズではブロック内に様々な信号変化が含まれ易く、方向性予測を用いて高精度に予測できるケースが少ないため、例えば、16×16画素以上のブロックサイズの予測ブロックPi nでは式(2)は適用せずに従来の水平方向予測の予測値(予測ブロックPi nの左に隣接する符号化済み画素の輝度値S(-1,y))とし、16×16画素より小さいブロックのみで式(2)を適用することで、従来の水平方向予測よりも予測性能を向上させながら、演算量の増加を抑えることができる。
イントラ予測モードのインデックス値が0(垂直方向予測)、1(水平方向予測)、2(平均値予測)以外の場合には、インデックス値が示す予測方向ベクトルυp=(dx,dy)に基づいて、予測ブロックPi n内の画素の予測値を生成する。
図9に示すように、予測ブロックPi nの左上画素を原点として、予測ブロックPi n内の相対座標を(x,y)と設定すると、予測に用いる参照画素の位置は、下記のLと隣接画素の交点になる。
ただし、kは負のスカラ値である。
図8の例では、参照画素は整数画素位置にないので、参照画素に隣接する2画素から内挿したものを予測値とする。なお、隣接する2画素のみではなく、隣接する2画素以上の画素から補間画素を生成して予測値としてもよい。
補間処理に用いる画素を多くすることで補間画素の補間精度を向上させる効果がある一方、補間処理に要する演算の複雑度が増加することから、演算負荷が大きくても高い符号化性能を要求する動画像符号化装置の場合には、より多くの画素から補間画素を生成するようにした方がよい。
同様の手順で、予測ブロックPi n内の輝度信号の全ての画素に対する予測画素を生成してイントラ予測画像PINTRAi nを出力する。
なお、イントラ予測画像PINTRAi nの生成に用いられたイントラ予測パラメータは、ビットストリームに多重化するために可変長符号化部13に出力される。
ただし、色差信号で選択可能なイントラ予測パラメータ(イントラ予測モード)は輝度信号と同じである必要はなく、また、垂直方向予測及び水平方向予測については従来(MPEG-4 AVC/H.264)の予測手法であってもよい。
例えば、YUV信号4:2:0フォーマットの場合、色差信号(U、V信号)は、輝度信号(Y信号)に対して解像度を水平方向、垂直方向共に1/2に縮小した信号であり、輝度信号に比べて画像信号の複雑性が低く予測が容易であることから、選択可能なイントラ予測パラメータ(イントラ予測モード)は輝度信号よりも少ない数とし、垂直方向予測及び水平方向予測についても従来の簡易な予測手法とすることで、予測効率をあまり低下させることなくイントラ予測パラメータ(イントラ予測モード)を符号化するのに要する符号量の削減や、予測処理の低演算化を実現することができる。
このようにシーケンス単位あるいはピクチャ単位に、t,uを適応制御できるようにすることで、より入力画像の映像信号の特性に応じた予測処理が実現できる。
このようにシーケンス単位あるいはピクチャ単位に、式(1)の垂直方向予測や式(2)の水平方向予測を用いるブロックサイズを適応制御できるようにすることで、より入力画像の映像信号の特性に応じた予測処理が実現できる。
可変長復号部31は、図1の動画像符号化装置により生成されたビットストリームを入力すると、そのビットストリームに対する可変長復号処理を実施して(図4のステップST21)、1フレーム以上のピクチャから構成されるシーケンス単位、あるいは、ピクチャ単位にフレームサイズの情報を復号する。
このとき、垂直方向予測で用いるスケーリング値のパラメータt、水平方向予測で用いるスケーリング値のパラメータu、式(1)の垂直方向予測や式(2)の水平方向予測を用いるブロックサイズを表すブロックサイズ毎のON/OFFフラグの内、いずれか1つでも可変長符号化されてビットストリームに多重化されている場合、図1の動画像符号化装置で符号化された単位(シーケンス単位、あるいは、ピクチャ単位)に復号する。
例えば、最大符号化ブロックサイズや分割階層数上限が映像信号の解像度に応じて決められた場合には、復号したフレームサイズ情報に基づいて、動画像符号化装置と同様の手順で最大符号化ブロックサイズを決定する。
最大符号化ブロックサイズ及び分割階層数上限が、動画像符号化装置側でビットストリームに多重化されている場合には、ビットストリームから復号した値を用いる。
以降、動画像復号装置では上記最大符号化ブロックサイズを最大復号ブロックサイズと呼び、最大符号化ブロックを最大復号ブロックと呼ぶ。
可変長復号部31は、決定された最大復号ブロック単位に、図6で示されるような最大復号ブロックの分割状態を復号する。復号された分割状態に基づき、階層的に復号ブロック(図1の動画像符号化装置の「符号化ブロック」に相当するブロック)を特定する(ステップST23)。
さらに、可変長復号部31は、復号ブロックを予測差分符号化パラメータに含まれる変換ブロックサイズの情報に基づき、変換処理単位となる1つないし複数の変換ブロックに分割し、変換ブロック毎に圧縮データ(変換・量子化後の変換係数)を復号する(ステップST24)。
一方、可変長復号部31により可変長復号された符号化モードm(Bn)がインター符号化モードであれば(m(Bn)∈INTERの場合)、可変長復号部31により可変長復号された予測ブロック単位のインター予測パラメータ及び動きベクトルを動き補償部35に出力する。
即ち、イントラ予測部34は、予測ブロックPi nに対するイントラ予測モードのインデックス値が0(垂直方向予測)の場合には、上記の式(1)から予測ブロックPi n内の画素の予測値を算出して、イントラ予測画像PINTRAi nを生成する。
また、予測ブロックPi nに対するイントラ予測モードのインデックス値が1(水平方向予測)の場合には、上記の式(2)から予測ブロックPi n内の画素の予測値を算出して、イントラ予測画像PINTRAi nを生成する。
ただし、式(1)の垂直方向予測や式(2)の水平方向予測を用いるブロックサイズが制限されている場合は、式(1)の垂直方向予測や式(2)の水平方向予測を用いるブロックサイズ以外のサイズの予測ブロックPi nでは従来(MPEG-4 AVC/H.264)の垂直方向予測及や水平方向予測によってイントラ予測処理を行う。
この復号画像が、以降のイントラ予測処理の際に用いられる復号済みの画像信号になる。
なお、ループフィルタ部38によるフィルタリング処理は、入力される復号画像の最大復号ブロックあるいは個々の復号ブロック単位で行ってもよいし、1ピクチャ分の復号画像が入力された後に1ピクチャ分まとめて行ってもよい。
また、所定のフィルタリング処理の例としては、符号化ブロック境界の不連続性(ブロックノイズ)が目立たなくなるようにブロック境界をフィルタリングする処理、復号画像の歪みを補償するフィルタ処理などが挙げられる。
この復号画像が、動き補償予測用の参照画像となり、また、再生画像となる。
また、イントラ予測部4,34により垂直方向予測処理が実施される際に用いられるスケーリング値である1/tについては、予測ブロックの左に隣接している画素から距離が遠い列に係るスケーリング値ほど小さな値に設定されているように構成したので、予測ブロックの左に隣接している画素との距離が離れて、相関が低くなる画素ほど、予測ブロックの左に隣接している画素の影響を小さくすることができるようになり、その結果、高精度に予測することができる効果を奏する。
上記実施の形態1では、イントラ予測部4,34が、予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、予測ブロックの上に隣接している画素の輝度値に対して、その予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に予測ブロック内の列毎に設定されているスケーリング値が乗算された値を加算して、その加算後の値を予測画像の予測値に決定するものを示したが、低演算な処理を実現するために、予測ブロック内の左端から所定の数列については、その予測ブロックの上に隣接している画素の輝度値に対して、その予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を予測画像の予測値に決定するが、その予測ブロック内の残りの列については、その予測ブロックの上に隣接している画素の輝度値を予測画像の予測値に決定するようにしてもよい。
また、同様の理由で、予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、予測ブロック内の上端から所定の数行については、その予測ブロックの左に隣接している画素の輝度値に対して、その予測ブロックの上に隣接している画素の水平方向の輝度値変化量に予測ブロック内の行毎に設定されているスケーリング値が乗算された値を加算して、その加算後の値を予測画像の予測値に決定するが、その予測ブロック内の残りの行については、その予測ブロックの左に隣接している画素の輝度値を予測画像の予測値に決定するようにしてもよい。
イントラ予測部4,34は、予測ブロックPi nに対するイントラ予測モードのインデックス値が0(垂直方向予測)の場合、下記の式(4)から予測ブロックPi n内の画素の予測値を算出して予測画像を生成する。
Bの値を小さくするほど、低演算な処理を実現することが可能であり、B=0の場合、予測ブロックPi nの上に隣接する符号化済み(復号済み)画素の輝度値S(x,-1)のみを用いる従来(MPEG-4 AVC/H.264)の垂直方向予測と一致する。
Bの値は、予測ブロックPi nのブロックサイズによって変更してもよい。一般に、予測するブロックサイズが大きくなると、ブロック内に様々な信号変化が含まれ易く、単一の方向で予測することが難しくなるため、方向性予測で高精度に予測できるケースは減少する。
したがって、予測ブロックPi nのブロックサイズが所定サイズより小さい場合に限り、B≧1に設定し、予測ブロックPi nのブロックサイズが所定サイズ以上であれば、B=0とする。
例えば、所定サイズが16×16画素であれば、16×16画素以上のブロックサイズの予測ブロックPi nでは、B=0となるため、従来の垂直方向予測と同じなり、演算処理の増加を抑制することができる。即ち、B=0のブロックサイズでは、x<Bかx≧Bかのいずれに属するかの条件判定処理は不要となるため、常に上記条件判定処理を行わずに従来の垂直方向予測を行うようにすることで、従来の垂直方向予測処理からの演算処理の増加は一切発生しない。
一方、4×4画素や8×8画素等の16×16画素より小さいブロックサイズの予測ブロックPi nでは、B≧1となるため、従来の垂直方向予測よりも予測性能を向上させることができる。
一方、予測ブロックPi n内の左端から2番目~4番目の列については、式(4)の下式が適用されて、予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値は加算されない。
このようにBの値を小さい値に設定することで、演算量の増加を大幅に抑えることができる。
Cの値を小さくするほど、低演算な処理を実現することが可能であり、C=0の場合、予測ブロックPi nの左に隣接する符号化済み(復号済み)画素の輝度値S(-1,y)のみを用いる従来(MPEG-4 AVC/H.264)の水平方向予測と一致する。
Cの値は、予測ブロックPi nのブロックサイズによって変更してもよい。一般に、予測するブロックサイズが大きくなると、ブロック内に様々な信号変化が含まれ易く、単一の方向で予測することが難しくなるため、方向性予測で高精度に予測できるケースは減少する。
したがって、予測ブロックPi nのブロックサイズが所定サイズより小さい場合に限り、C≧1に設定し、予測ブロックPi nのブロックサイズが所定サイズ以上であれば、C=0とする。
例えは、所定サイズが16×16画素であれば、16×16画素以上のブロックサイズの予測ブロックPi nでは、C=0となるため、従来の水平方向予測と同じなり、演算処理の増加を抑制することができる。即ち、C=0のブロックサイズでは、y<Cかy≧Cかのいずれに属するかの条件判定処理は不要となるため、常に上記条件判定処理を行わずに従来の水平方向予測を行うようにすることで、従来の水平方向予測処理からの演算処理の増加は一切発生しない。
一方、4×4画素や8×8画素等の16×16画素より小さいブロックサイズの予測ブロックPi nでは、C≧1となるため、従来の水平方向予測よりも予測性能を向上させながら、演算量の増加を大幅に抑えることができる。
一方、予測ブロックPi n内の上端から2番目~4番目の行については、式(5)の下式が適用されて、予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値は加算されない。
このようにCの値を小さい値に設定することで、演算量の増加を大幅に抑えることができる。
このようにシーケンス単位あるいはピクチャ単位に、t,u,B,Cを適応制御できるようにすることで、より入力画像の映像信号の特性に応じた予測処理が実現できる。
このようにシーケンス単位あるいはピクチャ単位に、式(4)の垂直方向予測や式(5)の水平方向予測を用いるブロックサイズを適応制御できるようにすることで、より入力画像の映像信号の特性に応じた予測処理が実現できる。
また、イントラ予測部4,34は、予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、予測ブロック内の左端から所定の数列については、その予測ブロックの上に隣接している画素の輝度値に対して、その予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を予測画像の予測値に決定するが、その予測ブロック内の残りの列については、その予測ブロックの上に隣接している画素の輝度値を予測画像の予測値に決定するように構成したので、演算量の増加を抑えながら、垂直方向予測の予測効率を改善することができる効果を奏する。
この実施の形態3における動画像符号化装置の構成図は、上記実施の形態1で示した図1と同様であり、この実施の形態3における動画像復号装置の構成図は、上記実施の形態1で示した図3と同様である。
この実施の形態3では、映像の各フレーム画像を入力画像として、符号化済みの近傍画素からのイントラ予測又は近接フレーム間での動き補償予測を実施して、得られた予測差分信号に対して直交変換・量子化による圧縮処理を施し、その後、可変長符号化を行ってビットストリームを生成する動画像符号化装置と、その動画像符号化装置から出力されるビットストリームを復号する動画像復号装置について説明する。
一般的に、映像信号は、空間・時間的に信号の複雑さが局所的に変化する特性を有している。空間的に見ると、ある映像フレーム上では、例えば、空や壁などのような比較的広い画像領域中で均一な信号特性を有する絵柄もあれば、人物や細かいテクスチャを含む絵画など、小さい画像領域内で複雑なテクスチャパターンを有する絵柄も混在することがある。
時間的に見ても、空や壁は局所的に時間方向の絵柄の変化は小さいが、動く人物や物体は、その輪郭が時間的に剛体・非剛体の運動をするため、時間的な変化が大きい。
一方、時間的・空間的に変化の大きい画像信号パターンに対して、同一の予測パラメータを大きな画像領域に適用すると、予測の誤りが増えてしまうため、予測差分信号の符号量が増加してしまう。
したがって、時間的・空間的に変化が大きい領域では、同一の予測パラメータを適用して予測処理を行うブロックサイズを小さくして、予測に用いるパラメータのデータ量を増やし、予測差分信号の電力・エントロピーを低減する方が望ましい。
ただし、各画素の階調は、8ビットでもよいし、10ビットや12ビットなどの階調でもよい。
また、映像信号の各フレームに対応する処理データ単位を「ピクチャ」と称する。
この実施の形態3では、「ピクチャ」は順次走査(プログレッシブスキャン)された映像フレーム信号として説明を行うが、映像信号がインタレース信号である場合、「ピクチャ」は映像フレームを構成する単位であるフィールド画像信号であってもよい。
まず、符号化制御部2は、符号化対象となるピクチャ(カレントピクチャ)の符号化に用いる最大符号化ブロックのサイズと、最大符号化ブロックを階層分割する階層数の上限を決定する(図2のステップST1)。
最大符号化ブロックのサイズの決め方としては、例えば、入力画像の映像信号の解像度に応じて、全てのピクチャに対して同一のサイズを定めてもよいし、入力画像の映像信号の局所的な動きの複雑さの違いをパラメータとして定量化して、動きの激しいピクチャには、小さいサイズを定める一方、動きが少ないピクチャには、大きいサイズを定めるようにしてもよい。
分割階層数の上限の決め方としては、例えば、入力画像の映像信号の解像度に応じて、全てのピクチャに対して同一の階層数を定める方法や、入力画像の映像信号の動きが激しい場合には、階層数を深くして、より細かい動きが検出できるように設定し、動きが少ない場合には、階層数を抑えるように設定する方法などがある。
即ち、符号化制御部2は、最大符号化ブロックサイズの画像領域毎に、先に定めた分割階層数の上限に至るまで、階層的に符号化ブロックサイズを有する符号化ブロックに分割して、各々の符号化ブロックに対する符号化モードを決定する。
符号化モードには、1つないし複数のイントラ符号化モード(総称して「INTRA」と称する)と、1つないし複数のインター符号化モード(総称して、「INTER」と称する)とがあり、符号化制御部2は、当該ピクチャで利用可能な全ての符号化モード、又は、そのサブセットの中から、各々の符号化ブロックに対応する符号化モードを選択する。
符号化制御部2による符号化モードの選択方法は、公知の技術であるため詳細な説明を省略するが、例えば、利用可能な任意の符号化モードを用いて、符号化ブロックに対する符号化処理を実施して符号化効率を検証し、利用可能な複数の符号化モードの中で、最も符号化効率がよい符号化モードを選択する方法などがある。
ただし、符号化ブロックがさらに予測処理を行う予測ブロック単位に分割される場合は、予測ブロック毎に予測パラメータ(イントラ予測パラメータ又はインター予測パラメータ)を選択できる。
さらに、符号化モードがイントラ符号化モードである符号化ブロックにおいては、後述するようにイントラ予測処理を行う際に予測ブロックに隣接する符号化済みの画素を用いることから、予測ブロック単位に符号化を行う必要があるため、選択可能な変換ブロックサイズは予測ブロックのサイズ以下に制限される。
符号化制御部2は、量子化パラメータ及び変換ブロックサイズを含む予測差分符号化パラメータを変換・量子化部7、逆量子化・逆変換部8及び可変長符号化部13に出力する。
また、符号化制御部2は、イントラ予測パラメータを必要に応じてイントラ予測部4に出力する。
また、符号化制御部2は、インター予測パラメータを必要に応じて動き補償予測部5に出力する。
ブロック分割部1は、入力画像の映像信号を入力すると、その入力画像の映像信号を符号化制御部2により決定された最大符号化ブロックサイズに分割し、さらに、分割した最大符号化ブロックを符号化制御部2により決定された符号化ブロックへ階層的に分割して、その符号化ブロックを出力する。
図5において、最大符号化ブロックは、「第0階層」と記されている輝度成分が(L0,M0)のサイズを有する符号化ブロックである。
最大符号化ブロックを出発点として、4分木構造で別途定める所定の深さまで、階層的に分割を行うことによって符号化ブロックを得るようにしている。
深さnにおいては、符号化ブロックはサイズ(Ln,Mn)の画像領域である。
ただし、LnとMnは、同じであってもよいし、異なっていてもよいが、図5では、Ln=Mnのケースを示している。
4分木分割を行うため、常に、(Ln+1,Mn+1)=(Ln/2,Mn/2)が成立する。
なお、RGB信号など、全ての色成分が同一サンプル数を有するカラー映像信号(4:4:4フォーマット)では、全ての色成分のサイズが(Ln,Mn)になるが、4:2:0フォーマットを扱う場合、対応する色差成分の符号化ブロックサイズは(Ln/2,Mn/2)になる。
複数の色成分からなるカラー映像信号の場合、符号化モードm(Bn)は、色成分毎に、それぞれ個別のモードを用いるように構成されてもよいし、全ての色成分に対し共通のモードを用いるように構成されてもよい。以降、特に断らない限り、YUV信号、4:2:0フォーマットの符号化ブロックの輝度成分に対する符号化モードを指すものとして説明を行う。
以降、符号化ブロックBnに属する予測ブロックをPi n(iは、第n階層における予測ブロック番号)と表記する。図5にP0 0とP1 0の一例を示す。
符号化ブロックBnの予測ブロック分割がどのようになされているかは、符号化モードm(Bn)の中に情報として含まれる。
予測ブロックPi nは、全て符号化モードm(Bn)に従って予測処理が行われるが、予測ブロックPi n毎に、個別の予測パラメータ(イントラ予測パラメータ又はインター予測パラメータ)を選択することができる。
図6(a)の点線で囲まれた矩形が各符号化ブロックを表し、各符号化ブロック内にある斜線で塗られたブロックが各予測ブロックの分割状態を表している。
図6(b)は、図6(a)の例について、階層分割によって符号化モードm(Bn)が割り当てられる状況を4分木グラフで示したものである。図6(b)の□で囲まれているノードは、符号化モードm(Bn)が割り当てられたノード(符号化ブロック)である。
この4分木グラフの情報は符号化モードm(Bn)と共に符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
一方、符号化制御部2により決定された符号化モードm(Bn)がインター符号化モードである場合(m(Bn)∈INTERの場合)、ブロック分割部1から出力された符号化ブロックBnを動き補償予測部5に出力する。
なお、動画像復号装置がイントラ予測画像PINTRAi nと全く同じイントラ予測画像を生成する必要があるため、イントラ予測画像PINTRAi nの生成に用いられたイントラ予測パラメータは、符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
イントラ予測部4の処理内容の詳細は後述する。
なお、動画像復号装置がインター予測画像PINTERi nと全く同じインター予測画像を生成する必要があるため、インター予測画像PINTERi nの生成に用いられたインター予測パラメータは、符号化制御部2から可変長符号化部13に出力されて、ビットストリームに多重化される。
また、動き補償予測部5により探索された動きベクトルも可変長符号化部13に出力されて、ビットストリームに多重化される。
また、変換・量子化部7は、その予測差分符号化パラメータを参照して、その変換係数を量子化し、量子化後の変換係数である圧縮データを逆量子化・逆変換部8及び可変長符号化部13に出力する(ステップST7)。
また、逆量子化・逆変換部8は、その予測差分符号化パラメータを参照して、逆量子化後の圧縮データである変換係数に対する逆直交変換処理(例えば、逆DCT、逆KL変換など)を実施して、減算部6から出力された予測差分信号ei nに相当する局所復号予測差分信号を算出して加算部9に出力する(ステップST8)。
なお、加算部9は、その局所復号画像をループフィルタ部11に出力するとともに、その局所復号画像をイントラ予測用メモリ10に格納する。
この局所復号画像が、以降のイントラ予測処理の際に用いられる符号化済みの画像信号になる。
なお、ループフィルタ部11によるフィルタリング処理は、入力される局所復号画像の最大符号化ブロックあるいは個々の符号化ブロック単位で行ってもよいし、1ピクチャ分の局所復号画像が入力された後に1ピクチャ分まとめて行ってもよい。
また、所定のフィルタリング処理の例としては、符号化ブロック境界の不連続性(ブロックノイズ)が目立たなくなるようにブロック境界をフィルタリングする処理、入力画像である図1の映像信号と局所復号画像との間の誤差が最小となるように局所復号画像の歪みを補償するフィルタ処理などが挙げられる。
ただし、入力画像である図1の映像信号と局所復号画像との間の誤差が最小となるように局所復号画像の歪みを補償するフィルタ処理を行う場合には、映像信号をループフィルタ部11で参照する必要があるため、ループフィルタ部11に映像信号を入力するように図1の動画像符号化装置を変更する必要がる。
図17は符号化ブロックBn内の各予測ブロックPi nが選択可能なイントラ予測パラメータ(イントラ予測モード)の一例を示す説明図である。ただし、NIはイントラ予測モード数を表している。
図17では、イントラ予測モードと、そのイントラ予測モードが示す予測方向ベクトルを示しており、図17の例では、選択可能なイントラ予測モードの個数が増えるに従って、予測方向ベクトル同士の相対角度が小さくなるように設計されている。
図8はli n=mi n=4の場合の予測ブロックPi n内の画素の予測値を生成する際に用いる画素の一例を示す説明図である。
図8では、予測ブロックPi nの上の符号化済みの画素(2×li n+1)個と、左の符号化済みの画素(2×mi n)個を予測に用いる画素としているが、予測に用いる画素は、図8に示す画素より多くても少なくてもよい。
また、図8では、予測ブロックPi nの近傍の1行又は1列分の画素を予測に用いているが、2行又は2列、あるいは、それ以上の画素を予測に用いてもよい。
ただし、座標(x,y)は予測ブロックPi n内の左上画素を原点とする相対座標(図9を参照)であり、S’(x,y)は座標(x,y)における予測値、S(x,y)は座標(x,y)における符号化済み画素の輝度値(復号された輝度値)である。
ただし、上記予測値が輝度値の取り得る値の範囲に収まっていない場合には、その範囲内に収まるように値を丸めるようにしてもよい。このようにすることで、丸め処理を行う分演算量が僅かに増加するものの、輝度値の取り得る値の範囲外となる予測値の発生を抑えて予測誤差を減少させることができる。
例えば、t=2x+1とすれば、図11に示すように、スケーリング値が左端の列から順に1/2,1/4,1/8,1/16というように小さくなっていくため、予測ブロックPinの左に隣接する符号化済み画素からの距離が離れるほど、加算する垂直方向の輝度値の変化量が小さくなる。
これにより、予測ブロックPi nの左に隣接する符号化済み画素との距離が離れて相関が低くなる予測対象画素ほど、予測ブロックPi nの左に隣接する符号化済み画素の影響を小さくすることができるため、予測ブロックPi nの左に隣接する符号化済み画素との相関に応じた高精度な予測を行うことができる。
また、t=2x+1の場合、式(1)を下記に示すようにビットシフトによる式で表現することができる。
式(1a)において、“>>a”は、右にaビットだけ算術シフトする演算を示している。
式(1)の除算の代わりにシフト演算を用いることで、コンピュータ上に実装する場合に高速な演算が可能になる。
ただし、S(-1,y)-S(-1,-1)は負値も取り得るため、実装環境(コンパイラ)等によっては“>>”が算術シフトでなく論理シフトとして扱われてしまい、計算結果が式(1)と異なってしまう場合がある。
そこで、実装環境に依存しないt=2x+1の場合の式(1)の近似式としては、下記の式(1b)が挙げられる。
式(1b)では、輝度値輝度値S(-1,y)、S(-1,-1)をそれぞれ先に(x+1)ビット右シフトしてから減算を行うため、輝度値を正値で定義すれば、算術シフト、論理シフト共に同一の計算結果が得られる。
ただし、座標(x,y)は予測ブロックPi n内の左上画素を原点とする相対座標(図9を参照)であり、S’(x,y)は座標(x,y)における予測値、S(x,y)は座標(x,y)における符号化済み画素の輝度値(復号された輝度値)である。
ただし、上記予測値が輝度値の取り得る値の範囲に収まっていない場合には、その範囲内に収まるように値を丸めるようにしてもよい。このようにすることで、丸め処理を行う分演算量が僅かに増加するものの、輝度値の取り得る値の範囲外となる予測値の発生を抑えて予測誤差を減少させることができる。
例えば、u=2y+1とすれば、図13に示すように、スケーリング値が上端の行から順に1/2,1/4,1/8,1/16というように小さくなっていくため、予測ブロックPinの上に隣接する符号化済み画素からの距離が離れるほど、加算する水平方向の輝度値の変化量が小さくなる。
これにより、予測ブロックPi nの上に隣接する符号化済み画素との距離が離れて相関が低くなる画素ほど、予測ブロックPi nの上に隣接する符号化済み画素の影響を小さくすることができるため、予測ブロックPi nの上に隣接する符号化済み画素との相関に応じた高精度な予測を行うことができる。
また、u=2y+1の場合、式(2)を下記に示すようにビットシフトによる式で表現することができる。
式(2a)において、“>>a”は、右にaビットだけ算術シフトする演算を示している。
式(2)の除算の代わりにシフト演算を用いることで、コンピュータ上に実装する場合に高速な演算が可能になる。
ただし、S(x,-1)-S(-1,-1)は負値も取り得るため、実装環境(コンパイラ)等によっては“>>”が算術シフトでなく論理シフトとして扱われてしまい、計算結果が式(2)と異なってしまう場合がある。
そこで、実装環境に依存しないu=2y+1の場合の式(2)の近似式としては、下記の式(2b)が挙げられる。
式(2b)では、輝度値輝度値S(x,-1)、S(-1,-1)をそれぞれ先に(y+1)ビット右シフトしてから減算を行うため、輝度値を正値で定義すれば、算術シフト、論理シフト共に同一の計算結果が得られる。
イントラ予測モードのインデックス値が0(平面(Planar)予測)、1(垂直方向予測)、2(水平方向予測)、3(平均値(DC)予測)以外の場合には、インデックス値が示す予測方向ベクトルυp=(dx,dy)に基づいて、予測ブロックPi n内の画素の予測値を生成する。
図9に示すように、予測ブロックPi nの左上画素を原点として、予測ブロックPi n内の相対座標を(x,y)と設定すると、予測に用いる参照画素の位置は、下記のLと隣接画素の交点になる。
ただし、kは負のスカラ値である。
図8の例では、参照画素は整数画素位置にないので、参照画素に隣接する2画素から内挿したものを予測値とする。なお、隣接する2画素のみではなく、隣接する2画素以上の画素から補間画素を生成して予測値としてもよい。
補間処理に用いる画素を多くすることで補間画素の補間精度を向上させる効果がある一方、補間処理に要する演算の複雑度が増加することから、演算負荷が大きくても高い符号化性能を要求する動画像符号化装置の場合には、より多くの画素から補間画素を生成するようにした方がよい。
同様の手順で、予測ブロックPi n内の輝度信号の全ての画素に対する予測画素を生成してイントラ予測画像PINTRAi nを出力する。
なお、イントラ予測画像PINTRAi nの生成に用いられたイントラ予測パラメータは、ビットストリームに多重化するために可変長符号化部13に出力される。
ただし、色差信号で選択可能なイントラ予測パラメータ(イントラ予測モード)は輝度信号と同じである必要はなく、また、垂直方向予測及び水平方向予測については従来(MPEG-4 AVC/H.264)の予測手法であってもよい。
例えば、YUV信号4:2:0フォーマットの場合、色差信号(U、V信号)は、輝度信号(Y信号)に対して解像度を水平方向、垂直方向共に1/2に縮小した信号であり、輝度信号に比べて画像信号の複雑性が低く予測が容易であることから、選択可能なイントラ予測パラメータ(イントラ予測モード)は輝度信号よりも少ない数とし、垂直方向予測及び水平方向予測についても従来の簡易な予測手法とすることで、予測効率をあまり低下させることなくイントラ予測パラメータ(イントラ予測モード)を符号化するのに要する符号量の削減や、予測処理の低演算化を実現することができる。
このようにシーケンス単位あるいはピクチャ単位に、t,uを適応制御できるようにすることで、より入力画像の映像信号の特性に応じた予測処理が実現できる。
このようにシーケンス単位あるいはピクチャ単位に、式(1)の垂直方向予測や式(2)の水平方向予測を用いるブロックサイズを適応制御できるようにすることで、より入力画像の映像信号の特性に応じた予測処理が実現できる。
可変長復号部31は、図1の動画像符号化装置により生成されたビットストリームを入力すると、そのビットストリームに対する可変長復号処理を実施して(図4のステップST21)、1フレーム以上のピクチャから構成されるシーケンス単位、あるいは、ピクチャ単位にフレームサイズの情報を復号する。
このとき、垂直方向予測で用いるスケーリング値のパラメータt、水平方向予測で用いるスケーリング値のパラメータu、式(1)の垂直方向予測や式(2)の水平方向予測を用いるブロックサイズを表すブロックサイズ毎のON/OFFフラグの内、いずれか1つでも可変長符号化されてビットストリームに多重化されている場合、図1の動画像符号化装置で符号化された単位(シーケンス単位、あるいは、ピクチャ単位)に復号する。
例えば、最大符号化ブロックサイズや分割階層数上限が映像信号の解像度に応じて決められた場合には、復号したフレームサイズ情報に基づいて、動画像符号化装置と同様の手順で最大符号化ブロックサイズを決定する。
最大符号化ブロックサイズ及び分割階層数上限が、動画像符号化装置側でビットストリームに多重化されている場合には、ビットストリームから復号した値を用いる。
以降、動画像復号装置では上記最大符号化ブロックサイズを最大復号ブロックサイズと呼び、最大符号化ブロックを最大復号ブロックと呼ぶ。
可変長復号部31は、決定された最大復号ブロック単位に、図6で示されるような最大復号ブロックの分割状態を復号する。復号された分割状態に基づき、階層的に復号ブロック(図1の動画像符号化装置の「符号化ブロック」に相当するブロック)を特定する(ステップST23)。
一方、復号ブロックに割り当てられている符号化モードがインター符号化モードである場合、復号ブロックに含まれており、予測処理単位となる1つ以上の予測ブロック毎にインター予測パラメータ及び動きベクトルを復号する(ステップST24)。
一方、可変長復号部31により可変長復号された符号化モードm(Bn)がインター符号化モードであれば(m(Bn)∈INTERの場合)、可変長復号部31により可変長復号された予測ブロック単位のインター予測パラメータ及び動きベクトルを動き補償部35に出力する。
即ち、イントラ予測部34は、予測ブロックPi nに対するイントラ予測モードのインデックス値が0(垂直方向予測)の場合には、上記の式(1)から予測ブロックPi n内の画素の予測値を算出して、イントラ予測画像PINTRAi nを生成する。
また、予測ブロックPi nに対するイントラ予測モードのインデックス値が1(水平方向予測)の場合には、上記の式(2)から予測ブロックPi n内の画素の予測値を算出して、イントラ予測画像PINTRAi nを生成する。
ただし、式(1)の垂直方向予測や式(2)の水平方向予測を用いるブロックサイズが制限されている場合は、式(1)の垂直方向予測や式(2)の水平方向予測を用いるブロックサイズ以外のサイズの予測ブロックPi nでは従来(MPEG-4 AVC/H.264)の垂直方向予測及や水平方向予測によってイントラ予測処理を行う。
この復号画像が、以降のイントラ予測処理の際に用いられる復号済みの画像信号になる。
なお、ループフィルタ部38によるフィルタリング処理は、入力される復号画像の最大復号ブロックあるいは個々の復号ブロック単位で行ってもよいし、1ピクチャ分の復号画像が入力された後に1ピクチャ分まとめて行ってもよい。
また、所定のフィルタリング処理の例としては、符号化ブロック境界の不連続性(ブロックノイズ)が目立たなくなるようにブロック境界をフィルタリングする処理、復号画像の歪みを補償するフィルタ処理などが挙げられる。
この復号画像が、動き補償予測用の参照画像となり、また、再生画像となる。
また、イントラ予測部4,34により垂直方向予測処理が実施される際に用いられるスケーリング値である1/tについては、予測ブロックの左に隣接している画素から距離が遠い列に係るスケーリング値ほど小さな値に設定されているように構成したので、予測ブロックの左に隣接している画素との距離が離れて、相関が低くなる画素ほど、予測ブロックの左に隣接している画素の影響を小さくすることができるようになり、その結果、高精度に予測することができる効果を奏する。
Claims (20)
- 符号化ブロックに対応する符号化モードとして、イントラ符号化モードが選択された場合、上記符号化ブロックの予測処理を行う際の予測処理単位となる予測ブロック毎に、上記イントラ符号化モードに対応するフレーム内予測処理を実施して予測画像を生成するイントラ予測手段を備え、
上記イントラ予測手段は、上記予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定し、
上記予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定することを特徴とする動画像符号化装置。 - 符号化処理が実施される際の処理単位となる符号化ブロックの最大サイズを決定するとともに、最大サイズの符号化ブロックが階層的に分割される際の上限の階層数を決定し、利用可能な1以上の符号化モードの中から、階層的に分割される各々の符号化ブロックに対応する符号化モードを選択する符号化制御手段と、入力画像を上記符号化制御手段により決定された最大サイズの符号化ブロックに分割するとともに、上記符号化制御手段により決定された上限の階層数に至るまで、上記符号化ブロックを階層的に分割するブロック分割手段と、上記ブロック分割手段により分割された符号化ブロックと上記イントラ予測手段により生成された予測画像との差分画像を生成する差分画像生成手段と、上記差分画像生成手段により生成された差分画像を圧縮し、上記差分画像の圧縮データを出力する画像圧縮手段と、上記画像圧縮手段から出力された圧縮データ及び上記符号化制御手段により選択された符号化モードを可変長符号化して、上記圧縮データ及び上記符号化モードの符号化データが多重化されたビットストリームを生成する可変長符号化手段とを備えていることを特徴とする請求項1記載の動画像符号化装置。
- ブロック分割手段により分割された符号化ブロックに対応する符号化モードとして、符号化制御手段によりインター符号化モードが選択された場合、符号化ブロックの予測処理を行う際の予測処理単位となる予測ブロック毎に、参照画像を用いて、当該予測ブロックに対する動き補償予測処理を実施して予測画像を生成する動き補償予測手段を設け、
差分画像生成手段は、上記ブロック分割手段により分割された符号化ブロックとイントラ予測手段又は上記動き補償予測手段により生成された予測画像との差分画像を生成することを特徴とする請求項2記載の動画像符号化装置。 - 符号化制御手段は、各々の符号化ブロック毎に、差分画像が圧縮される際に用いられる量子化パラメータ及び変換ブロックサイズを決定するとともに、予測処理が実施される際に用いられるイントラ予測パラメータ又はインター予測パラメータを当該符号化ブロックの予測ブロック毎に決定し、
画像圧縮手段は、上記符号化制御手段により決定された変換ブロックサイズ単位で、差分画像生成手段により生成された差分画像の変換処理を実施するとともに、上記符号化制御手段により決定された量子化パラメータを用いて、上記差分画像の変換係数を量子化して量子化後の変換係数を上記差分画像の圧縮データとして出力し、
可変長符号化手段は、上記画像圧縮手段から出力された圧縮データ及び上記符号化制御手段により選択された符号化モードを可変長符号化する際、上記符号化制御手段により決定されたイントラ予測パラメータ又はインター予測パラメータと、量子化パラメータ及び変換ブロックサイズとを可変長符号化して、上記圧縮データ、上記符号化モード、上記イントラ予測パラメータ又は上記インター予測パラメータ、上記量子化パラメータ及び上記変換ブロックサイズの符号化データが多重化されたビットストリームを生成することを特徴とする請求項3記載の動画像符号化装置。 - イントラ予測手段は、予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に上記予測ブロックの行毎に設定されているスケーリング値が乗算された値を加算して、その加算後の値を上記予測画像の予測値に決定し、
上記予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に上記予測ブロックの列毎に設定されているスケーリング値が乗算された値を加算して、その加算後の値を上記予測画像の予測値に決定することを特徴とする請求項1記載の動画像符号化装置。 - イントラ予測手段により水平方向予測処理が実施される際に用いられるスケーリング値については、上記予測ブロックの上に隣接している画素からの距離が遠い行に係るスケーリング値ほど小さな値に設定され、上記イントラ予測手段により垂直方向予測処理が実施される際に用いられるスケーリング値については、上記予測ブロックの左に隣接している画素からの距離が遠い列に係るスケーリング値ほど小さな値に設定されていることを特徴とする請求項5記載の動画像符号化装置。
- イントラ予測手段は、予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、上記予測ブロック内の上端から所定の行数内の行については、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定するが、上記予測ブロック内の残りの行については、上記予測ブロックの左に隣接している画素の輝度値を上記予測画像の予測値に決定し、
上記予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、上記予測ブロック内の左端から所定の列数内の列については、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定するが、上記予測ブロック内の残りの列については、上記予測ブロックの上に隣接している画素の輝度値を上記予測画像の予測値に決定することを特徴とする請求項1記載の動画像符号化装置。 - 可変長符号化手段は、上記予測ブロックの行毎に設定されているスケーリング値及び上記予測ブロックの列毎に設定されているスケーリング値を可変長符号化して、上記スケーリング値、圧縮データ及び符号化モードの符号化データが多重化されたビットストリームを生成することを特徴とする請求項5記載の動画像符号化装置。
- 可変長符号化手段は、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算した値を予測値とする予測ブロック内の行を特定するブロック内情報、又は、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算した値を予測値とする予測ブロック内の列を特定するブロック内情報を可変長符号化し、上記ブロック内情報、圧縮データ及び符号化モードの符号化データが多重化されたビットストリームを生成することを特徴とする請求項7記載の動画像符号化装置。
- 可変長復号された符号化ブロックに係る符号化モードがイントラ符号化モードである場合、上記符号化ブロックの予測処理を行う際の予測処理単位となる予測ブロック毎に、上記イントラ符号化モードに対応するフレーム内予測処理を実施して予測画像を生成するイントラ予測手段を備え、
上記イントラ予測手段は、上記予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定し、
上記予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定することを特徴とする動画像復号装置。 - ビットストリームに多重化された符号化データから階層的に分割された各々の符号化ブロックに係る圧縮データ及び符号化モードを可変長復号する可変長復号手段と、上記可変長復号手段により可変長復号された符号化ブロックに係る圧縮データから圧縮前の差分画像を生成する差分画像生成手段と、上記差分画像生成手段により生成された差分画像と上記イントラ予測手段により生成された予測画像とを加算して復号画像を生成する復号画像生成手段とを備えていることを特徴とする請求項10記載の動画像復号装置。
- 可変長復号手段により可変長復号された符号化ブロックに係る符号化モードがインター符号化モードである場合、符号化ブロックの予測処理を行う際の予測処理単位となる予測ブロック毎に、参照画像を用いて、当該予測ブロックに対する動き補償予測処理を実施して予測画像を生成する動き補償予測手段を設け、
復号画像生成手段は、差分画像生成手段により生成された差分画像とイントラ予測手段又は上記動き補償予測手段により生成された予測画像とを加算して復号画像を生成することを特徴とする請求項11記載の動画像復号装置。 - 可変長復号手段は、ビットストリームに多重化された符号化データから各々の符号化ブロックに係る圧縮データ、符号化モード、イントラ予測パラメータ又はインター予測パラメータ、量子化パラメータ及び変換ブロックサイズを可変長復号し、
差分画像生成手段は、上記可変長復号手段により可変長復号された符号化ブロックに係る量子化パラメータを用いて、当該符号化ブロックに係る圧縮データを逆量子化し、上記変換ブロックサイズ単位で、逆量子化後の圧縮データの逆変換処理を実施することで、圧縮前の差分画像を生成することを特徴とする請求項12記載の動画像復号装置。 - イントラ予測手段は、予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に上記予測ブロックの行毎に設定されているスケーリング値が乗算された値を加算して、その加算後の値を上記予測画像の予測値に決定し、
上記予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に上記予測ブロックの列毎に設定されているスケーリング値が乗算された値を加算して、その加算後の値を上記予測画像の予測値に決定することを特徴とする請求項10記載の動画像復号装置。 - イントラ予測手段により水平方向予測処理が実施される際に用いられるスケーリング値については、上記予測ブロックの上に隣接している画素から距離が遠い行に係るスケーリング値ほど小さな値に設定され、上記イントラ予測手段により垂直方向予測処理が実施される際に用いられるスケーリング値については、上記予測ブロックの左に隣接している画素から距離が遠い列に係るスケーリング値ほど小さな値に設定されていることを特徴とする請求項14記載の動画像復号装置。
- イントラ予測手段は、予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、上記予測ブロック内の上端から所定の行数内の行については、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定するが、上記予測ブロック内の残りの行については、上記予測ブロックの左に隣接している画素の輝度値を上記予測画像の予測値に決定し、
上記予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、上記予測ブロック内の左端から所定の列数内の列については、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定するが、上記予測ブロック内の残りの列については、上記予測ブロックの上に隣接している画素の輝度値を上記予測画像の予測値に決定することを特徴とする請求項10記載の動画像復号装置。 - 可変長復号手段は、ビットストリームに多重化された符号化データから符号化ブロックに係る圧縮データ及び符号化モードを可変長復号する際、上記予測ブロックの行毎に設定されているスケーリング値及び上記予測ブロックの列毎に設定されているスケーリング値を可変長復号することを特徴とする請求項14記載の動画像復号装置。
- 可変長復号手段は、ビットストリームに多重化された符号化データから符号化ブロックに係る圧縮データ及び符号化モードを可変長復号する際、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算した値を予測値とする予測ブロック内の行を特定するブロック内情報、又は、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算した値を予測値とする予測ブロック内の列を特定するブロック内情報を可変長復号することを特徴とする請求項16記載の動画像復号装置。
- イントラ予測手段が、符号化ブロックに対応する符号化モードとして、イントラ符号化モードが選択された場合、上記符号化ブロックの予測処理を行う際の予測処理単位となる予測ブロック毎に、上記イントラ符号化モードに対応するフレーム内予測処理を実施して予測画像を生成するイントラ予測処理ステップを備え、
上記イントラ予測処理ステップでは、上記予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定し、
上記予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定することを特徴とする動画像符号化方法。 - イントラ予測手段が、可変長復号された符号化ブロックに係る符号化モードがイントラ符号化モードである場合、上記符号化ブロックの予測処理を行う際の予測処理単位となる予測ブロック毎に、上記イントラ符号化モードに対応するフレーム内予測処理を実施して予測画像を生成するイントラ予測処理ステップを備え、
上記イントラ予測処理ステップでは、上記予測画像を生成する際のフレーム内予測処理が水平方向予測処理である場合、上記予測ブロックの左に隣接している画素の輝度値に対して、上記予測ブロックの上に隣接している画素の水平方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定し、
上記予測画像を生成する際のフレーム内予測処理が垂直方向予測処理である場合、上記予測ブロックの上に隣接している画素の輝度値に対して、上記予測ブロックの左に隣接している画素の垂直方向の輝度値変化量に比例する値を加算して、その加算後の値を上記予測画像の予測値に決定することを特徴とする動画像復号方法。
Priority Applications (32)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP23188026.1A EP4254952B1 (en) | 2011-06-24 | 2012-05-30 | Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method, and moving image decoding method |
| RU2014102221/07A RU2547457C1 (ru) | 2011-06-24 | 2012-05-30 | Устройство кодирования изображений, устройство декодирования изображений, способ кодирования изображений, способ декодирования изображений и устройство прогнозирования изображений |
| CN201280021843.9A CN103503457B (zh) | 2011-06-24 | 2012-05-30 | 图像编码装置、图像解码装置、图像编码方法以及图像解码方法 |
| CA2833902A CA2833902C (en) | 2011-06-24 | 2012-05-30 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| MX2016017363A MX375635B (es) | 2011-06-24 | 2012-05-30 | Dispositivo de codificación de imagen, dispositivo de decodificación de imagen, método de codificación de imagen, método de decodificación de imagen, y dispositivo de predicción de imagen. |
| EP12801936.1A EP2725795B1 (en) | 2011-06-24 | 2012-05-30 | Image encoding device, image decoding device, image encoding method, image decoding method |
| KR1020157012669A KR101821867B1 (ko) | 2011-06-24 | 2012-05-30 | 화상 복호 장치, 화상 복호 방법, 화상 부호화 장치, 화상 부호화 방법 및 기록 매체 |
| KR1020177031523A KR101895744B1 (ko) | 2011-06-24 | 2012-05-30 | 화상 복호 장치, 화상 부호화 장치, 화상 복호 방법, 화상 부호화 방법, 및 부호화 데이터의 데이터 구조를 기록한 기록 매체 |
| JP2013521419A JP5389297B2 (ja) | 2011-06-24 | 2012-05-30 | 画像復号装置及び画像復号方法 |
| EP23188324.0A EP4266683B1 (en) | 2011-06-24 | 2012-05-30 | Moving image encoding apparatus, moving image decoding apparatus |
| KR1020167027099A KR101795332B1 (ko) | 2011-06-24 | 2012-05-30 | 화상 복호 장치, 화상 부호화 장치, 화상 복호 방법, 화상 부호화 방법, 및 부호화 데이터의 데이터 구조를 기록한 기록 매체 |
| KR1020187025002A KR20180099950A (ko) | 2011-06-24 | 2012-05-30 | 화상 복호 장치, 화상 부호화 장치, 화상 복호 방법, 화상 부호화 방법, 및 부호화 데이터의 데이터 구조를 기록한 기록 매체 |
| KR1020147018589A KR101921781B1 (ko) | 2011-06-24 | 2012-05-30 | 화상 복호 장치, 화상 부호화 장치, 화상 복호 방법, 화상 부호화 방법, 및 부호화 데이터의 데이터 구조를 기록한 기록 매체 |
| EP21160216.4A EP3849187B1 (en) | 2011-06-24 | 2012-05-30 | Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method |
| US14/114,567 US9723316B2 (en) | 2011-06-24 | 2012-05-30 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| EP21160199.2A EP3849186B1 (en) | 2011-06-24 | 2012-05-30 | Moving image encoding apparatus, moving image decoding apparatus, moving image encoding method and moving image decoding method |
| ES12801936T ES2869201T3 (es) | 2011-06-24 | 2012-05-30 | Dispositivo de codificación de imágenes, dispositivo de decodificación de imágenes, método de codificación de imágenes, método de decodificación de imágenes |
| BR112013031133-9A BR112013031133B1 (pt) | 2011-06-24 | 2012-05-30 | Dispositivos e métodos de decodificação e de codificação de imagem, e, meio legível por computador não transitório |
| EP14182010.0A EP2824926B1 (en) | 2011-06-24 | 2012-05-30 | Image encoding device, image decoding device, image encoding method, image decoding method |
| KR1020137031464A KR101565228B1 (ko) | 2011-06-24 | 2012-05-30 | 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법, 화상 복호 방법 및 화상 예측 장치 |
| MX2016003959A MX347117B (es) | 2011-06-24 | 2012-05-30 | Dispositivo de codificación de imagen, dispositivo de decodificación de imagen, método de codificacion de imagen, metodo de decodificación de imagen, y dispositivo de predicción de imagen. |
| MX2013014581A MX343503B (es) | 2011-06-24 | 2012-05-30 | Dispositivo de codificacion de imagen, dispositivo de decodificacion de imagen, metodo de codificacion de imagen, metodo de decodificacion de imagen, y dispositivo de prediccion de imagen. |
| TW105142414A TWI600317B (zh) | 2011-06-24 | 2012-06-05 | Image decoding apparatus, picture decoding method, picture encoding apparatus, picture encoding method, and data structure of encoded data |
| TW105142413A TWI643494B (zh) | 2011-06-24 | 2012-06-05 | 畫像解碼裝置、畫像解碼方法、畫像編碼裝置、畫像編碼方法以及編碼資料的資料構造 |
| TW104132493A TWI571112B (zh) | 2011-06-24 | 2012-06-05 | A portrait coding apparatus, a picture decoding apparatus, a portrait coding method, and a picture decoding method |
| TW101120068A TWI508566B (zh) | 2011-06-24 | 2012-06-05 | Animation coding apparatus, moving picture decoding apparatus, moving picture coding method, and moving picture decoding method |
| TW105142416A TWI645717B (zh) | 2011-06-24 | 2012-06-05 | 畫像解碼裝置、畫像解碼方法、畫像編碼裝置、畫像編碼方法以及編碼資料的資料構造 |
| US15/634,360 US10237560B2 (en) | 2011-06-24 | 2017-06-27 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US16/054,640 US10511840B2 (en) | 2011-06-24 | 2018-08-03 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US16/657,410 US11006125B2 (en) | 2011-06-24 | 2019-10-18 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US17/224,937 US11632556B2 (en) | 2011-06-24 | 2021-04-07 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US18/114,034 US11876979B2 (en) | 2011-06-24 | 2023-02-24 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011-140598 | 2011-06-24 | ||
| JP2011140598 | 2011-06-24 | ||
| JP2012009115 | 2012-01-19 | ||
| JP2012-009115 | 2012-01-19 |
Related Child Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US14/114,567 A-371-Of-International US9723316B2 (en) | 2011-06-24 | 2012-05-30 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US15/634,360 Division US10237560B2 (en) | 2011-06-24 | 2017-06-27 | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2012176381A1 true WO2012176381A1 (ja) | 2012-12-27 |
Family
ID=47422246
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2012/003555 Ceased WO2012176381A1 (ja) | 2011-06-24 | 2012-05-30 | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 |
Country Status (14)
| Country | Link |
|---|---|
| US (6) | US9723316B2 (ja) |
| EP (6) | EP2725795B1 (ja) |
| JP (6) | JP5389297B2 (ja) |
| KR (6) | KR101821867B1 (ja) |
| CN (5) | CN106658013B (ja) |
| BR (1) | BR112013031133B1 (ja) |
| CA (5) | CA3208227A1 (ja) |
| ES (6) | ES2869201T3 (ja) |
| MX (4) | MX375635B (ja) |
| PL (4) | PL3849187T3 (ja) |
| RU (5) | RU2547457C1 (ja) |
| SG (5) | SG10201902274SA (ja) |
| TW (5) | TWI508566B (ja) |
| WO (1) | WO2012176381A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014003721A (ja) * | 2011-06-24 | 2014-01-09 | Mitsubishi Electric Corp | 画像復号装置及び画像復号方法 |
| JP2014519768A (ja) * | 2011-06-20 | 2014-08-14 | メディア テック シンガポール ピーティーイー.リミテッド | 方向性イントラ予測の方法及び装置 |
| JP2015507904A (ja) * | 2012-01-18 | 2015-03-12 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 映像復号化装置 |
| JP7097192B2 (ja) | 2011-06-20 | 2022-07-07 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | 映像符号化/復号化方法及びその装置 |
Families Citing this family (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101474756B1 (ko) | 2009-08-13 | 2014-12-19 | 삼성전자주식회사 | 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치 |
| EP2672452B1 (en) | 2012-02-23 | 2017-12-27 | Square Enix Holdings Co., Ltd. | Moving image distribution server, moving image playback device, control method, program, and recording medium |
| CA2828359C (en) | 2012-04-12 | 2016-05-24 | Square Enix Holdings Co., Ltd. | Moving image distribution server, moving image reproduction apparatus, control method, and recording medium |
| CN107005707A (zh) * | 2014-10-31 | 2017-08-01 | 三星电子株式会社 | 用于对图像进行编码或解码的方法和装置 |
| WO2016072777A1 (ko) * | 2014-11-06 | 2016-05-12 | 삼성전자 주식회사 | 인트라 결합 예측 부호화, 복호화 방법 및 장치 |
| CN106331722B (zh) | 2015-07-03 | 2019-04-26 | 华为技术有限公司 | 图像预测方法和相关设备 |
| US9743092B2 (en) * | 2015-10-13 | 2017-08-22 | Nokia Technologies Oy | Video coding with helper data for spatial intra-prediction |
| EP3301915A1 (en) * | 2016-09-30 | 2018-04-04 | Thomson Licensing | Method and apparatus for omnidirectional video coding with adaptive intra most probable modes |
| WO2018066980A1 (ko) * | 2016-10-04 | 2018-04-12 | 김기백 | 영상 데이터 부호화/복호화 방법 및 장치 |
| US10542275B2 (en) * | 2016-12-28 | 2020-01-21 | Arris Enterprises Llc | Video bitstream coding |
| WO2018229327A1 (en) * | 2017-06-16 | 2018-12-20 | Nokia Technologies Oy | A method and an apparatus and a computer program product for video encoding and decoding |
| CN116248866B (zh) * | 2017-07-03 | 2025-06-10 | 汉阳大学校产学协力团 | 利用包含追加区域的分割单位的影像解码方法以及装置 |
| JP2019041165A (ja) * | 2017-08-23 | 2019-03-14 | 富士通株式会社 | 画像符号化装置、画像復号装置、画像処理方法、及び画像処理プログラム |
| KR102694426B1 (ko) * | 2017-12-08 | 2024-08-13 | 파나소닉 인텔렉츄얼 프로퍼티 코포레이션 오브 아메리카 | 이미지 인코딩 장치, 이미지 디코딩 장치, 이미지 인코딩 방법 및 이미지 디코딩 방법 |
| EP3815359B1 (en) * | 2018-06-27 | 2024-10-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Contour mode prediction |
| CN114175650A (zh) * | 2019-07-26 | 2022-03-11 | 北京字节跳动网络技术有限公司 | 视频编解码中的变换尺寸和编解码树单元尺寸的相互依赖 |
| HUE070959T2 (hu) | 2019-07-26 | 2025-07-28 | Beijing Bytedance Network Tech Co Ltd | Videókódolási mód blokkméretfüggõ felhasználása |
| WO2021054868A1 (en) * | 2019-09-20 | 2021-03-25 | Huawei Technologies Co., Ltd. | Method and apparatus for intra prediction |
| US12212761B2 (en) * | 2023-02-08 | 2025-01-28 | Realtek Semiconductor Corp. | Encoder and associated signal processing method |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH099265A (ja) * | 1995-06-22 | 1997-01-10 | Canon Inc | 画像符号化装置及び方法 |
| JP2006352181A (ja) * | 2005-02-18 | 2006-12-28 | Hitachi Ltd | 画像の符号化/復号化装置、符号化/復号化プログラム及び符号化/復号化方法 |
| WO2009051091A1 (ja) * | 2007-10-15 | 2009-04-23 | Nippon Telegraph And Telephone Corporation | 画像符号化装置及び復号装置、画像符号化方法及び復号方法、それらのプログラム並びにプログラムを記録した記録媒体 |
Family Cites Families (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE69631999T2 (de) | 1995-06-22 | 2004-09-02 | Canon K.K. | Bildverarbeitungsgerät und Verfahren |
| RU2314656C2 (ru) * | 2002-06-11 | 2008-01-10 | Нокиа Корпорейшн | Внутреннее кодирование, основанное на пространственном прогнозировании |
| JP4617644B2 (ja) * | 2003-07-18 | 2011-01-26 | ソニー株式会社 | 符号化装置及び方法 |
| EP1687985A4 (en) * | 2003-08-25 | 2011-10-12 | Agency Science Tech & Res | MODUS DECISION FOR INTER-PREDICTION IN VIDEO CODING |
| JP4310697B2 (ja) * | 2004-04-20 | 2009-08-12 | ソニー株式会社 | 信号処理装置および方法、記録媒体、並びにプログラム |
| WO2005107267A1 (ja) * | 2004-04-28 | 2005-11-10 | Hitachi, Ltd. | 画像の符号化/復号化装置、符号化/復号化プログラム及び符号化/復号化方法 |
| KR100813958B1 (ko) * | 2004-06-07 | 2008-03-14 | 세종대학교산학협력단 | 동영상의 무손실 인코딩 및 디코딩 방법, 그 장치 |
| JP2006157481A (ja) * | 2004-11-30 | 2006-06-15 | Canon Inc | 画像符号化装置及びその方法 |
| KR100679031B1 (ko) * | 2004-12-03 | 2007-02-05 | 삼성전자주식회사 | 다 계층 기반의 비디오 인코딩 방법, 디코딩 방법 및 상기방법을 이용한 장치 |
| JP2006254232A (ja) * | 2005-03-11 | 2006-09-21 | Toshiba Corp | 情報処理装置およびプログラム |
| JP4600315B2 (ja) * | 2006-03-01 | 2010-12-15 | ソニー株式会社 | カメラ装置の制御方法及びこれを用いたカメラ装置 |
| CN101449585A (zh) * | 2006-03-30 | 2009-06-03 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
| US8270490B2 (en) * | 2006-07-06 | 2012-09-18 | Canon Kabushiki Kaisha | Motion vector detection apparatus, motion vector detection method, image encoding apparatus, image encoding method, and computer program |
| FR2908007A1 (fr) * | 2006-10-31 | 2008-05-02 | Thomson Licensing Sas | Procede de codage d'une sequence d'images |
| JP4707118B2 (ja) * | 2007-03-28 | 2011-06-22 | 株式会社Kddi研究所 | 動画像符号化装置および動画像復号装置のイントラ予測方式 |
| US8145002B2 (en) * | 2007-06-28 | 2012-03-27 | Mitsubishi Electric Corporation | Image encoding device and image encoding method |
| CN103338366B (zh) | 2007-06-29 | 2016-08-24 | 夏普株式会社 | 图像编码装置、图像编码方法、图像译码装置、图像译码方法 |
| JP5417342B2 (ja) * | 2007-12-21 | 2014-02-12 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | ビデオ符号化に対する改善された画素予測 |
| CN101217669A (zh) * | 2008-01-15 | 2008-07-09 | 北京中星微电子有限公司 | 帧内预测方法及装置 |
| KR101291196B1 (ko) * | 2008-01-25 | 2013-07-31 | 삼성전자주식회사 | 영상의 부호화, 복호화 방법 및 장치 |
| US9277244B2 (en) | 2008-05-07 | 2016-03-01 | Lg Electronics Inc. | Decoding a video signal using intra-prediction mode information |
| KR101379187B1 (ko) * | 2008-06-23 | 2014-04-15 | 에스케이 텔레콤주식회사 | 블록 변환을 이용한 인트라 예측 방법 및 장치와 그를이용한 영상 부호화/복호화 방법 및 장치 |
| WO2010102935A1 (en) * | 2009-03-09 | 2010-09-16 | Thomson Licensing | Estimation of the prediction mode for the intra coding mode |
| CN101600116A (zh) * | 2009-03-11 | 2009-12-09 | 北京中星微电子有限公司 | 一种帧内预测方法及装置 |
| CN101964906B (zh) * | 2009-07-22 | 2012-07-04 | 北京工业大学 | 基于纹理特性的快速帧内预测方法和装置 |
| KR101452860B1 (ko) * | 2009-08-17 | 2014-10-23 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치 |
| EA201691822A1 (ru) | 2009-10-20 | 2017-05-31 | Шарп Кабусики Кайся | Устройство кодирования движущихся изображений, устройство декодирования движущихся изображений, система кодирования/декодирования движущихся изображений, способ кодирования движущихся изображений и способ декодирования движущихся изображений |
| KR101487687B1 (ko) * | 2010-01-14 | 2015-01-29 | 삼성전자주식회사 | 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치 |
| KR101503269B1 (ko) * | 2010-04-05 | 2015-03-17 | 삼성전자주식회사 | 영상 부호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치, 및 영상 복호화 단위에 대한 인트라 예측 모드 결정 방법 및 장치 |
| CN101895755B (zh) * | 2010-07-20 | 2012-10-03 | 杭州电子科技大学 | 一种快速4x4块帧内预测模式选择方法 |
| CN101895761B (zh) * | 2010-07-29 | 2013-01-23 | 江苏大学 | 一种快速帧内预测算法 |
| JP5503747B2 (ja) | 2010-09-30 | 2014-05-28 | 三菱電機株式会社 | 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 |
| CA2823503C (en) | 2011-01-12 | 2019-03-19 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, and image decoding method |
| EP3678373A1 (en) | 2011-06-20 | 2020-07-08 | HFI Innovation Inc. | Method and apparatus of directional intra prediction |
| MX375635B (es) | 2011-06-24 | 2025-03-06 | Mitsubishi Electric Corp | Dispositivo de codificación de imagen, dispositivo de decodificación de imagen, método de codificación de imagen, método de decodificación de imagen, y dispositivo de predicción de imagen. |
-
2012
- 2012-05-30 MX MX2016017363A patent/MX375635B/es unknown
- 2012-05-30 KR KR1020157012669A patent/KR101821867B1/ko active Active
- 2012-05-30 ES ES12801936T patent/ES2869201T3/es active Active
- 2012-05-30 WO PCT/JP2012/003555 patent/WO2012176381A1/ja not_active Ceased
- 2012-05-30 KR KR1020147018589A patent/KR101921781B1/ko active Active
- 2012-05-30 PL PL21160216.4T patent/PL3849187T3/pl unknown
- 2012-05-30 PL PL23188324.0T patent/PL4266683T3/pl unknown
- 2012-05-30 CN CN201710030191.XA patent/CN106658013B/zh active Active
- 2012-05-30 CA CA3208227A patent/CA3208227A1/en active Pending
- 2012-05-30 CN CN201710029710.0A patent/CN106791880B/zh active Active
- 2012-05-30 MX MX2013014581A patent/MX343503B/es active IP Right Grant
- 2012-05-30 EP EP12801936.1A patent/EP2725795B1/en active Active
- 2012-05-30 ES ES23188026T patent/ES3017764T3/es active Active
- 2012-05-30 KR KR1020167027099A patent/KR101795332B1/ko active Active
- 2012-05-30 ES ES23188324T patent/ES3016638T3/es active Active
- 2012-05-30 ES ES14182010T patent/ES2869204T3/es active Active
- 2012-05-30 KR KR1020187025002A patent/KR20180099950A/ko not_active Withdrawn
- 2012-05-30 CN CN201710030192.4A patent/CN106507109B/zh active Active
- 2012-05-30 ES ES21160199T patent/ES2961890T3/es active Active
- 2012-05-30 KR KR1020177031523A patent/KR101895744B1/ko active Active
- 2012-05-30 EP EP21160216.4A patent/EP3849187B1/en active Active
- 2012-05-30 RU RU2014102221/07A patent/RU2547457C1/ru active
- 2012-05-30 SG SG10201902274SA patent/SG10201902274SA/en unknown
- 2012-05-30 JP JP2013521419A patent/JP5389297B2/ja active Active
- 2012-05-30 KR KR1020137031464A patent/KR101565228B1/ko active Active
- 2012-05-30 EP EP23188026.1A patent/EP4254952B1/en active Active
- 2012-05-30 BR BR112013031133-9A patent/BR112013031133B1/pt active IP Right Grant
- 2012-05-30 CA CA3073053A patent/CA3073053C/en active Active
- 2012-05-30 CN CN201710029724.2A patent/CN106686382B/zh active Active
- 2012-05-30 SG SG10201406891TA patent/SG10201406891TA/en unknown
- 2012-05-30 CA CA3128548A patent/CA3128548C/en active Active
- 2012-05-30 US US14/114,567 patent/US9723316B2/en active Active
- 2012-05-30 SG SG10202011514QA patent/SG10202011514QA/en unknown
- 2012-05-30 CA CA2833902A patent/CA2833902C/en active Active
- 2012-05-30 PL PL21160199.2T patent/PL3849186T3/pl unknown
- 2012-05-30 PL PL23188026.1T patent/PL4254952T3/pl unknown
- 2012-05-30 CA CA3011659A patent/CA3011659C/en active Active
- 2012-05-30 EP EP14182010.0A patent/EP2824926B1/en active Active
- 2012-05-30 EP EP23188324.0A patent/EP4266683B1/en active Active
- 2012-05-30 EP EP21160199.2A patent/EP3849186B1/en active Active
- 2012-05-30 ES ES21160216T patent/ES2961936T3/es active Active
- 2012-05-30 SG SG10201902297VA patent/SG10201902297VA/en unknown
- 2012-05-30 SG SG10201902300VA patent/SG10201902300VA/en unknown
- 2012-05-30 CN CN201280021843.9A patent/CN103503457B/zh not_active Expired - Fee Related
- 2012-05-30 MX MX2016003959A patent/MX347117B/es unknown
- 2012-06-05 TW TW101120068A patent/TWI508566B/zh active
- 2012-06-05 TW TW105142413A patent/TWI643494B/zh active
- 2012-06-05 TW TW104132493A patent/TWI571112B/zh active
- 2012-06-05 TW TW105142416A patent/TWI645717B/zh active
- 2012-06-05 TW TW105142414A patent/TWI600317B/zh active
-
2013
- 2013-10-08 JP JP2013211099A patent/JP5752204B2/ja active Active
- 2013-12-10 MX MX2020010376A patent/MX2020010376A/es unknown
- 2013-12-27 JP JP2013271883A patent/JP5744168B2/ja active Active
-
2014
- 2014-04-28 JP JP2014092779A patent/JP5762596B2/ja active Active
- 2014-10-24 RU RU2014143010A patent/RU2678497C2/ru active
-
2015
- 2015-04-28 JP JP2015091172A patent/JP5992070B2/ja active Active
-
2016
- 2016-06-23 JP JP2016124445A patent/JP6261660B2/ja active Active
-
2017
- 2017-06-27 US US15/634,360 patent/US10237560B2/en active Active
-
2018
- 2018-08-03 US US16/054,640 patent/US10511840B2/en active Active
-
2019
- 2019-01-15 RU RU2019100700A patent/RU2700396C1/ru active
- 2019-01-15 RU RU2019100699A patent/RU2699411C1/ru active
- 2019-01-15 RU RU2019100698A patent/RU2699256C1/ru active
- 2019-10-18 US US16/657,410 patent/US11006125B2/en active Active
-
2021
- 2021-04-07 US US17/224,937 patent/US11632556B2/en active Active
-
2023
- 2023-02-24 US US18/114,034 patent/US11876979B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH099265A (ja) * | 1995-06-22 | 1997-01-10 | Canon Inc | 画像符号化装置及び方法 |
| JP2006352181A (ja) * | 2005-02-18 | 2006-12-28 | Hitachi Ltd | 画像の符号化/復号化装置、符号化/復号化プログラム及び符号化/復号化方法 |
| WO2009051091A1 (ja) * | 2007-10-15 | 2009-04-23 | Nippon Telegraph And Telephone Corporation | 画像符号化装置及び復号装置、画像符号化方法及び復号方法、それらのプログラム並びにプログラムを記録した記録媒体 |
Non-Patent Citations (1)
| Title |
|---|
| AKIRA MINEZAWA ET AL.: "An improved intra vertical and horizontal prediction", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 6TH MEETING, 14 July 2011 (2011-07-14), TORINO, IT, XP030009195 * |
Cited By (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014519768A (ja) * | 2011-06-20 | 2014-08-14 | メディア テック シンガポール ピーティーイー.リミテッド | 方向性イントラ予測の方法及び装置 |
| JP7097192B2 (ja) | 2011-06-20 | 2022-07-07 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | 映像符号化/復号化方法及びその装置 |
| US9723316B2 (en) | 2011-06-24 | 2017-08-01 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US11876979B2 (en) | 2011-06-24 | 2024-01-16 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US11632556B2 (en) | 2011-06-24 | 2023-04-18 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| JP2014003721A (ja) * | 2011-06-24 | 2014-01-09 | Mitsubishi Electric Corp | 画像復号装置及び画像復号方法 |
| US11006125B2 (en) | 2011-06-24 | 2021-05-11 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US10511840B2 (en) | 2011-06-24 | 2019-12-17 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US10237560B2 (en) | 2011-06-24 | 2019-03-19 | Mitsubishi Electric Corporation | Image encoding device, image decoding device, image encoding method, image decoding method, and image prediction device |
| US9621913B2 (en) | 2012-01-18 | 2017-04-11 | Electronics And Telecommunications Research Institute | Method and device for generating a prediction block to encode and decode an image |
| JP2017139771A (ja) * | 2012-01-18 | 2017-08-10 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 映像符号化及び復号化方法及び装置 |
| US9807412B2 (en) | 2012-01-18 | 2017-10-31 | Electronics And Telecommunications Research Institute | Method and device for encoding and decoding image |
| US9635380B2 (en) | 2012-01-18 | 2017-04-25 | Electronics And Telecommunications Research Institute | Method and device for generating a prediction block to encode and decode an image |
| US9635379B2 (en) | 2012-01-18 | 2017-04-25 | Electronics And Telecommunications Research Institute | Method and device for generating a prediction block to encode and decode an image |
| US9621912B2 (en) | 2012-01-18 | 2017-04-11 | Electronics And Telecommunications Research Institute | Method and device for generating a prediction block to encode and decode an image |
| US9374595B2 (en) | 2012-01-18 | 2016-06-21 | Electronics And Telecommunications Research Institute | Method and device for generating a prediction block to encode and decode an image |
| EP2806635A4 (en) * | 2012-01-18 | 2015-12-02 | Korea Electronics Telecomm | METHOD AND DEVICE FOR ENCODING AND DECODING AN IMAGE |
| US11706438B2 (en) | 2012-01-18 | 2023-07-18 | Electronics And Telecommunications Research Institute | Method and device for encoding and decoding image |
| JP2015507904A (ja) * | 2012-01-18 | 2015-03-12 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 映像復号化装置 |
| US12003752B2 (en) | 2012-01-18 | 2024-06-04 | Electronics And Telecommunications Research Institute | Method and device for encoding and decoding image |
| US12206887B2 (en) | 2012-01-18 | 2025-01-21 | Electronics And Telecommunications Research Institute | Method and device for encoding and decoding image |
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6261660B2 (ja) | 画像符号化装置、画像復号装置、画像符号化方法及び画像復号方法 | |
| WO2013065402A1 (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
| WO2014163200A1 (ja) | カラー画像符号化装置、カラー画像復号装置、カラー画像符号化方法及びカラー画像復号方法 | |
| WO2012081162A1 (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
| JP2014090326A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
| JP2014090327A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
| JP2013098713A (ja) | 動画像符号化装置、動画像復号装置、動画像符号化方法及び動画像復号方法 | |
| HK1234556A (en) | Image encoding device and method, image decoding device and method and storage medium | |
| HK1234556A1 (en) | Image encoding device and method, image decoding device and method and storage medium | |
| HK1234555A (en) | Image encoding device and method, image decoding device and method and storage medium | |
| HK1234555A1 (en) | Image encoding device and method, image decoding device and method and storage medium | |
| HK1234554A1 (en) | Image encoding device and method, image decoding device and method and storage medium | |
| HK1234554A (en) | Image encoding device and method, image decoding device and method and storage medium | |
| HK1232359B (zh) | 图像编码装置和方法、图像解码装置和方法以及记录介质 | |
| HK1190257B (en) | Image encoding apparatus, image decoding apparatus, image encoding method and image decoding method | |
| HK1234555B (zh) | 图像编码装置和方法、图像解码装置和方法以及记录介质 | |
| HK1190257A (en) | Image encoding apparatus, image decoding apparatus, image encoding method and image decoding method | |
| HK1234556B (zh) | 图像编码装置和方法、图像解码装置和方法以及记录介质 | |
| HK1234554B (zh) | 图像编码装置和方法、图像解码装置和方法以及记录介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| ENP | Entry into the national phase |
Ref document number: 2013521419 Country of ref document: JP Kind code of ref document: A |
|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12801936 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2833902 Country of ref document: CA |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 14114567 Country of ref document: US |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2012801936 Country of ref document: EP |
|
| ENP | Entry into the national phase |
Ref document number: 20137031464 Country of ref document: KR Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: MX/A/2013/014581 Country of ref document: MX |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2014102221 Country of ref document: RU Kind code of ref document: A |
|
| REG | Reference to national code |
Ref country code: BR Ref legal event code: B01A Ref document number: 112013031133 Country of ref document: BR |
|
| ENP | Entry into the national phase |
Ref document number: 112013031133 Country of ref document: BR Kind code of ref document: A2 Effective date: 20131203 |