WO2011062082A1 - Video encoder and video decoder - Google Patents
Video encoder and video decoder Download PDFInfo
- Publication number
- WO2011062082A1 WO2011062082A1 PCT/JP2010/069889 JP2010069889W WO2011062082A1 WO 2011062082 A1 WO2011062082 A1 WO 2011062082A1 JP 2010069889 W JP2010069889 W JP 2010069889W WO 2011062082 A1 WO2011062082 A1 WO 2011062082A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vector
- similarity
- prediction
- motion vector
- prediction vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/137—Motion inside a coding unit, e.g. average field, frame or block difference
- H04N19/139—Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/521—Processing of motion vectors for estimating the reliability of the determined motion vectors or motion vector field, e.g. for smoothing the motion vector field or for correcting motion vectors
Definitions
- the present invention relates to a moving picture coding apparatus and a moving picture decoding apparatus that perform coding using motion compensated prediction.
- motion compensated prediction is used as a technique for generating a predicted image of an image (input image) to be encoded.
- a predicted image of an input image is generated using a motion vector and a reference image obtained by motion estimation between an input image and a locally decoded image (reference image) decoded in the moving image encoding device.
- reference image locally decoded image
- the moving image decoding apparatus generates a new predicted image using the motion vector restored by the difference vector and the predicted vector and the reference image, and decodes the predicted image and the residual image to the original image.
- Non-Patent Document 1 an input moving image is divided into a plurality of partitions for each frame, and a target partition among a plurality of partitions adjacent to a partition to be encoded (hereinafter referred to as a “target partition”).
- PMV Predictive Motion Vector
- PMV is estimated using the median (median) of motion vectors of adjacent partitions on the upper, left, and upper right, and an input image is obtained using the obtained prediction vector and reference image.
- a predicted image is generated.
- Non-Patent Document 2 describes a technique called MV Competition that improves coding efficiency by adaptively selecting an optimal prediction vector for a motion vector of a target partition from a plurality of prediction vector candidates. .
- the prediction vector candidates include the median value of the motion vectors of the partitions located in the vicinity of the target partition, the motion vectors of the partitions at the same position as the target partition in the encoded frame, and the like.
- An optimal prediction vector is selected in consideration of rate distortion characteristics (coding cost).
- Non-Patent Document 1 derives a prediction vector of a target partition using the median value of motion vectors of partitions adjacent to the target partition, this method cannot always obtain an optimal prediction vector.
- the motion vector The median becomes the motion vector on the background side.
- the target partition since the target partition is inside the object, it should be approximate to the motion vector of the partition adjacent to the left.
- Non-Patent Document 2 a prediction vector having a low encoding cost is selected for each partition from a plurality of prediction vector candidates.
- the derivation method distinction information As in Non-Patent Document 2, when the number of prediction vector candidates is large, the data length representing this distinction information becomes large, so that the code amount of the flag becomes large, and the coding efficiency is lowered.
- the present invention has been made in consideration of the above situation, and provides a moving picture coding apparatus and a moving picture decoding apparatus that improve the prediction accuracy of a prediction vector when coding using motion compensated prediction. With the goal. Another object is to make it possible to reduce the code amount of information (flag) that distinguishes the method of deriving the prediction vector.
- the moving picture encoding apparatus and moving picture decoding apparatus of the present invention are configured as follows.
- a moving image encoding device is a moving image encoding device that generates a differential motion vector from a motion vector and a prediction vector of a target block and encodes a moving image, and corresponds to one or more directions in a temporal direction or a spatial direction.
- One or a plurality of sets of motion vectors of two or more blocks are extracted, and a similarity calculation unit that calculates a similarity corresponding to the direction from the set of motion vectors, and the similarity is maximized
- a prediction vector deriving unit for deriving a motion vector calculated by a method corresponding to a direction as one of the prediction vector of the target block or one of the prediction vectors; a difference from a difference between the prediction vector and the motion vector of the target block A motion vector is generated, and encoded data is created using the difference motion vector.
- the motion vector set uses a motion vector according to any of the following.
- the similarity calculation unit exists as a set of motion vectors for calculating the similarity corresponding to the direction in the spatial direction, in at least two spatial directions among the neighboring blocks of the target block on the processing target image.
- a set of two motion vectors for each spatial direction which is composed of a motion vector of an adjacent neighboring block and a motion vector of a neighboring block existing in the direction away from the target block, is used.
- the moving image encoding apparatus performs motion of adjacent neighboring blocks existing in at least two or more spatial directions among neighboring blocks of the target block on the processing target image.
- a set of two motion vectors for each spatial direction consisting of a vector and a motion vector of a neighboring block existing away from the target block in the direction is extracted, and the distance between the motion vectors calculated from the set of the motion vectors is calculated.
- a similarity calculation unit that calculates a similarity based on the prediction vector derivation unit that derives a motion vector of a block having the maximum similarity as a prediction vector of the target block, and the prediction vector and the A differential motion vector is generated from the difference from the motion vector of the target block, and encoded data is generated using the differential motion vector. Configured to create.
- the similarity calculation unit is present at the same position as the processing target block on the already processed first image as a set of motion vectors for calculating the similarity corresponding to the direction in the time direction, or A motion vector of a block existing at a position around the processing target block and a second image that has already been processed different from the first image, are present at the same position as the processing target block, or the processing A pair with a motion vector of a block existing around the target block is used.
- the similarity calculation unit as a set of motion vectors for calculating the similarity corresponding to the direction in the time direction, on the encoding target image, on the block adjacent to the processing target block, on the already processed image
- one or more pairs of motion vectors of blocks existing at the same position as the block adjacent to the processing target block or existing around the block adjacent to the processing target block are used.
- the moving image encoding device includes a first prediction vector deriving unit that calculates a first prediction vector from a motion vector of a neighboring block adjacent to the target block on the processing target image, and the prediction vector deriving unit includes the similarity
- the first prediction vector may be derived as a prediction vector.
- a first prediction vector deriving unit that calculates a first prediction vector from a motion vector of a neighboring block that is adjacent to the target block on the processing target image, and the similarity calculation
- the motion vector having the maximum similarity calculated by the unit and the first prediction vector derived by the first prediction vector deriving unit are candidates, and the coding costs based on both prediction vectors are compared, and the one with the smaller coding cost is selected.
- An encoding unit that sets and encodes a flag indicating which of the candidates is the prediction vector as the prediction vector of the target block may be provided.
- a first prediction vector deriving unit that calculates a first prediction vector from a motion vector of a neighboring block that is adjacent to the target block on the processing target image;
- a second prediction vector derivation unit that calculates a second prediction vector different from the first prediction vector from motion vectors of neighboring blocks that are adjacent to the target block, and the processing target block on the already processed image
- a time direction motion vector calculation unit that calculates a time direction motion vector from a motion vector of a block located at the same position as the block adjacent to the processing target block or around the block adjacent to the processing target block, and a similarity calculation unit, A class of motion vectors in the time direction using a set of one or more motion vectors corresponding to the time direction.
- the first prediction vector and the time direction motion vector are taken as prediction vector candidates.
- the prediction vector candidate selection unit that uses the prediction vector and the second prediction vector as a prediction vector candidate, and the encoding cost based on both prediction vectors are compared, and the one with the lower encoding cost is set as the prediction vector of the target block,
- An encoding unit that sets and encodes a flag indicating which prediction vector is the prediction vector candidate may be provided.
- the moving picture decoding device generates a prediction vector of a target block from a motion vector of a block obtained by decoding encoded data obtained by encoding a moving picture to be processed using motion compensated prediction, the difference motion vector of the target block, and the In a moving picture decoding apparatus that restores a motion vector from a prediction vector and decodes the encoded data, one set of motion vectors of two or more blocks corresponding to one or more directions in the time direction or the spatial direction Alternatively, a plurality of extractions, a similarity calculation unit that calculates the degree of similarity corresponding to the direction from the set of motion vectors, and a motion vector calculated by a method corresponding to the direction where the similarity is maximized, A prediction vector deriving unit that derives the prediction vector of the target block or one of the prediction vectors.
- the motion vector set uses a motion vector according to any of the following.
- the similarity calculation unit exists as a set of motion vectors for calculating the similarity corresponding to the direction in the spatial direction, in at least two spatial directions among the neighboring blocks of the target block on the processing target image.
- a set of two motion vectors for each spatial direction which is composed of a motion vector of an adjacent neighboring block and a motion vector of a neighboring block existing in the direction away from the target block, is used.
- the similarity calculation unit is present at the same position as the processing target block on the already processed first image as a set of motion vectors for calculating the similarity corresponding to the direction in the time direction, or A motion vector of a block existing at a position around the processing target block and a second image that has already been processed different from the first image, are present at the same position as the processing target block, or the processing A pair with a motion vector of a block existing around the target block is used.
- the similarity calculation unit as a set of motion vectors for calculating the similarity corresponding to the direction in the time direction, on the encoding target image, on the block adjacent to the processing target block, on the already processed image
- one or more pairs of motion vectors of blocks existing at the same position as the block adjacent to the processing target block or existing around the block adjacent to the processing target block are used.
- the motion vectors of adjacent neighboring blocks existing in at least two spatial directions among the neighboring blocks of the target block on the processing target image, and existing in the direction away from the target block
- a similarity calculation unit that extracts a set of motion vectors for each spatial direction composed of motion vectors of neighboring blocks and calculates a similarity based on a distance between the motion vectors calculated from the set of motion vectors; and the similarity
- a prediction vector deriving unit for deriving the motion vector of the block having the maximum value as a prediction vector of the target block, the prediction vector, and a motion vector restoring unit for restoring a motion vector from the differential motion vector of the target block; You may comprise so that it may be provided.
- a first prediction vector deriving unit that calculates a first prediction vector from a motion vector of a neighboring block that is adjacent to the target block on the processing target image, and on the processing target image
- a second prediction vector deriving unit that calculates a second prediction vector different from the first prediction vector from motion vectors of neighboring blocks existing adjacent to the target block; and on the already processed image, the processing target block
- a time direction motion vector calculation unit that calculates a time direction motion vector from a motion vector of a block located at the same position as an adjacent block or around the block adjacent to the processing target block, and a similarity calculation unit Similarity of motion vectors in the time direction using a set of one or more motion vectors corresponding to the direction If the similarity in the time direction is greater than or equal to a predetermined value, the first prediction vector and the time direction motion vector are used as prediction vector candidates; otherwise, the first prediction vector And a prediction vector candidate selection unit that uses the second prediction vector as a prediction vector candidate, a flag selection unit that
- the prediction accuracy of the prediction vector is improved.
- the selection of the prediction vector is narrowed down by the similarity, it is possible to add a substantial number of prediction vector candidates without increasing the code amount of information (flag) for distinguishing the method for deriving the prediction vector. Therefore, it is possible to select a prediction vector with high prediction accuracy.
- FIG. It is a block diagram which shows the function structure of the moving image encoder which concerns on this invention. It is a block diagram which shows the function structure of the motion vector redundancy reduction part which concerns on Embodiment 1.
- FIG. It is a figure which shows the relationship between the object partition when a partition size is the same, and a neighborhood partition. It is a figure which shows the relationship between the object partition in case partition sizes differ, and a near partition. It is a flowchart explaining operation
- FIG. 3 is a block diagram illustrating a functional configuration of a motion vector restoration unit according to the first embodiment.
- FIG. It is a figure for demonstrating the effect of similarity PMV. It is another figure for demonstrating the effect of similarity PMV.
- It is a block diagram which shows the function structure of the motion vector redundancy reduction part which concerns on Embodiment 2.
- FIG. It is a figure explaining the selection method of a reference partition when the size of an object partition and a collocated partition is the same. It is a figure explaining the selection method of a reference partition when the size of an object partition and a collocated partition differs.
- 10 is a block diagram illustrating a functional configuration of a motion vector restoration unit according to Embodiment 2.
- FIG. H. 2 is a diagram illustrating a method for calculating a prediction vector standardized by H.264. It is the encoded bit stream output in Embodiment 3. It is a block diagram which shows the function structure of the motion vector decompression
- FIG. It is a flowchart explaining operation
- FIG. 1 is a block diagram illustrating a functional configuration of a video encoding device according to the first embodiment.
- the video encoding device 1 includes an inter-predicted image generation unit 13, an inverse quantization / inverse conversion unit. 14, transform / quantization unit 15, prediction scheme control unit 16, variable length coding unit 17, motion vector estimation unit 18, intra prediction image generation unit 20, addition unit 21, subtraction unit 22, motion vector redundancy reduction unit 24
- the buffer memory 12 is configured.
- the transform / quantization unit 15 calculates a difference value (prediction residual image) between an input image divided into block images including a plurality of adjacent pixels and a prediction image output from a prediction method control unit 16 described later.
- the subtraction unit 22 calculates and performs quantized prediction residual data by performing DCT (Discrete) Cosine Transform) conversion and quantization on the prediction residual image.
- the quantization is an operation for associating the frequency component with an integer value.
- a block to be processed is referred to as a “target block”.
- the size of the block is, for example, 16 ⁇ 16 pixels, but the present invention is not limited by the specific size of the block.
- the quantized prediction residual data is input to the variable length encoding unit 17 on the one hand and to the inverse quantization / inverse transform unit 14 on the other hand.
- the inverse quantization / inverse transform unit 14 calculates a prediction residual image by performing inverse quantization and inverse DCT transform on the quantized prediction residual data.
- a locally decoded image obtained by adding the prediction residual image and the prediction image output from the prediction method control unit 16 by the adding unit 21 is stored in the buffer memory 12.
- the intra-predicted image generation unit 20 generates an intra-predicted image from a locally decoded image in the same image as the target block stored in the buffer memory 12.
- the motion vector estimation unit 18 divides the target block into one or a plurality of partitions, and sequentially assigns a motion vector to each partition. Specifically, based on the input image and the reference image in which the entire frame has already been decoded and stored in the buffer memory 12, a partition to be processed (hereinafter referred to as “target partition”) among the plurality of partitions. A motion vector is calculated. Also, the relative position information of the reference image (hereinafter referred to as the reference image relative position) with respect to the frame to which each partition belongs is calculated. The calculated motion vector is output to the inter predicted image generation unit 13 and the motion vector redundancy reduction unit 24 and is stored in the buffer memory 12.
- the inter prediction image generation unit 13 generates an inter prediction image by motion compensation from the above-described motion vector and the reference image of the buffer memory 12.
- the prediction scheme control unit 16 compares the intra prediction image that is the output of the intra prediction image generation unit 20 with the inter prediction image that is the output of the inter prediction image generation unit 13 and the input image, and the prediction mode of the target block is determined. It is determined whether the prediction is intra prediction or inter prediction, and a prediction image corresponding to the prediction mode is output.
- the prediction mode and the motion vector are also sequentially stored in the buffer memory 12.
- the motion vector redundancy reduction unit 24 determines a prediction vector for the target partition, and generates a differential motion vector that is a residual with the motion vector estimated by the motion vector estimation unit 18.
- variable length coding unit 17 performs variable length coding on the quantized prediction residual data, the prediction mode, and the differential motion vector in an output form as described later, and outputs the result to the outside.
- FIG. 2 is a block diagram illustrating a functional configuration of the motion vector redundancy reduction unit 24 according to the first embodiment.
- the motion vector redundancy reduction unit 24 is a motion of each encoded partition stored in the buffer memory 12.
- the similarity PMV derivation unit 111 includes a spatial direction similarity calculation unit 120, a similarity PMV determination unit 121, and a similarity PMV candidate extraction unit 122.
- the spatial direction similarity calculation unit 120 calculates and outputs similarities regarding a plurality of spatial directions by using the encoded motion vectors stored in the buffer memory 12 for each target partition.
- the similarity PMV candidate extraction unit 122 extracts a motion vector as a prediction vector candidate from the encoded motion vector stored in the buffer memory 12 and outputs the motion vector.
- the similarity PMV determination unit 121 selects a prediction vector (similarity) having the maximum similarity of the similarity calculated by the spatial direction similarity calculation unit 120 from the prediction vector candidates extracted by the similarity PMV candidate extraction unit 122. PMV) is determined and output.
- the spatial direction similarity calculation unit 120, the similarity PMV determination unit 121, and the similarity PMV candidate extraction unit 122 will be described in detail.
- the spatial direction similarity calculation unit 120 includes a spatial direction motion vector extraction unit 130 and a similarity calculation unit 131, as shown in FIG.
- the spatial direction motion vector extraction unit 130 will be described.
- the target block is further divided into units called partitions, and processing is performed. Based on the motion vector of each partition of the target block, a corresponding region on the reference image stored in the buffer memory 12 is determined. By referencing, an inter prediction image is generated.
- partition sizes 16 ⁇ 16, 16 ⁇ 8, 8 ⁇ 16, 8 ⁇ 8, 8 ⁇ 4, 4 ⁇ 8, and 4 ⁇ 4 pixel partition sizes (hereinafter referred to as partition sizes). ) Is available.
- the extraction method differs depending on the size relationship between the target partition and the neighboring partition.
- Extraction method of motion vector of reference partition when size of target partition and neighboring partition is the same: A method of extracting a motion vector of a reference partition when the size of the target partition and the neighboring partition are the same, for example, when one block corresponds to one partition will be described.
- FIG. 3 is a diagram illustrating the relationship between the target partition and neighboring partitions.
- a set of two partitions (reference partition 1 and reference partition 2) located in a specific direction (left, upper, upper right, upper left) with respect to the target partition (hatched solid line rectangular region). Extract motion vectors.
- reference partitions are determined as follows, for example. Note that the extraction of motion vectors in the spatial direction in the present invention is not limited by the method described below.
- a partition adjacent to the target partition is defined as a reference partition 1 (gray-dashed rectangular area).
- the reference partition 1 is composed of four partitions with the partition A as the left direction, the partition B as the upper direction, the partition C as the upper right direction, and the partition D as the upper left direction based on the target partition.
- partition E the left of partition A is partition E
- the top of partition B is partition F
- the top right of partition C is partition G
- the top left of partition D is partition H
- reference partition 2 colorless dashed rectangular area
- the reference partition 2 may be, for example, the partition E ′ in the left direction, the partition F ′ in the upward direction, the partition G ′ in the upper right direction, and the partition H ′ in the upper left direction. .
- the reference partition 1 is selected regardless of the position of the target block inside or outside the target block. That is, partition motion vectors are extracted across block boundaries. Further, when there are a plurality of partitions adjacent in the left direction and the upward direction, selection is made based on the following criteria.
- the reference partition 2 is selected in the same manner as the reference partition 1 on the basis of the reference partition 1.
- FIG. 4 shows an example of a reference partition selected based on the above processing.
- the hatched solid line rectangular area indicates the target partition, the gray broken line rectangular area indicates the reference partition 1, and the colorless broken line rectangular area indicates the reference partition 2. ing.
- the similarity calculation unit 131 calculates a distance between motion vectors from the motion vectors of two reference partitions in the same direction, and uses the distance between the motion vectors to use four neighboring partitions of the target partition, that is, partition A ( Left), partition B (upper), partition C (upper right), and partition D (upper left) are calculated in four types of similarities, and these four types of similarities are output.
- the two motion vectors are reference partition 1 and reference partition 2, that is, motion vectors of partitions A and E, motion vectors of partitions B and F, motion vectors of partitions C and G, and motion vectors of partitions D and H.
- the distance dist between motion vectors is expressed by the following equation (1) using the horizontal component vx1 and vertical component vy1 of the motion vector v1 of the reference partition 1, and the horizontal component vx2 and vertical component vy2 of the motion vector v2 of the reference partition 2. Can be calculated.
- equation (2) may be used to reduce the processing amount.
- the similarity mvdif calculated from the motion vectors of the reference partitions 1 and 2 can be expressed by the reciprocal of the distance dist between the motion vectors as shown in the following equation (3).
- the similarity is not limited to the reciprocal, and may be expressed by the following equation (4).
- the distance may be used as it is, or the following expression (5) weighted on the distance may be used as the similarity. In this case, the greater the value, the lower the similarity.
- the weight w may be stored and encoded in a header such as a sequence, a frame, or a slice.
- the position where the partition exists is also an important factor. That is, the positions of the reference partitions (partitions C and D) in the upper left direction and the upper right direction exist at positions that are ⁇ 2 times larger than the positions in the reference partitions (partitions A and B) in the left direction and the upper direction.
- the selection of a motion vector in a predetermined direction can be controlled by using the weight w in the calculation formula for obtaining the similarity mvdif. For example, if the weight w is increased, the degree of similarity is reduced, and it becomes difficult to select a motion vector in this direction, and if the weight w is reduced, the degree of similarity is increased, so that a motion vector in this direction is easily selected.
- an index indicating the degree of dissimilarity may be used for the above-described similarity, and a smaller index may be interpreted as a greater similarity.
- the distance dist between vectors can be used as an index representing the degree of dissimilarity.
- the similarity mvdif cannot be calculated. In this case, it is assumed that the correlation between the motion vectors is low, and the similarity mvdif is set to 0.
- an angle between motion vectors may be used as in the following equation (6).
- A is a symbol indicating the size of vector A
- ⁇ A ⁇ B> is an expression representing the inner product of vector A and vector B.
- the similarity PMV candidate extraction unit 122 extracts, for each target partition, a motion vector corresponding to the reference partition 1 described above from the encoded motion vectors stored in the buffer memory 12, and sets it as a prediction vector candidate. . That is, in the first embodiment, motion vectors of up to four types of partitions adjacent to the left, top, top right, and top left positions of the target partition are extracted.
- the similarity PMV determination unit 121 inputs, for each target partition, the similarity calculated by the spatial direction similarity calculation unit 120 and the prediction vector candidate extracted by the similarity PMV candidate extraction unit 122. The similarities are compared, the direction having the highest similarity is specified, and the prediction vector candidate corresponding to the direction is determined and output as the prediction vector.
- the prediction vector calculated in this way is referred to as similarity PMV.
- the prediction vector is determined in the priority order of the left direction, the upward direction, the upper right direction, and the upper left direction.
- the motion vector of the upward partition (partition B in FIG. 3) having a high priority is used as the prediction vector.
- the similarity PMV determination unit 121 employs the motion vector of the partition in the direction of the maximum similarity as a prediction vector. However, when the similarity is small in all directions, the reliability of the similarity itself is low. The following exception handling is performed.
- a threshold value TH is a preset value or a value calculated from an average constant multiple of the similarity of partitions already encoded, and the maximum similarity is smaller than the threshold TH
- motion vectors of a plurality of neighboring partitions of the target partition With reference to the group, the following first prediction vector is used.
- the threshold TH may be encoded as header information in units of sequences, frames, or slices.
- a prediction vector calculated with reference to a plurality of neighboring motion vector groups of the target partition is hereinafter referred to as a first prediction vector.
- One of the methods for calculating the first prediction vector with reference to the motion vector group includes a left partition adjacent to the left side of the target partition, an upper partition adjacent to the upper side of the target partition, and a right side of the upper partition. There is a median value for each motion vector in the upper right partition.
- Other methods for calculating the first prediction vector may be, for example, any of the following, but are not limited to these methods.
- the average value of the motion vectors of the left partition, upper partition, and upper right partition of the target partition The average value of the motion vectors of the left partition, upper partition, and upper right partition of the target partition. -The weighted average value of each motion vector of the left partition, the upper partition, and the upper right partition of the target partition. The maximum value of each motion vector of the left partition, upper partition, and upper right partition of the target partition. -The minimum value of each motion vector of the left partition, upper partition, and upper right partition of the target partition.
- the average value of the motion vectors of the left partition and the upper partition of the target partition, the average value of the motion vectors of the upper partition and the upper right partition of the target partition, and the motion vectors of the left partition and upper right partition of the target partition The median of the average value of.
- step S1 to step S6 The process up to is repeated four times (step S1).
- the motion vectors of reference partition 1 and reference partition 2 are extracted (step S2).
- the flag is set to zero.
- the flag is set to 1.
- step S3 If the flag is zero, the similarity is calculated using equation (3), and if the flag is 1, the similarity is set to zero (step S3).
- step S4 It is determined whether or not the calculated similarity is the maximum among the processes processed so far. If it is the maximum (YES in step S4), the current maximum similarity is updated (step S5). On the other hand, if the calculated similarity is not the highest among the processes processed so far (NO in step S4), the process of step S6 is performed.
- step S7 If the similarity calculation processing for partitions D and H (upper left) has been completed, the process returns to step S7, otherwise returns to step S1 to perform the process in the next direction (step S6).
- step S7 If the calculated maximum similarity is greater than or equal to the threshold (YES in step S7), a motion vector corresponding to the direction of the maximum similarity is extracted and output as the similarity PMV (step S8).
- the first prediction vector of the target partition is calculated and output (step S9). For example, motion vectors of the partition A (left), the partition B (upper), and the partition C (upper right) are extracted, and their median values are used as prediction vectors.
- the encoded data generated by the variable-length encoding unit 17 is a bit stream generated by quantizing prediction residual data, a prediction mode, and a differential motion vector in a format standardized in the aforementioned Non-Patent Document 1. is there.
- the bit stream in FIG. 6 shows a portion corresponding to the target block. Following the head block mode information, N pieces of index information Idxi (0 ⁇ i ⁇ N) in the target block are numbered. After that, motion vector information MVi (0 ⁇ i ⁇ N) is arranged.
- the block mode information includes the prediction mode of the target block, partition division information (in the case of inter coding), and the like.
- the index information Idxi includes information on the relative position of the reference image referenced by each partition, and is used for motion compensation.
- the motion vector information MVi includes differential motion vector information of each partition in the block.
- FIG. 7 is a block diagram illustrating a functional configuration of the moving picture decoding apparatus 2 according to the first embodiment.
- the moving picture decoding apparatus 2 includes a variable length code decoding unit 10, a motion vector restoration unit 23, and a buffer memory. 12, an inter prediction image generation unit 13, an intra prediction image generation unit 20, a prediction method determination unit 25, an inverse quantization / inverse conversion unit 14, and an addition unit 21.
- variable length code decoding unit 10 performs variable length decoding on the input encoded data, stores the prediction mode in the buffer memory 12, and outputs the prediction mode to the prediction method determination unit 25, and outputs the difference motion vector to the motion vector restoration unit 23.
- the quantized prediction residual data is output to the inverse quantization / inverse transform unit 14.
- the motion vector restoration unit 23 decodes the motion vector of the target partition using the prediction vector calculated from the difference motion vector and the motion vector stored in the buffer memory 12 and stores the decoded motion vector in the buffer memory 12. Output to the generator 13.
- the buffer memory 12 stores local decoded images, motion vectors, and prediction modes for all decoded blocks (partitions) for the processing target frame.
- the inter prediction image generation unit 13 generates a prediction image by motion compensation from the motion vector and the decoded image stored in the buffer memory 12, and outputs the prediction image to the prediction method determination unit 25.
- the intra-predicted image generation unit 20 generates an intra-predicted image from the locally decoded image in the same image as the target block stored in the buffer memory 12 and outputs the intra-predicted image to the prediction method determining unit 25.
- the prediction method determination unit 25 determines whether the intra prediction image that is the output of the intra prediction image generation unit 20 and the inter prediction image that is the output of the inter prediction image generation unit 13 according to the prediction mode decoded by the variable length code decoding unit 10. Either one is output to the adding unit 21 as a predicted image.
- the inverse quantization / inverse transform unit 14 decodes the prediction residual image by performing inverse quantization and inverse DCT transform on the quantized prediction residual data, and outputs the decoded residual image to the addition unit 21.
- the addition unit 21 generates a decoded image by adding the prediction residual image that is the output of the inverse quantization / inverse conversion unit 14 and the prediction image that is the output of the prediction method determination unit 25, and stores the decoded image in the buffer memory 12. At the same time, it is output to the outside of the video decoding device 2.
- FIG. 8 is a block diagram showing a functional configuration of the motion vector restoration unit 23 that calculates the motion vector of the target partition.
- the motion vector restoration unit 23 includes a similarity PMV derivation unit 111 and an addition unit 112. Has been.
- the similarity PMV deriving unit 111 is the same as the constituent elements of the video encoding device 1 shown in FIG.
- the motion vector restoration unit 23 derives a prediction vector using the similarity calculated from the motion vector stored in the buffer memory 12 by the similarity PMV deriving unit 111, and outputs the output of the variable length code decoding unit 10 to the derived prediction vector. Are added by the adder 112 to calculate and output the motion vector of the target partition.
- the prediction vector of the target partition (shaded area) located at the object boundary is calculated as a median from the motion vector A of the partition in the object inner area and the motion vectors B and C of the partition in the outer object area. It will be.
- the similarity according to the first embodiment when used, the similarity between the motion vectors in the direction belonging to the same object, here, the horizontal direction (left direction) increases, and thus the motion vector of the left partition is easily selected as the prediction vector. Become. That is, the similarity PMV is effective in calculating a prediction vector when an object to which a part of a neighboring partition belongs and an object to which the target partition belongs are different.
- a motion vector in the spatial direction is used as a prediction vector candidate, and a prediction vector with a high similarity is selected from the motion vector candidates, so that the prediction vector prediction accuracy is improved.
- the selection of the prediction vector is narrowed down to one according to the degree of similarity, it is not necessary to encode information that distinguishes the method of deriving the prediction vector without reducing the number of substantial prediction vector candidates.
- FIG. 11 is a block diagram illustrating a functional configuration of the motion vector redundancy reduction unit 24 of the video encoding device 1 according to the second embodiment.
- the motion vector redundancy reduction unit 24 includes the similarity PMV.
- the derivation unit 210 and the subtraction unit 191 are included.
- the subtracting unit 191 is the same as the components having the same reference numerals in FIG.
- the buffer memory 12 stores motion vectors of all blocks (partitions) for at least one frame in order to calculate the similarity in the time direction.
- the similarity PMV deriving unit 210 includes a spatiotemporal direction similarity calculation unit 220, a similarity PMV determination unit 221, and a similarity PMV candidate extraction unit 222.
- the spatio-temporal direction similarity calculation unit 220 includes a spatial direction motion vector extraction unit 130, a temporal direction motion vector extraction unit 230, and a similarity calculation unit 231, and includes four types of spatial directions.
- the temporal similarity is calculated and output.
- the spatial direction motion vector extraction unit 130 extracts and outputs the motion vectors of the reference partition 1 and the reference partition 2 in the left, upper, upper right, and upper left directions in the same manner as in the first embodiment.
- the temporal direction motion vector extraction unit 230 extracts a motion vector of a partition (hereinafter referred to as a collocated partition) that occupies the same position as the target partition in the encoded frame.
- the collocated partitions in different encoded frames are referred to as reference partition 1 and reference partition 2, respectively, and motion vectors of these reference partitions are extracted and output.
- a method of extracting the motion vectors of the reference partition 1 and the reference partition 2 in the time direction will be described with reference to FIGS.
- FIG. 12 shows an example of extracting the motion vector of the reference partition 1 frame before and 2 frames before the frame to which the target partition belongs.
- the extraction of the motion vector of the reference partition 1 The motion vector of the partition col 1 (gray-dashed rectangular region) at the same position as the target partition (hatched solid line rectangular region) before the frame is extracted, and the motion vector of the reference partition 2 is extracted by two frames of the target frame N
- the motion vector of the previous partition col 2 (colorless dashed rectangular area) at the same position as the target partition is extracted.
- FIG. 13 shows an example in which the motion vector of the reference partition one frame before the frame to which the target partition belongs is extracted.
- the motion vector of the partition on the reference image corresponding to the upper left pixel position of the target partition is selected.
- the reference partitions of frame (N ⁇ 1) corresponding to partitions X, Y, and Z of frame N are colX, colY, and colZ, respectively.
- the motion vectors of the reference partition 1 and the reference partition 2 are extracted as follows.
- a collocated partition belongs to an intra-coded block a motion vector of an inter-coded partition existing at a position around the collocated partition is extracted.
- the reference partition 1 is an inter-coded partition one frame before that exists at the same position as the lower partition of the target partition
- the reference partition 2 is an inter-frame two frames before that exists at the same position as the lower partition of the target partition. Let it be an encoded partition. Further, it is preferable that the reference partition 1 and the reference partition 2 are in the same position. Further, the reference partition is not limited to the lower partition, and motion vectors may be extracted from the left, upper, and upper right partitions.
- the similarity may be 0 as described above, but the above method is more preferably used.
- the similarity calculation unit 231 adds up to five types of similarities by adding up to four types of spatial directions output from the spatial direction motion vector extraction unit 130 and one type of temporal direction output from the temporal direction motion vector extraction unit 230.
- the degree is calculated by Expression (1), Expression (2), and Expression (3) and output.
- the similarity PMV candidate extraction unit 222 selects a maximum of four types of neighboring partitions from among the neighboring partitions in the spatial direction (left, upper, upper right, upper left) of the target partition. Extract and extract the motion vectors of those partitions and the motion vector of the collocated partition in the same manner as the reference partition 1 of the temporal direction motion vector extraction unit 230, and output a maximum of five types of motion vectors as prediction vector candidates To do.
- the similarity PMV determination unit 221 compares up to five types of similarities input from the spatiotemporal direction similarity calculation unit 220 (that is, the similarity calculation unit 231), identifies the direction of the maximum similarity, and determines the similarity.
- the prediction vector candidate in the direction corresponding to the maximum similarity is selected from the prediction vector candidates extracted by the degree PMV candidate extraction unit 222 and is output as a prediction vector (similarity PMV).
- the prediction vector is determined in the priority order of the left direction, the time direction, the upward direction, the upper right direction, and the upper left direction.
- the maximum similarity is smaller than a predetermined threshold, since the reliability of the similarity itself is low, an exception process for calculating the first prediction vector is performed. In this exceptional process, since it is determined that the degree of similarity is low, it is not necessary to add the motion vector in the time direction to the calculation target of the first prediction vector.
- the time direction motion vector extraction unit 230 described above extracts the motion vector of the collocated partition for two frames and calculates the similarity in the time direction.
- another configuration may be used. Specifically, a technique for calculating the temporal similarity by referring to a collocated partition for one frame and a neighboring partition of the collocated partition will be described.
- the distance dist between the motion vectors is calculated by calculating the difference between the motion vector of the neighboring partition and the motion vector of the neighboring partition of the collocated partition in one or a plurality of neighboring partitions. It is calculated by calculation such as average, weighted addition, median, minimum, maximum, and average excluding maximum and minimum values.
- the distance between the motion vectors in the spatial direction is, for example, the difference between the motion vector of the neighboring partition and the motion vector of the neighboring partition. It is calculated by the neighborhood partition, and is calculated by calculation such as the average of the calculated differences, weighted addition, median value, minimum value, maximum value, average excluding maximum value and minimum value.
- the difference between the motion vector of the neighboring partition and the median value of the motion vector of the neighboring partition is calculated in one or more neighboring partitions, and the average of the calculated differences, weighted addition, median value, minimum value,
- the distance between motion vectors in the spatial direction may be calculated by a calculation such as a maximum value, an average excluding the maximum value and the minimum value.
- the spatial direction, the temporal direction, and the respective similarities are calculated from the distances between the motion vectors, and the similarity PMV is selected using the spatial direction similarity and the temporal direction similarity.
- the operation of the similarity PMV deriving unit 210 adds one type of similarity in the time direction to the operation of the similarity PMV deriving unit 111 for up to four types of similarity in the spatial direction shown in FIG. Since the processes of S1 to S8 are merely replaced with the processes for five types of similarity, the description is omitted.
- the moving picture decoding apparatus according to the second embodiment is the same as that of the first embodiment shown in FIG. 7, and only the components of the motion vector restoration unit 23 are different. Therefore, only the differences will be described.
- FIG. 14 is a block diagram illustrating a functional configuration of the motion vector restoration unit 23 of the video decoding device 2 according to the second embodiment.
- the motion vector restoration unit 23 includes an addition unit 112 and a similarity PMV derivation.
- the unit 210 is configured.
- the motion vector restoration unit 23 adds, for each target partition, the prediction vector determined by the similarity PMV deriving unit 210 and the difference motion vector decoded by the variable-length code decoding unit 10 as described in the first embodiment.
- the motion vector is decoded by adding in the unit 112.
- the effect of using the prediction vector calculated by Embodiment 2 is demonstrated.
- the similarity in the spatial direction is higher than the similarity in the temporal direction on average, it may be encoded by the method of the first embodiment.
- the motion vector adjacent to the spatial direction is used in a region having no correlation in the spatial direction.
- a motion vector in the spatial direction and the time direction is used as a prediction vector candidate, and a prediction vector having a high similarity is selected from the motion vector candidates, so that the prediction accuracy of the prediction vector is improved.
- the selection of the prediction vector is narrowed down to one according to the degree of similarity, it is not necessary to encode information that distinguishes the method of deriving the prediction vector without reducing the number of substantial prediction vector candidates.
- FIG. 15 is a block diagram illustrating a functional configuration of the motion vector redundancy reducing unit 24 of the video encoding device 1 according to the third embodiment.
- the motion vector redundancy reducing unit 24 performs the first prediction.
- the vector derivation unit 190, the similarity PMV derivation unit 210, and the PMV determination unit 193 calculate a plurality of prediction vector candidates, select a prediction vector having a low coding cost from the candidates, and select the selected prediction vector.
- the PMV flag which is information for distinguishing the method for deriving the, is output.
- the first prediction vector deriving unit 190 derives a first prediction vector.
- the similarity PMV deriving unit 210 determines the prediction vector of the target partition using the spatial and temporal similarity described in the second embodiment, and outputs it as the similarity PMV.
- the PMV determination unit 193 determines a difference motion vector between the first prediction vector output from the first prediction vector derivation unit 190 and the motion vector of the target partition for the similarity PMV output from the similarity PMV derivation unit 210, respectively. And calculating a coding cost based on these difference motion vectors, selecting a prediction vector (first prediction vector or similarity PMV) that is the minimum coding cost, and calculating a difference motion vector calculated from the selected prediction vector. And the PMV flag is output.
- the generation of the PMV flag is shown as a means different from the variable length encoding unit 17, but the variable length encoding unit 17 directly
- the selection information indicating the PMV flag may be encoded. In this case, the PMV flag generation process is included in the variable length encoding unit 17.
- the PMV determination unit 193 and the variable length encoding unit 17 that encode the selection information indicating the PMV flag are simply referred to as “encoding unit”.
- the code amount when the differential motion vector is encoded may be used, or the code amount when the differential motion vector is encoded including the PMV flag may be used.
- the PMV flag is information for distinguishing a method for deriving a prediction vector from a plurality of prediction vector candidates.
- the distinction represents whether the similarity PMV deriving unit 210 or the first predictive vector deriving unit 190 is selected, it is composed of 1 bit. For example, when it is zero, the similarity PMV deriving is performed.
- the unit 210 is selected and the value is 1, it is defined that the first prediction vector deriving unit 190 is selected.
- the PMV flag is a flag of 2 bits or more.
- the encoded data generated by the variable-length encoding unit 17 of the moving image encoding apparatus 1 according to the third embodiment is the quantized prediction residual data, the prediction mode, and the difference motion vector, which are standardized in Non-Patent Document 1 described above. This is a bit stream generated in a normalized format.
- the bit stream of FIG. 17 is a portion corresponding to the target block, and following the first block mode information, N pieces of the partition division number PMV flag information Flgi (0 ⁇ i ⁇ N) in the target block is arranged, After that, index information Idxi (0 ⁇ i ⁇ N) is arranged, and then motion vector information MVi (0 ⁇ i ⁇ N) is arranged. Since the configuration other than the PMV flag information Flgi is the same as that described in the first embodiment, a description thereof will be omitted.
- the PMV flag information Flgi includes a PMV flag for each partition in the target block. That is, the information which distinguishes which prediction vector derivation method was used in the moving image encoder is shown. By determining this PMV flag, the moving picture decoding apparatus can derive a prediction vector using the same processing as that of the moving picture encoding apparatus.
- the video decoding device can restore the same prediction vector as the prediction vector derived by the video encoding device based on the encoded data configured by the bit stream.
- the moving image decoding apparatus can generate a decoded image based on such a prediction vector. Note that the moving picture decoding apparatus according to the third embodiment is the same as that of the first embodiment shown in FIG. 7, and only the components of the motion vector restoration unit 23 are different. Therefore, only the differences will be described.
- FIG. 18 is a block diagram illustrating a functional configuration of the motion vector restoration unit 23 of the video decoding device 2 according to the third embodiment.
- the motion vector restoration unit 23 includes an addition unit 112 and a PMV determination unit 320.
- the prediction vector of the target partition decoded by the PMV determination unit 320 and the difference motion vector decoded by the variable length code decoding unit 10 are added by the adding unit 112 to decode the motion vector.
- the PMV determination unit 320 includes a similarity PMV deriving unit 210, a flag selecting unit 330, a first prediction vector deriving unit 190, and a switching unit 331.
- the similarity PMV deriving unit 210 calculates the similarity PMV using the spatial similarity and the temporal similarity.
- the first prediction vector deriving unit 190 derives a first prediction vector.
- the flag selection unit 330 outputs a PMV flag for the target partition decoded by the variable length code decoding unit 10.
- the variable length code decoding unit 10 is configured to decode the PMV flag.
- the variable length code decoding unit 10 directly decodes selection information that is information indicating which prediction vector candidate is selected. It doesn't matter.
- the switching unit 331 switches the output value from the similarity PMV deriving unit 210 and the output value from the first prediction vector deriving unit 190 according to the PMV flag output from the flag selecting unit 330.
- the similarity PMV output by the similarity PMV deriving unit 210 is output as a prediction vector, and if the PMV flag is 1, the first prediction vector deriving unit 190 outputs One prediction vector is output.
- the similarity PMV deriving unit 210 described in the second embodiment is performed to use the spatiotemporal similarity.
- the similarity PMV calculated in this way is output as a prediction vector (step S11).
- step S10 the first prediction vector calculated by the first prediction vector deriving unit 190 is output (step S12).
- ⁇ Effect of prediction vector calculated by Embodiment 3> In the conventional MV Completion method described in Non-Patent Document 2, as a prediction vector candidate, a motion vector using a median value, a spatial motion vector, a temporal motion vector, or a newly derived motion vector Etc. are used. As described above, it is considered that the prediction vector prediction accuracy is improved by increasing the number of prediction vector candidates, but the code amount of information for identifying which candidate is selected increases.
- the similarity PMV is used as one of the prediction vector candidates in the MV Completion method, so that there is an effect of reducing the code amount. This is because the similarity PMV is narrowed down to one candidate from among a plurality of prediction vector candidates by using the similarity, so that it is not necessary to add a flag necessary for indicating a desired prediction vector, and the similarity PMV And only a flag for selecting one of the other prediction vectors need be encoded.
- the flag as described above is only one bit, and the amount of code can be reduced as compared with the conventional method.
- the similarity PMV (the motion vector having the maximum similarity among the spatial direction motion vector and the temporal direction motion vector) and the first prediction vector are used as the prediction vector candidates, and the one with the lower coding cost is selected.
- the prediction vector is used, the prediction vector candidate is not limited to this and may be other combinations.
- similarity PMV and temporal direction motion vector colocated partition motion vector
- similarity PMV and spatial direction motion vector for example, motion vector of a partition adjacent in the left direction or upward direction
- prediction vector candidates For example, similarity PMV and temporal direction motion vector (colocated partition motion vector), or similarity PMV and spatial direction motion vector (for example, motion vector of a partition adjacent in the left direction or upward direction) are used as prediction vector candidates. Also good.
- the prediction vector is narrowed down to one of the method of selecting a prediction vector based on the similarity or the method of using the first prediction vector, and the prediction vector is selected. Since only the information for discriminating between the two is encoded, the discrimination information can be reduced without reducing the substantial number of prediction vector candidates.
- FIG. 20 is a block diagram showing a functional configuration of a motion vector redundancy reducing unit according to a modification of the video encoding device of the present invention.
- the moving image encoding apparatus according to the modification of the present invention is the same as the moving image encoding apparatus 1 shown in FIG. 1, and only the components of the motion vector redundancy reduction unit 24 ′ are different. Only the differences will be described.
- the motion vector redundancy reduction unit 24 ′ includes a first prediction vector derivation unit 190 that calculates a first prediction vector from motion vectors of neighboring partitions that are adjacent to the target partition on the processing target image, A second prediction vector deriving unit 192 that calculates a second prediction vector different from the first prediction vector from motion vectors of neighboring partitions that are adjacent to the target partition on the processing target image; A time-direction motion vector calculation unit 194 that calculates a time-direction motion vector from motion vectors of partitions located around the partition adjacent to the target partition at the same position as the target partition, and 1 corresponding to the time direction Use one or more pairs of motion vectors When the similarity in the time direction is greater than or equal to a predetermined value, the similarity calculation unit 231 ′ that obtains the similarity in the motion vector in the time direction is output from the first prediction vector deriving unit 190.
- the prediction vector and the temporal direction motion vector output from the temporal direction motion vector calculation unit 194 are used as prediction vector candidates, and otherwise output from the first prediction vector and the second prediction vector derivation unit 192.
- a prediction vector candidate selection unit 195 that uses the second prediction vector as a prediction vector candidate, and the encoding cost based on both prediction vectors, and the one with the lower encoding cost is set as the prediction vector of the target block, and the prediction vector Includes a flag indicating which of the predicted vector candidates and a PMV determination unit 193 ′ that outputs a differential motion vector.
- the first prediction vector uses the median value of the motion vectors of the partitions adjacent to the left, top, and right of the target partition
- the second prediction vector uses the motion of the partition adjacent to the left of the target partition. It is preferable to use a vector and use the motion vector of the partition at the same position as the target partition on the already processed image as the time direction motion vector, but it is not necessary to be limited to this.
- the similarity in the time direction is obtained as follows, for example. First, on the processing target image, the motion vector MV_U0 of the partition adjacent on the target partition and the motion vector MV_U1 of the block one frame before the processing target image at the same position as the partition position are calculated. DU, the motion vector MV_L0 of the partition adjacent to the left of the target partition on the processing target image, and the motion vector MV_L1 of the block one frame before the processing target image at the same position as the partition position The value dL calculated from the set of
- dU
- dL
- the minimum value of dU and dL is set as the distance dist, and the similarity is obtained by Expression (3).
- the similarity of the motion vector in the time direction to be calculated increases. This method is suitable because it is considered that there is a spatial correlation in whether the motion vectors in the temporal direction are similar.
- the minimum value of the distance is obtained from a set of a plurality of vectors.
- the distance may be calculated using an average value, a median value, or the like without being limited to the minimum value.
- the method of setting the similarity obtained from a plurality of sets of motion vectors as the similarity in a certain direction is not limited to the modification of the third embodiment, and the first embodiment, the second embodiment, and the like. You may use in.
- the motion vector redundancy reducing unit 24 ′ can switch the prediction vector candidates based on the similarity in the time direction. Specifically, since the prediction accuracy of the prediction vector in the time direction is considered to be high when the similarity in the time direction is equal to or greater than a predetermined value, the first prediction vector and the temporal direction motion vector are used as the prediction vector. If the temporal direction similarity is equal to or lower than a predetermined value, it is considered that the prediction accuracy of the prediction vector in the spatial direction is high. Therefore, the first prediction vector and the second prediction vector are regarded as prediction vector candidates. By doing so, a prediction vector with high prediction accuracy can be derived.
- FIG. 21 is a block diagram showing a functional configuration of a motion vector restoration unit according to a modification of the video decoding device of the present invention.
- the moving picture decoding apparatus according to the modification of the present invention is the same as the moving picture decoding apparatus 2 shown in FIG. 7, and only the constituent elements of the motion vector restoration unit 23 ′ are different. To do.
- symbol is attached
- the motion vector restoration unit 23 ′ includes a first prediction vector derivation unit 190, a second prediction vector derivation unit 192, a time direction motion vector calculation unit 194, a similarity calculation unit 231 ′, and a variable length code.
- a flag selection unit 330 that outputs a PMV flag for the target partition decoded by the decoding unit 10, a prediction vector output from the first prediction vector derivation unit 190, the second prediction vector derivation unit 192, and the temporal direction motion vector calculation unit 194
- a switching unit 331 ′ is provided that switches candidates according to the similarity in the time direction output from the similarity calculation unit 231 ′ and the PMV flag output from the flag selection unit 330.
- the switching unit 331 ′ When the similarity in the time direction is equal to or greater than a predetermined value, the switching unit 331 ′ outputs the first prediction vector output by the first prediction vector deriving unit 190 if the PMV flag is zero, and the PMV flag is 1 If so, the time direction motion vector output by the time direction motion vector calculation unit 194 is output. Conversely, when the similarity in the time direction is less than a predetermined value, if the PMV flag is zero, the first prediction vector output by the first prediction vector deriving unit 190 is output, and the PMV flag is 1. For example, the second prediction vector output unit 192 outputs the second prediction vector.
- the motion vector restoration unit 23 ′ can switch the prediction vector candidates based on the similarity in the time direction. Therefore, encoded data with high encoding efficiency can be decoded by using the moving image decoding apparatus according to this modification.
- each unit for example, transform / quantization unit, variable length coding unit, inverse quantization / inverse transform unit, motion vector estimation unit, inter prediction image generation unit, Intra prediction image generation unit, prediction scheme control unit, motion vector redundancy reduction unit, etc.
- each part of the video decoding device for example, variable length code decoding unit, motion vector restoration unit, inter prediction image generation unit, intra prediction image generation
- a program for causing a computer to function as a recording unit, a prediction method determination unit, an inverse quantization / inverse conversion unit, etc., and written in a recording medium in advance, and these programs recorded in the recording medium were provided in the computer
- the object of the present invention is achieved by storing the program in a memory or a storage device and executing the program by a CPU (Central Processing Unit) or the like. Needless to say, the.
- the program itself read from the recording medium realizes the functions of the above-described embodiment, and the program and the recording medium recording the program also constitute the present invention.
- the program includes a case where the functions of the above-described embodiment are realized by processing in cooperation with an operating system or another application program based on an instruction of the program.
- the program for realizing the functions of the above-described embodiments includes a disk system (for example, magnetic disk, optical disk, etc.), a card system (for example, memory card, optical card, etc.), and a semiconductor memory system (for example, ROM, nonvolatile memory). Etc.) and a recording medium of any form such as a tape system (for example, magnetic tape, cassette tape, etc.). Or you may make it receive the said program stored in the memory
- a part or all of the moving image encoding device and the moving image decoding device in the above-described embodiment may be realized as an LSI (Large Scale Integration) that is typically an integrated circuit.
- LSI Large Scale Integration
- Each functional block of the moving image encoding device and the moving image decoding device may be individually chipped, or a part or all of them may be integrated into a chip.
- the method of circuit integration is not limited to LSI, and may be realized with a dedicated circuit or a general-purpose processor.
- an integrated circuit based on the technology can also be used.
- Similarity PMV candidate extraction unit 210 ... similarity PMV derivation unit , 220 ... spatiotemporal direction similarity calculation unit, 230 ... time direction motion vector extraction unit, 231 ... similarity calculation unit, 221 ... similarity PMV determination unit, 222 ... similarity PMV candidate extraction unit, 190 ... first prediction Vector derivation unit, 193 ... PMV determination unit, 24 '... motion vector redundancy reduction unit, 192 ... second prediction vector derivation unit, 193' ... PMV determination unit, 194 ... time direction motion vector calculation unit, 195 ... prediction vector candidate Selection unit, 231 '... similarity calculation unit, 2 ... video decoding device, 10 ... variable length code decoding unit, 23 ... motion vector restoration unit, 25 ... prediction method determination unit, 112 ... addition unit, 320 ... PMV determination unit , 330... Flag selection unit, 331... Switching unit, 23 ′... Motion vector restoration unit, 331 ′.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
本発明は、動き補償予測を用いて符号化する動画像符号化装置および動画像復号装置に関する。 The present invention relates to a moving picture coding apparatus and a moving picture decoding apparatus that perform coding using motion compensated prediction.
動画像符号化装置では、符号化対象となる画像(入力画像)の予測画像を生成する技術として、動き補償予測が用いられている。
動き補償予測では、入力画像と動画像符号化装置内で復号された局所復号画像(参照画像)間の動き推定によって求められた動きベクトルと参照画像を用いて、入力画像の予測画像を生成する。
その後、入力画像と予測画像との残差画像に対して、周波数変換、量子化を行ったデータ、および、推定された動きベクトルと予測ベクトルの差分動きベクトルを符号化する。
In a moving image encoding apparatus, motion compensated prediction is used as a technique for generating a predicted image of an image (input image) to be encoded.
In motion compensated prediction, a predicted image of an input image is generated using a motion vector and a reference image obtained by motion estimation between an input image and a locally decoded image (reference image) decoded in the moving image encoding device. .
Thereafter, the data obtained by performing frequency conversion and quantization on the residual image between the input image and the predicted image, and the difference motion vector between the estimated motion vector and the predicted vector are encoded.
一方、動画像復号装置では、上記差分ベクトルと予測ベクトルにより復元した動きベクトルと参照画像を用いて新たな予測画像を生成し、この予測画像と残差画像とからもとの画像へ復号する。 On the other hand, the moving image decoding apparatus generates a new predicted image using the motion vector restored by the difference vector and the predicted vector and the reference image, and decodes the predicted image and the residual image to the original image.
<従来技術>
非特許文献1では、入力される動画像をフレームごとに複数のパーティションに分割し、符号化の対象となるパーティション(以下、「対象パーティション」と呼ぶ)に隣接する複数のパーティションのうち、対象パーティションの上、左、右上に隣接するパーティションの動きベクトルの中央値(メジアン)を用いて、予測ベクトル(PMV:Predictive Motion Vector)を推定し、求められた予測ベクトルと参照画像を用いて、入力画像の予測画像を生成する。
<Conventional technology>
In
非特許文献2には、対象パーティションの動きベクトルに対する最適な予測ベクトルを、複数の予測ベクトル候補の中から適応的に選択することで符号化効率を向上させるMV Competitionと呼ばれる手法が記載されている。
Non-Patent
この予測ベクトル候補としては、対象パーティションの近傍に位置するパーティションの動きベクトルの中央値、符号化済フレームにおいて対象パーティションと同じ位置にあるパーティションの動きベクトル等があり、これらの予測ベクトル候補の中からレート歪み特性(符号化コスト)を考慮して、最適な予測ベクトルを選択している。 The prediction vector candidates include the median value of the motion vectors of the partitions located in the vicinity of the target partition, the motion vectors of the partitions at the same position as the target partition in the encoded frame, and the like. An optimal prediction vector is selected in consideration of rate distortion characteristics (coding cost).
非特許文献1は、対象パーティションに隣接するパーティションの動きベクトルの中央値を用いて、対象パーティションの予測ベクトルを導出するが、この方法では必ずしも最適な予測ベクトルを求めることはできない。
Although Non-Patent
例えば、図10に示すように、対象パーティションおよび対象パーティションの左に隣接するパーティションがオブジェクトの内部にあり、他の上と右上に隣接するパーティションがオブジェクトの外部(背景)にある場合、動きベクトルの中央値は、背景側の動きベクトルとなってしまう。
しかし、対象パーティションは、オブジェクトの内側であるから、左に隣接するパーティションの動きベクトルと近似しているはずである。
For example, as shown in FIG. 10, when the target partition and the partition adjacent to the left of the target partition are inside the object, and the other partitions adjacent to the top and right are outside the object (background), the motion vector The median becomes the motion vector on the background side.
However, since the target partition is inside the object, it should be approximate to the motion vector of the partition adjacent to the left.
したがって、対象パーティションに隣接するパーティションの動きベクトルの中央値から求めた予測ベクトルを用いると、対象パーティションの推定した動きベクトルとこの予測ベクトルの差分である差分動きベクトルや、入力画像と予測画像の差分である残差画像が大きくなり、符号化効率が低下してしまうことになる。 Therefore, if a prediction vector obtained from the median of motion vectors of partitions adjacent to the target partition is used, a difference motion vector that is the difference between the motion vector estimated for the target partition and this prediction vector, or the difference between the input image and the prediction image As a result, the residual image becomes larger and the coding efficiency is lowered.
また、非特許文献2では、複数の予測ベクトル候補の中から、パーティション毎に符号化コストの小さな予測ベクトルを選択している。
この手法で符号化した符号化データを復号する場合、選択された予測ベクトルの導出方法を知るため、この導出方法の区別情報をフラグとして符号化しておく必要がある。
非特許文献2のように、予測ベクトルの候補数が多い場合、この区別情報を表わすデータ長が大きくなるため、フラグの符号量が大きくなり、符号化効率が低下してしまうこととなる。
In
When decoding the encoded data encoded by this method, in order to know the derivation method of the selected prediction vector, it is necessary to encode the derivation method distinction information as a flag.
As in
本発明は、上述の実情を考慮してなされたものであり、動き補償予測を用いて符号化する場合の予測ベクトルの予測精度を向上させる動画像符号化装置および動画像復号装置を提供することを目的とする。
また、他の目的として、この予測ベクトルを導出する方法を区別する情報(フラグ)の符号量を削減可能とすることにある。
The present invention has been made in consideration of the above situation, and provides a moving picture coding apparatus and a moving picture decoding apparatus that improve the prediction accuracy of a prediction vector when coding using motion compensated prediction. With the goal.
Another object is to make it possible to reduce the code amount of information (flag) that distinguishes the method of deriving the prediction vector.
上記の課題を解決するために、本発明の動画像符号化装置および動画像復号装置は、次のような構成とする。 In order to solve the above-described problems, the moving picture encoding apparatus and moving picture decoding apparatus of the present invention are configured as follows.
動画像符号化装置は、対象ブロックの動きベクトルと予測ベクトルから差分動きベクトルを生成して動画像を符号化する動画像符号化装置において、時間方向もしくは空間方向の1つ以上の方向に対応する2つ以上のブロックの動きベクトルの組を1個もしくは複数個抽出し、それらの動きベクトルの組から前記方向に対応する類似度を算出する類似度算出部と、前記類似度が最大となった方向に対応する方法で算出された動きベクトルを、前記対象ブロックの予測ベクトルもしくは予測ベクトルの1つとして導出する予測ベクトル導出部を備え、前記予測ベクトルと前記対象ブロックの動きベクトルとの差分から差分動きベクトルを生成し、該差分動きベクトルを用いて符号化データを作成する。 A moving image encoding device is a moving image encoding device that generates a differential motion vector from a motion vector and a prediction vector of a target block and encodes a moving image, and corresponds to one or more directions in a temporal direction or a spatial direction. One or a plurality of sets of motion vectors of two or more blocks are extracted, and a similarity calculation unit that calculates a similarity corresponding to the direction from the set of motion vectors, and the similarity is maximized A prediction vector deriving unit for deriving a motion vector calculated by a method corresponding to a direction as one of the prediction vector of the target block or one of the prediction vectors; a difference from a difference between the prediction vector and the motion vector of the target block A motion vector is generated, and encoded data is created using the difference motion vector.
前記動きベクトルの組は、次のいずれかによる動きベクトルを用いる。 The motion vector set uses a motion vector according to any of the following.
(1)類似度算出部は、空間方向の方向に対応する類似度を算出する動きベクトルの組として、処理対象画像上の前記対象ブロックの近傍ブロックの中の少なくとも2以上の空間方向に存在する隣接する近傍ブロックの動きベクトルおよび当該対象ブロックから当該方向に離れて存在する近傍ブロックの動きベクトルからなる前記空間方向毎の2つの動きベクトルの組を用いる。 (1) The similarity calculation unit exists as a set of motion vectors for calculating the similarity corresponding to the direction in the spatial direction, in at least two spatial directions among the neighboring blocks of the target block on the processing target image. A set of two motion vectors for each spatial direction, which is composed of a motion vector of an adjacent neighboring block and a motion vector of a neighboring block existing in the direction away from the target block, is used.
この動きベクトルを用いる場合には、具体的には、動画像符号化装置は、処理対象画像上の前記対象ブロックの近傍ブロックの中の少なくとも2以上の空間方向に存在する隣接する近傍ブロックの動きベクトル及び当該対象ブロックから当該方向に離れて存在する近傍ブロックの動きベクトルからなる前記空間方向毎の2つの動きベクトルの組を抽出し、それらの動きベクトルの組から算出した動きベクトル間の距離に基づいて類似度を算出する類似度算出部と、前記類似度が最大となったブロックの動きベクトルを、前記対象ブロックの予測ベクトルとして導出する予測ベクトル導出部と、を備え、前記予測ベクトルと前記対象ブロックの動きベクトルとの差分から差分動きベクトルを生成し、該差分動きベクトルを用いて符号化データを作成するように構成する。 In the case of using this motion vector, specifically, the moving image encoding apparatus performs motion of adjacent neighboring blocks existing in at least two or more spatial directions among neighboring blocks of the target block on the processing target image. A set of two motion vectors for each spatial direction consisting of a vector and a motion vector of a neighboring block existing away from the target block in the direction is extracted, and the distance between the motion vectors calculated from the set of the motion vectors is calculated. A similarity calculation unit that calculates a similarity based on the prediction vector derivation unit that derives a motion vector of a block having the maximum similarity as a prediction vector of the target block, and the prediction vector and the A differential motion vector is generated from the difference from the motion vector of the target block, and encoded data is generated using the differential motion vector. Configured to create.
(2)類似度算出部は、時間方向の方向に対応する類似度を算出する動きベクトルの組として、既に処理された第1の画像上で、前記処理対象ブロックと同じ位置に存在する、もしくは前記処理対象ブロックの周囲の位置に存在するブロックの動きベクトルと、第1の画像とは別の既に処理された第2の画像上で、前記処理対象ブロックと同じ位置に存在する、もしくは前記処理対象ブロックの周囲の位置に存在するブロックの動きベクトルとの組を用いる。 (2) The similarity calculation unit is present at the same position as the processing target block on the already processed first image as a set of motion vectors for calculating the similarity corresponding to the direction in the time direction, or A motion vector of a block existing at a position around the processing target block and a second image that has already been processed different from the first image, are present at the same position as the processing target block, or the processing A pair with a motion vector of a block existing around the target block is used.
(3)類似度算出部は、時間方向の方向に対応する類似度を算出する動きベクトルの組として、符号化対象画像上で、前記処理対象ブロックに隣接するブロックと、既に処理された画像上で、前記処理対象ブロックに隣接する前記ブロックと同じ位置に存在する、もしくは前記処理対象ブロックに隣接する前記ブロックの周囲の位置に存在するブロックの動きベクトルとの組を、1つ以上用いる。 (3) The similarity calculation unit, as a set of motion vectors for calculating the similarity corresponding to the direction in the time direction, on the encoding target image, on the block adjacent to the processing target block, on the already processed image Thus, one or more pairs of motion vectors of blocks existing at the same position as the block adjacent to the processing target block or existing around the block adjacent to the processing target block are used.
上記の動画像符号化装置において、処理対象画像上の前記対象ブロックに隣接する近傍ブロックの動きベクトルから第1予測ベクトルを算出する第1予測ベクトル導出部を備え、予測ベクトル導出部は、前記類似度算出部の算出した類似度が所定の閾値以下の場合、前記第1予測ベクトルを予測ベクトルとして導出するように構成してもよい。 The moving image encoding device includes a first prediction vector deriving unit that calculates a first prediction vector from a motion vector of a neighboring block adjacent to the target block on the processing target image, and the prediction vector deriving unit includes the similarity When the degree of similarity calculated by the degree calculation unit is equal to or less than a predetermined threshold, the first prediction vector may be derived as a prediction vector.
あるいは、上記の動画像符号化装置において、処理対象画像上の前記対象ブロックに隣接して存在する近傍ブロックの動きベクトルから第1予測ベクトルを算出する第1予測ベクトル導出部と、前記類似度算出部が算出した類似度の最大の動きベクトルおよび前記第1予測ベクトル導出部が導出した第1予測ベクトルを候補とし、両者の予測ベクトルに基づく符号化コストを比較し、符号化コストの少ない方を当該対象ブロックの予測ベクトルとし、当該予測ベクトルが上記候補のいずれであるかを示すフラグを設定し符号化する符号化部とを備えるように構成してもよい。 Alternatively, in the moving image encoding device, a first prediction vector deriving unit that calculates a first prediction vector from a motion vector of a neighboring block that is adjacent to the target block on the processing target image, and the similarity calculation The motion vector having the maximum similarity calculated by the unit and the first prediction vector derived by the first prediction vector deriving unit are candidates, and the coding costs based on both prediction vectors are compared, and the one with the smaller coding cost is selected. An encoding unit that sets and encodes a flag indicating which of the candidates is the prediction vector as the prediction vector of the target block may be provided.
あるいは、上記の動画像符号化装置において、処理対象画像上の前記対象ブロックに隣接して存在する近傍ブロックの動きベクトルから第1予測ベクトルを算出する第1予測ベクトル導出部と、処理対象画像上の前記対象ブロックに隣接して存在する近傍ブロックの動きベクトルから第1予測ベクトルとは異なる第2予測ベクトルを算出する第2予測ベクトル導出部と、既に処理された画像上で、前記処理対象ブロックに隣接するブロックと同じ位置、もしくは前記処理対象ブロックに隣接する前記ブロックの周囲に位置するブロックの動きベクトルから、時間方向動きベクトルを算出する時間方向動きベクトル算出部と、類似度算出部が、時間方向に対応する1つもしくは複数の動きベクトルの組を用いて、時間方向の動きベクトルの類似度を求めた際、当該時間方向の類似度が所定の値以上である場合には、前記第1予測ベクトルおよび前記時間方向動きベクトルを予測ベクトル候補とし、それ以外の場合には、前記第1予測ベクトルおよび前記第2予測ベクトルを予測ベクトル候補とする予測ベクトル候補選択部と、両者の予測ベクトルに基づく符号化コストを比較し、符号化コストの少ない方を当該対象ブロックの予測ベクトルとし、当該予測ベクトルが前記予測ベクトル候補のいずれであるかを示すフラグを設定し符号化する符号化部とを備えるように構成してもよい。 Alternatively, in the moving image encoding device, a first prediction vector deriving unit that calculates a first prediction vector from a motion vector of a neighboring block that is adjacent to the target block on the processing target image; A second prediction vector derivation unit that calculates a second prediction vector different from the first prediction vector from motion vectors of neighboring blocks that are adjacent to the target block, and the processing target block on the already processed image A time direction motion vector calculation unit that calculates a time direction motion vector from a motion vector of a block located at the same position as the block adjacent to the processing target block or around the block adjacent to the processing target block, and a similarity calculation unit, A class of motion vectors in the time direction using a set of one or more motion vectors corresponding to the time direction. If the degree of similarity in the time direction is equal to or greater than a predetermined value when the degree is obtained, the first prediction vector and the time direction motion vector are taken as prediction vector candidates. The prediction vector candidate selection unit that uses the prediction vector and the second prediction vector as a prediction vector candidate, and the encoding cost based on both prediction vectors are compared, and the one with the lower encoding cost is set as the prediction vector of the target block, An encoding unit that sets and encodes a flag indicating which prediction vector is the prediction vector candidate may be provided.
動画像復号装置は、処理対象の動画像を動き補償予測を用いて符号化した符号化データを復号したブロックの動きベクトルから対象ブロックの予測ベクトルを生成し、前記対象ブロックの差分動きベクトルと前記予測ベクトルから動きベクトルを復元して、前記符号化データを復号する動画像復号装置において、時間方向もしくは空間方向の1つ以上の方向に対応する2つ以上のブロックの動きベクトルの組を1個もしくは複数個抽出し、それらの動きベクトルの組から前記方向に対応する類似度を算出する類似度算出部と、前記類似度が最大となった方向に対応する方法で算出された動きベクトルを、前記対象ブロックの予測ベクトルもしくは予測ベクトルの1つとして導出する予測ベクトル導出部と、を備えている。 The moving picture decoding device generates a prediction vector of a target block from a motion vector of a block obtained by decoding encoded data obtained by encoding a moving picture to be processed using motion compensated prediction, the difference motion vector of the target block, and the In a moving picture decoding apparatus that restores a motion vector from a prediction vector and decodes the encoded data, one set of motion vectors of two or more blocks corresponding to one or more directions in the time direction or the spatial direction Alternatively, a plurality of extractions, a similarity calculation unit that calculates the degree of similarity corresponding to the direction from the set of motion vectors, and a motion vector calculated by a method corresponding to the direction where the similarity is maximized, A prediction vector deriving unit that derives the prediction vector of the target block or one of the prediction vectors.
前記動きベクトルの組は、次のいずれかによる動きベクトルを用いる。 The motion vector set uses a motion vector according to any of the following.
(1)類似度算出部は、空間方向の方向に対応する類似度を算出する動きベクトルの組として、処理対象画像上の前記対象ブロックの近傍ブロックの中の少なくとも2以上の空間方向に存在する隣接する近傍ブロックの動きベクトルおよび当該対象ブロックから当該方向に離れて存在する近傍ブロックの動きベクトルからなる前記空間方向毎の2つの動きベクトルの組を用いる。 (1) The similarity calculation unit exists as a set of motion vectors for calculating the similarity corresponding to the direction in the spatial direction, in at least two spatial directions among the neighboring blocks of the target block on the processing target image. A set of two motion vectors for each spatial direction, which is composed of a motion vector of an adjacent neighboring block and a motion vector of a neighboring block existing in the direction away from the target block, is used.
(2)類似度算出部は、時間方向の方向に対応する類似度を算出する動きベクトルの組として、既に処理された第1の画像上で、前記処理対象ブロックと同じ位置に存在する、もしくは前記処理対象ブロックの周囲の位置に存在するブロックの動きベクトルと、第1の画像とは別の既に処理された第2の画像上で、前記処理対象ブロックと同じ位置に存在する、もしくは前記処理対象ブロックの周囲の位置に存在するブロックの動きベクトルとの組を用いる。 (2) The similarity calculation unit is present at the same position as the processing target block on the already processed first image as a set of motion vectors for calculating the similarity corresponding to the direction in the time direction, or A motion vector of a block existing at a position around the processing target block and a second image that has already been processed different from the first image, are present at the same position as the processing target block, or the processing A pair with a motion vector of a block existing around the target block is used.
(3)類似度算出部は、時間方向の方向に対応する類似度を算出する動きベクトルの組として、符号化対象画像上で、前記処理対象ブロックに隣接するブロックと、既に処理された画像上で、前記処理対象ブロックに隣接する前記ブロックと同じ位置に存在する、もしくは前記処理対象ブロックに隣接する前記ブロックの周囲の位置に存在するブロックの動きベクトルとの組を、1つ以上用いる。 (3) The similarity calculation unit, as a set of motion vectors for calculating the similarity corresponding to the direction in the time direction, on the encoding target image, on the block adjacent to the processing target block, on the already processed image Thus, one or more pairs of motion vectors of blocks existing at the same position as the block adjacent to the processing target block or existing around the block adjacent to the processing target block are used.
上記の動画像復号装置において、処理対象画像上の前記対象ブロックの近傍ブロックの中の少なくとも2以上の空間方向に存在する隣接する近傍ブロックの動きベクトル及び当該対象ブロックから当該方向に離れて存在する近傍ブロックの動きベクトルからなる前記空間方向毎の動きベクトルの組を抽出し、該動きベクトルの組から算出した動きベクトル間の距離に基づいて類似度を算出する類似度算出部と、前記類似度が最大となったブロックの動きベクトルを、前記対象ブロックの予測ベクトルとして導出する予測ベクトル導出部と、前記予測ベクトルと、前記対象ブロックの差分動きベクトルから動きベクトルを復元する動きベクトル復元部と、を備えるように構成してもよい。 In the above moving image decoding apparatus, the motion vectors of adjacent neighboring blocks existing in at least two spatial directions among the neighboring blocks of the target block on the processing target image, and existing in the direction away from the target block A similarity calculation unit that extracts a set of motion vectors for each spatial direction composed of motion vectors of neighboring blocks and calculates a similarity based on a distance between the motion vectors calculated from the set of motion vectors; and the similarity A prediction vector deriving unit for deriving the motion vector of the block having the maximum value as a prediction vector of the target block, the prediction vector, and a motion vector restoring unit for restoring a motion vector from the differential motion vector of the target block; You may comprise so that it may be provided.
あるいは、上記の動画像復号装置において、処理対象画像上の前記対象ブロックに隣接して存在する近傍ブロックの動きベクトルから第1予測ベクトルを算出する第1予測ベクトル導出部と、処理対象画像上の前記対象ブロックに隣接して存在する近傍ブロックの動きベクトルから第1予測ベクトルとは異なる第2予測ベクトルを算出する第2予測ベクトル導出部と、既に処理された画像上で、前記処理対象ブロックに隣接するブロックと同じ位置、もしくは前記処理対象ブロックに隣接する前記ブロックの周囲に位置するブロックの動きベクトルから、時間方向動きベクトルを算出する時間方向動きベクトル算出部と、類似度算出部が、時間方向に対応する1つもしくは複数の動きベクトルの組を用いて、時間方向の動きベクトルの類似度を求めた際、時間方向の類似度が所定の値以上である場合には、前記第1予測ベクトルおよび前記時間方向動きベクトルを予測ベクトル候補とし、それ以外の場合には、前記第1予測ベクトルおよび前記第2予測ベクトルを予測ベクトル候補とする予測ベクトル候補選択部と、可変長符号復号部で復号された対象ブロックに対するPMVフラグを出力するフラグ選択部と、前記予測ベクトル候補選択部から出力される予測ベクトル候補を、前記類似度算出部から出力された時間方向の類似度、および、前記フラグ選択部から出力されたPMVフラグに応じて切り替える切替部と、を備えるように構成してもよい。 Alternatively, in the above moving image decoding apparatus, a first prediction vector deriving unit that calculates a first prediction vector from a motion vector of a neighboring block that is adjacent to the target block on the processing target image, and on the processing target image A second prediction vector deriving unit that calculates a second prediction vector different from the first prediction vector from motion vectors of neighboring blocks existing adjacent to the target block; and on the already processed image, the processing target block A time direction motion vector calculation unit that calculates a time direction motion vector from a motion vector of a block located at the same position as an adjacent block or around the block adjacent to the processing target block, and a similarity calculation unit Similarity of motion vectors in the time direction using a set of one or more motion vectors corresponding to the direction If the similarity in the time direction is greater than or equal to a predetermined value, the first prediction vector and the time direction motion vector are used as prediction vector candidates; otherwise, the first prediction vector And a prediction vector candidate selection unit that uses the second prediction vector as a prediction vector candidate, a flag selection unit that outputs a PMV flag for the target block decoded by the variable-length code decoding unit, and the prediction vector candidate selection unit The prediction vector candidate may be configured to include a switching unit that switches according to the similarity in the time direction output from the similarity calculation unit and the PMV flag output from the flag selection unit. .
本発明によれば、類似度の高い予測ベクトルを選択するので、予測ベクトルの予測精度が向上する。
また、上記予測ベクトルの選択を類似度によって絞り込むので、上記予測ベクトルを導出する方法を区別する情報(フラグ)の符号量を増加させることなく、実質的な予測ベクトル候補数を追加することが可能であるため、予測精度の高い予測ベクトルを選択することができる。
According to the present invention, since a prediction vector having a high similarity is selected, the prediction accuracy of the prediction vector is improved.
In addition, since the selection of the prediction vector is narrowed down by the similarity, it is possible to add a substantial number of prediction vector candidates without increasing the code amount of information (flag) for distinguishing the method for deriving the prediction vector. Therefore, it is possible to select a prediction vector with high prediction accuracy.
これにより、精度のよい予測ベクトルを選択できるので、差分動きベクトル及び予測残差が小さくなるとともに上記のフラグの符号量が減少するので、結果的に符号化したビットストリームのデータ量が減少し、符号化効率が向上する。 Thereby, since a prediction vector with high accuracy can be selected, the difference motion vector and the prediction residual are reduced, and the code amount of the flag is reduced. As a result, the data amount of the encoded bit stream is reduced, Encoding efficiency is improved.
特に、対象パーティションに隣接するパーティションの一部が同じオブジェクトに属する場合、差分動きベクトルおよびその符号量を小さくする効果がある。 Especially, when a part of the partition adjacent to the target partition belongs to the same object, there is an effect of reducing the difference motion vector and its code amount.
以下、図面を参照して本発明に係る実施形態について詳細に説明する。尚、同じ構成要素については同じ符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, the same code | symbol is attached | subjected about the same component and the overlapping description is abbreviate | omitted.
<<実施形態1>>
<<
<動画像符号化装置の機能構成>
まず、実施形態1に係る動画像符号化装置の機能構成について説明する。
図1は、実施形態1に係る動画像符号化装置の機能構成を示すブロック図であり、同図において、動画像符号化装置1は、インター予測画像生成部13、逆量子化・逆変換部14、変換・量子化部15、予測方式制御部16、可変長符号化部17、動きベクトル推定部18、イントラ予測画像生成部20、加算部21、減算部22、動きベクトル冗長性削減部24、バッファメモリ12から構成される。
<Functional Configuration of Video Encoding Device>
First, the functional configuration of the video encoding apparatus according to the first embodiment will be described.
FIG. 1 is a block diagram illustrating a functional configuration of a video encoding device according to the first embodiment. In FIG. 1, the
変換・量子化部15は、隣接する複数の画素から構成されるブロック画像に分割された入力画像と後述の予測方式制御部16から出力される予測画像との差分値(予測残差画像)を減算部22で計算し、この予測残差画像に対して、DCT(Discrete Cosine Transform)変換および量子化を行うことにより、量子化予測残差データを生成する。ここで、上記量子化とは、上記周波数成分を整数値に対応付ける演算のことである。以下では、処理の対象となるブロックを「対象ブロック」と呼ぶ。なお、上記ブロックのサイズは、例えば、16×16画素であるが、本発明は、ブロックの具体的なサイズによって、限定されるものではない。この量子化予測残差データは、一方では可変長符号化部17に入力され、他方では逆量子化・逆変換部14に入力される。
The transform /
逆量子化・逆変換部14は、量子化予測残差データに対して、逆量子化および逆DCT変換を行うことにより予測残差画像を算出する。この予測残差画像と、予測方式制御部16から出力される予測画像とを加算部21で加算して得られる局所復号画像は、バッファメモリ12に格納される。
The inverse quantization /
イントラ予測画像生成部20は、バッファメモリ12に格納された、対象ブロックと同じ画像内の局所復号画像からイントラ予測画像を生成する。
The intra-predicted
動きベクトル推定部18は、対象ブロックを1つ若しくは複数のパーティションに分割し、各々のパーティションに対して、順次、動きベクトルを割り付ける。具体的には、入力画像と、既にフレーム全体が復号され、バッファメモリ12に格納された参照画像とに基づき、上記複数のパーティションのうち、処理の対象となるパーティション(以下、「対象パーティション」と呼ぶ)に対し、動きベクトルを算出する。また、各パーティションが属するフレームを基準とした参照画像の相対的な位置情報(以下、参照画像相対位置と呼ぶ)を算出する。算出された動きベクトルは、インター予測画像生成部13、動きベクトル冗長性削減部24に対して出力されると共に、バッファメモリ12に格納される。
The motion
インター予測画像生成部13は、前述の動きベクトルおよびバッファメモリ12の参照画像から動き補償によりインター予測画像を生成する。
The inter prediction
予測方式制御部16は、イントラ予測画像生成部20の出力であるイントラ予測画像と、インター予測画像生成部13の出力であるインター予測画像と、入力画像を比較して、対象ブロックの予測モードがイントラ予測かインター予測であるかを判定し、予測モードに応じた予測画像を出力する。ここで、予測モードおよび動きベクトルもバッファメモリ12に順次格納される。
The prediction
動きベクトル冗長性削減部24は、対象パーティションについて、予測ベクトルを決定して、動きベクトル推定部18で推定された動きベクトルとの残差である差分動きベクトルを生成する。
The motion vector
可変長符号化部17は、後述するような出力形態で、量子化予測残差データ、予測モードおよび差分動きベクトルを可変長符号化し、外部へ出力する。 The variable length coding unit 17 performs variable length coding on the quantized prediction residual data, the prediction mode, and the differential motion vector in an output form as described later, and outputs the result to the outside.
<動きベクトル冗長性削減部24の機能構成>
次に、本実施形態1に係る動きベクトル冗長性削減部24の機能構成について詳細に説明する。
図2は、実施形態1に係る動きベクトル冗長性削減部24の機能構成を示すブロック図であり、動きベクトル冗長性削減部24は、バッファメモリ12に格納された符号化済の各パーティションの動きベクトルから動きベクトルの相関を示す類似度を複数算出し、類似度を用いて対象パーティションの近傍に位置するパーティション(以下、近傍パーティションと呼ぶ)の動きベクトルの中から、対象パーティションの予測ベクトルを決定し出力する類似度PMV導出部111と、動きベクトル推定部18から出力された対象パーティションの動きベクトルと、類似度PMV導出部111から出力された対象パーティションの予測ベクトルとの差分を算出して、差分動きベクトルとして出力する減算部191とから構成される。
<Functional Configuration of Motion Vector
Next, the functional configuration of the motion vector
FIG. 2 is a block diagram illustrating a functional configuration of the motion vector
<類似度PMV導出部111の機能構成>
類似度PMV導出部111は、図2に示すように、空間方向類似度算出部120、類似度PMV判定部121、類似度PMV候補抽出部122から構成される。
<Functional Configuration of Similarity
As shown in FIG. 2, the similarity
空間方向類似度算出部120は、各対象パーティションについて、バッファメモリ12に格納された符号化済の動きベクトルを用いて、複数の空間方向に関する類似度を算出し、出力する。
The spatial direction
類似度PMV候補抽出部122は、バッファメモリ12に格納された符号化済の動きベクトルから予測ベクトル候補となる動きベクトルを抽出し、出力する。
The similarity PMV
類似度PMV判定部121は、類似度PMV候補抽出部122で抽出された予測ベクトル候補の中から、空間方向類似度算出部120で算出された類似度の最大類似度を持つ予測ベクトル(類似度PMV)を決定し出力する。
以下、空間方向類似度算出部120、類似度PMV判定部121、類似度PMV候補抽出部122について詳細に説明する。
The similarity
Hereinafter, the spatial direction
<空間方向類似度算出部120の機能構成>
空間方向類似度算出部120は、図2に示すように、空間方向動きベクトル抽出部130、類似度算出部131から構成されている。
<Functional Configuration of Spatial Direction
The spatial direction
まず、空間方向動きベクトル抽出部130について説明する。
動き補償予測では、対象ブロックをさらにパーティションと呼ばれる単位に分割して、処理が行われ、対象ブロックの各パーティションの動きベクトルに基づいて、バッファメモリ12に格納された参照画像上の対応する領域を参照することで、インター予測画像が生成される。
前出の非特許文献1の規格では、16×16、16×8、8×16、8×8、8×4、4×8、4×4画素のパーティションのサイズ(以下、パーティションサイズと呼ぶ)が利用できる。
First, the spatial direction motion
In motion compensation prediction, the target block is further divided into units called partitions, and processing is performed. Based on the motion vector of each partition of the target block, a corresponding region on the reference image stored in the
In the above-mentioned standard of
空間方向動きベクトル抽出部130では、対象パーティションと近傍パーティションとのサイズの関係によって、抽出方法が異なる。
In the spatial direction motion
(1)対象パーティションと近傍パーティションのサイズが同じ場合の参照パーティションの動きベクトルの抽出方法:
対象パーティションおよび近傍パーティションのサイズが同じ場合、例えば1ブロックが1パーティションに相当する場合の参照パーティションの動きベクトルの抽出方法について説明する。
(1) Extraction method of motion vector of reference partition when size of target partition and neighboring partition is the same:
A method of extracting a motion vector of a reference partition when the size of the target partition and the neighboring partition are the same, for example, when one block corresponds to one partition will be described.
図3は、対象パーティションと近傍パーティションとの関係を示す図である。
空間方向動きベクトル抽出部130では、対象パーティション(斜線実線矩形領域)に対して、特定方向(左、上、右上、左上)に位置する2つのパーティションの組(参照パーティション1と参照パーティション2)の動きベクトルを抽出する。これらの参照パーティションは、例えば、以下のように決定する。尚、本発明における、空間方向の動きベクトルの抽出は、下記に説明する方法によって限定されるものではない。
FIG. 3 is a diagram illustrating the relationship between the target partition and neighboring partitions.
In the spatial direction motion
対象パーティションに隣接するパーティションを参照パーティション1(灰色破線矩形領域)とする。
参照パーティション1は、対象パーティションを基準として、左方向をパーティションA、上方向をパーティションB、右上方向をパーティションC、左上方向をパーティションDとする4つのパーティションから構成される。
A partition adjacent to the target partition is defined as a reference partition 1 (gray-dashed rectangular area).
The
さらに、パーティションAの左をパーティションE、パーティションBの上をパーティションF、パーティションCの右上をパーティションG、パーティションDの左上をパーティションHとし、これらを参照パーティション2(無色破線矩形領域)とする。 Further, the left of partition A is partition E, the top of partition B is partition F, the top right of partition C is partition G, the top left of partition D is partition H, and these are referred to as reference partition 2 (colorless dashed rectangular area).
尚、参照パーティション2として、例えば、左方向の場合、パーティションE'を、上方向の場合、パーティションF'を、右上方向の場合、パーティションG'を、左上方向の場合、パーティションH'としてもよい。
The
(2)対象パーティションと近傍パーティションのサイズが異なる場合の参照パーティションの動きベクトルの抽出方法:
対象パーティションと近傍パーティションとのサイズがそれぞれ異なる場合の参照パーティションの動きベクトルの抽出方法について説明する。
(2) Extraction method of motion vector of reference partition when size of target partition and neighboring partition are different:
A method of extracting the motion vector of the reference partition when the target partition and the neighboring partition are different in size will be described.
参照パーティション1は、対象パーティションに隣接するパーティションの位置が対象ブロックの内外に関係なく選択される。つまり、ブロック境界をまたいでパーティションの動きベクトルの抽出を行う。
また、左方向、および、上方向に隣接するパーティションが複数存在する場合は、下記のような基準で選択する。
The
Further, when there are a plurality of partitions adjacent in the left direction and the upward direction, selection is made based on the following criteria.
左方向:近傍パーティションのうち最も上に位置するパーティション
上方向:近傍パーティションのうち最も左に位置するパーティション
Left direction: the topmost partition among neighboring partitions Upward direction: the leftmost partition among neighboring partitions
参照パーティション2は、参照パーティション1を基準として、参照パーティション1と同様の方法で選択する。
図4は、上記の処理に基づいて、選択された参照パーティションの例を示しており、斜線実線矩形領域は対象パーティション、灰色破線矩形領域は参照パーティション1、無色破線矩形領域は参照パーティション2を示している。
The
FIG. 4 shows an example of a reference partition selected based on the above processing. The hatched solid line rectangular area indicates the target partition, the gray broken line rectangular area indicates the
次に、類似度算出部131について説明する。
類似度算出部131は、同じ方向の2つの参照パーティションの動きベクトルから動きベクトル間の距離を算出し、この動きベクトル間の距離を用いて、対象パーティションの4つの近傍パーティション、即ち、パーティションA(左)、パーティションB(上)、パーティションC(右上)、パーティションD(左上)の4種類の方向の類似度を算出し、これらの4種類の方向の類似度を出力する。
Next, the
The
2つの動きベクトルは、参照パーティション1と参照パーティション2、即ち、パーティションAとEの動きベクトル、パーティションBとFの動きベクトル、パーティションCとGの動きベクトル、パーティションDとHの動きベクトルである。
The two motion vectors are
動きベクトル間の距離distは、参照パーティション1の動きベクトルv1の水平成分vx1と垂直成分vy1、参照パーティション2の動きベクトルv2の水平成分vx2、垂直成分vy2を用いて、以下の式(1)で計算できる。
The distance dist between motion vectors is expressed by the following equation (1) using the horizontal component vx1 and vertical component vy1 of the motion vector v1 of the
あるいは、処理量削減のために、次式(2)で計算してもよい。 Alternatively, the following equation (2) may be used to reduce the processing amount.
ここで、|x|は、xの絶対値を示す記号である。 Here, | x | is a symbol indicating the absolute value of x.
参照パーティション1、2の動きベクトルから算出される類似度mvdifは、次式(3)に示すような動きベクトル間の距離distの逆数で表現できる。
The similarity mvdif calculated from the motion vectors of the
尚、類似度は、逆数に限らず、次式(4)で表現してもよい。 The similarity is not limited to the reciprocal, and may be expressed by the following equation (4).
また、距離をそのまま、もしくは距離に重みをかけた次式(5)を類似度としても構わない。この場合には、値が大きいほど類似度が低いことになる。 Also, the distance may be used as it is, or the following expression (5) weighted on the distance may be used as the similarity. In this case, the greater the value, the lower the similarity.
ここで、wは、類似度に対する重みであり、一定値(例えば、w=1)としてもよいし、類似度の方向毎に変更するものとしてもよい。尚、この重みwは、シーケンスやフレーム、スライスなどのヘッダに格納して符号化するようにしても構わない。 Here, w is a weight for the similarity and may be a constant value (for example, w = 1) or may be changed for each direction of the similarity. The weight w may be stored and encoded in a header such as a sequence, a frame, or a slice.
この類似度mvdifは、動きベクトルの距離により算出するものであるため、パーティションが存在する位置も重要な要因となる。つまり、左上方向および右上方向の参照パーティション(パーティションC,D)の位置は、左方向および上方向の参照パーティション(パーティションA,B)に位置よりも√2倍距離が大きい位置に存在するため、その分の補正として、例えば、左上、右上方向の類似度を求める際はw=1/√2に設定し、左、上方向の類似度を求める際はw=1に設定するようにしてもよい。
逆に、左上、右上方向の類似度を小さくする、つまり、左、上方向よりも距離の遠い左上、右上方向のパーティションの動きベクトルを除外するために、左上、右上方向の類似度の重みを大きく(w=√2)してもよい。
Since the similarity mvdif is calculated based on the distance of the motion vector, the position where the partition exists is also an important factor. That is, the positions of the reference partitions (partitions C and D) in the upper left direction and the upper right direction exist at positions that are √2 times larger than the positions in the reference partitions (partitions A and B) in the left direction and the upper direction. As correction for that, for example, when obtaining the similarity in the upper left and upper right directions, w = 1 / √2, and for obtaining the similarity in the left and upper directions, w = 1 may be set. Good.
Conversely, to reduce the similarity in the upper left and upper right directions, that is, to exclude the motion vectors of the upper left and upper right partitions that are farther away than the left and upper directions, the similarity weights in the upper left and upper right directions are set. It may be large (w = √2).
このように、類似度mvdifを求める算定式に重みwを用いることで所定の方向の動きベクトルの選択を制御することができる。例えば、重みwを大きくすれば類似度が小さくなり、この方向の動きベクトルが選択されにくくなり、また、重みwを小さくすれば類似度が大きくなるのでこの方向の動きベクトルが選択されやすくなる。 Thus, the selection of a motion vector in a predetermined direction can be controlled by using the weight w in the calculation formula for obtaining the similarity mvdif. For example, if the weight w is increased, the degree of similarity is reduced, and it becomes difficult to select a motion vector in this direction, and if the weight w is reduced, the degree of similarity is increased, so that a motion vector in this direction is easily selected.
逆に、上記の類似度に、非類似の度合を表す指標を用い、その指標がより小さいことを類似度がより大きいこととして解釈してもよい。
例えば、簡略化のために、非類似の度合を表す指標として、ベクトル間の距離dist自体を用いることができる。
Conversely, an index indicating the degree of dissimilarity may be used for the above-described similarity, and a smaller index may be interpreted as a greater similarity.
For example, for simplification, the distance dist between vectors can be used as an index representing the degree of dissimilarity.
また、参照パーティションが画像外を参照している場合、もしくはイントラ符号化により動きベクトルが存在しない場合は、式(1)、式(2)を用いてベクトル間の距離distを算出することができないので、類似度mvdifも算出できない。この場合、動きベクトルの相関は低いと仮定し、類似度mvdifを0に設定する。 Further, when the reference partition refers to outside the image, or when there is no motion vector due to intra coding, the distance dist between the vectors cannot be calculated using the equations (1) and (2). Therefore, the similarity mvdif cannot be calculated. In this case, it is assumed that the correlation between the motion vectors is low, and the similarity mvdif is set to 0.
また、類似度mvdifとして、次式(6)のように動きベクトル間の角度を用いてもよい。 Further, as the similarity mvdif, an angle between motion vectors may be used as in the following equation (6).
ここで、|A|は、ベクトルAの大きさを示す記号であり、<A・B>はベクトルAとベクトルBの内積を表す式である。 Here, | A | is a symbol indicating the size of vector A, and <A · B> is an expression representing the inner product of vector A and vector B.
動きベクトル間の距離distを2つのベクトルが形成する角度θと仮定すると、類似度mvdif=cosθとなるので、θが0度から180度の間では、cosθは単調に減少する。つまり、動きベクトルが同じ方向を向いている(θ=0度)場合、mvdifは最大値をとり、逆方向を向いている(θ=180度)場合、mvdifは最小値をとるため、cosθを類似度として用いることができる。 Assuming that the distance dist between the motion vectors is the angle θ formed by the two vectors, the similarity mvdif = cos θ, so that cos θ decreases monotonously when θ is between 0 degrees and 180 degrees. That is, when the motion vector is directed in the same direction (θ = 0 degree), mvdif takes the maximum value, and when the motion vector is directed in the reverse direction (θ = 180 degrees), mvdif takes the minimum value, so that cos θ is It can be used as similarity.
以下、類似度mvdifは、式(3)を用いて算定するものとして説明する。 Hereinafter, the similarity mvdif will be described as being calculated using Equation (3).
次に、類似度PMV候補抽出部122について説明する。
類似度PMV候補抽出部122では、各対象パーティションについて、バッファメモリ12に格納されている符号化済動きベクトルの中から、上述した参照パーティション1に相当する動きベクトルを抽出し、予測ベクトル候補とする。つまり、本実施形態1では、対象パーティションの左、上、右上、左上の位置に隣接する最大4種類のパーティションの動きベクトルを抽出する。
Next, the similarity PMV
The similarity degree PMV
次に、類似度PMV判定部121について説明する。
類似度PMV判定部121は、各対象パーティションについて、空間方向類似度算出部120で算出された類似度、および、類似度PMV候補抽出部122で抽出された予測ベクトル候補を入力し、まず、入力された類似度の比較を行い、最も類似度の大きい方向を特定し、その方向に対応する予測ベクトル候補を予測ベクトルとして決定して出力する。
以下、このように算出された予測ベクトルを類似度PMVと呼称する。
Next, the similarity
The similarity
Hereinafter, the prediction vector calculated in this way is referred to as similarity PMV.
上記類似度の比較において、最大類似度が複数存在する場合には、左方向、上方向、右上方向、左上方向の優先順で予測ベクトルを決定する。 In the above similarity comparison, when there are a plurality of maximum similarities, the prediction vector is determined in the priority order of the left direction, the upward direction, the upper right direction, and the upper left direction.
例えば、類似度が最も大きい方向が上方向および左上方向の場合は、優先順位が高い上方向のパーティション(図3では、パーティションB)の動きベクトルを予測ベクトルとする。 For example, when the direction with the highest similarity is the upward direction or the upper left direction, the motion vector of the upward partition (partition B in FIG. 3) having a high priority is used as the prediction vector.
ここで、類似度PMV判定部121では、最大類似度の方向のパーティションの動きベクトルを予測ベクトルとして採用するが、全方向において類似度が小さい場合には、類似度自体の信頼性が低いため、以下のような例外処理を行うことにする。
Here, the similarity
予め設定した値または既に符号化したパーティションの類似度の平均の定数倍などから算出した値を閾値THとし、最大類似度が閾値THよりも小さい場合は、対象パーティションの複数の近傍パーティションの動きベクトル群を参照し、下記の第1予測ベクトルを用いる。
尚、この閾値THは、シーケンスあるいはフレーム、スライス単位でヘッダ情報として符号化するようにしてもよい。
When a threshold value TH is a preset value or a value calculated from an average constant multiple of the similarity of partitions already encoded, and the maximum similarity is smaller than the threshold TH, motion vectors of a plurality of neighboring partitions of the target partition With reference to the group, the following first prediction vector is used.
The threshold TH may be encoded as header information in units of sequences, frames, or slices.
(第1予測ベクトル)
対象パーティションの複数の近傍パーティションの動きベクトル群を参照し、算出する予測ベクトルを以下、第1予測ベクトルと呼ぶ。
上記動きベクトル群を参照して第1予測ベクトルを算出する方法の一つには、対象パーティションの左辺に隣接する左パーティション、対象パーティションの上辺に隣接する上パーティションおよび当該上パーティションの右辺に隣接する右上パーティションの、各々の動きベクトルの中央値がある。
(First prediction vector)
A prediction vector calculated with reference to a plurality of neighboring motion vector groups of the target partition is hereinafter referred to as a first prediction vector.
One of the methods for calculating the first prediction vector with reference to the motion vector group includes a left partition adjacent to the left side of the target partition, an upper partition adjacent to the upper side of the target partition, and a right side of the upper partition. There is a median value for each motion vector in the upper right partition.
その他、第1予測ベクトルを算出する方法としては、例えば、次のいずれものであってもよいが、これらの方法に限定されるものではない。 Other methods for calculating the first prediction vector may be, for example, any of the following, but are not limited to these methods.
・対象パーティションの左パーティション、上パーティションおよび右上パーティションの、各々の動きベクトルの平均値。
・対象パーティションの左パーティション、上パーティションおよび右上パーティションの、各々の動きベクトルの重みつき平均値。
・対象パーティションの左パーティション、上パーティションおよび右上パーティションの、各々の動きベクトルの最大値。
・対象パーティションの左パーティション、上パーティションおよび右上パーティションの、各々の動きベクトルの最小値。
・対象パーティションの左パーティション、上パーティションの各々の動きベクトルの平均値、対象パーティションの上パーティション、右上パーティションの各々の動きベクトルの平均値、および、対象パーティションの左パーティション、右上パーティションの各々の動きベクトルの平均値、の中央値。
・対象パーティションの左パーティション、上パーティションおよび右上パーティションの各々の動きベクトルのうち、対象パーティションの左パーティション、上パーティションおよび右上パーティションの中央値との差分が最も大きな動きベクトル。
The average value of the motion vectors of the left partition, upper partition, and upper right partition of the target partition.
-The weighted average value of each motion vector of the left partition, the upper partition, and the upper right partition of the target partition.
The maximum value of each motion vector of the left partition, upper partition, and upper right partition of the target partition.
-The minimum value of each motion vector of the left partition, upper partition, and upper right partition of the target partition.
The average value of the motion vectors of the left partition and the upper partition of the target partition, the average value of the motion vectors of the upper partition and the upper right partition of the target partition, and the motion vectors of the left partition and upper right partition of the target partition The median of the average value of.
Among the motion vectors of the left partition, upper partition, and upper right partition of the target partition, the motion vector having the largest difference from the median value of the left partition, upper partition, and upper right partition of the target partition.
<類似度PMV導出部111の動作>
類似度PMV導出部111の動作を図5のフローチャートを用いて説明する。
<Operation of Similarity
The operation of the similarity
パーティションA、E(左)、パーティションB、F(上)、パーティションC、G(右上)、パーティションD、H(左上)の順で4種類の類似度を算出するために、ステップS1からステップS6までの処理を4回繰り返す(ステップS1)。 In order to calculate four types of similarity in the order of partition A, E (left), partition B, F (upper), partition C, G (upper right), partition D, H (upper left), step S1 to step S6 The process up to is repeated four times (step S1).
参照パーティション1および参照パーティション2の動きベクトルを抽出する(ステップS2)。
参照パーティション1および参照パーティション2の動きベクトルが抽出できる場合は、フラグをゼロとし、参照パーティション1および参照パーティション2のうち少なくとも1つの動きベクトルが抽出できない場合には、フラグを1とする。
The motion vectors of
When the motion vectors of the
上記フラグがゼロである場合は、式(3)を用いて類似度を算出し、フラグが1である場合には、類似度をゼロに設定する(ステップS3)。 If the flag is zero, the similarity is calculated using equation (3), and if the flag is 1, the similarity is set to zero (step S3).
算出した類似度がこれまでに処理した中で最大かどうかを判定し、最大であれば(ステップS4のYES)、現時点での最大類似度を更新する(ステップS5)。
一方、算出した類似度がこれまでに処理した中で最大でなければ(ステップS4のNO)、ステップS6の処理を行う。
It is determined whether or not the calculated similarity is the maximum among the processes processed so far. If it is the maximum (YES in step S4), the current maximum similarity is updated (step S5).
On the other hand, if the calculated similarity is not the highest among the processes processed so far (NO in step S4), the process of step S6 is performed.
パーティションD、H(左上)の類似度算出処理が終了していれば、ステップS7、そうでなければステップS1に戻って次の方向の処理を行う(ステップS6)。 If the similarity calculation processing for partitions D and H (upper left) has been completed, the process returns to step S7, otherwise returns to step S1 to perform the process in the next direction (step S6).
算出された最大類似度の大きさが閾値以上であれば(ステップS7のYES)、最大類似度の方向に対応する動きベクトルを抽出し、類似度PMVとして出力する(ステップS8)。 If the calculated maximum similarity is greater than or equal to the threshold (YES in step S7), a motion vector corresponding to the direction of the maximum similarity is extracted and output as the similarity PMV (step S8).
一方、算出された最大類似度の大きさが閾値以下であれば(ステップS7のNO)、対象パーティションの第1予測ベクトルを算出して出力する(ステップS9)。例えば、パーティションA(左)、パーティションB(上)、パーティションC(右上)の動きベクトルを抽出し、それらの中央値を予測ベクトルとする。 On the other hand, if the calculated maximum similarity is equal to or smaller than the threshold (NO in step S7), the first prediction vector of the target partition is calculated and output (step S9). For example, motion vectors of the partition A (left), the partition B (upper), and the partition C (upper right) are extracted, and their median values are used as prediction vectors.
<実施形態1の可変長符号化部で生成される符号化ビットストリームの構成>
可変長符号化部17で生成される符号化データは、量子化予測残差データ、予測モード、差分動きベクトルを、前出の非特許文献1において規格化された形式で生成されるビットストリームである。
<Configuration of Encoded Bitstream Generated by Variable Length Encoding Unit of First Embodiment>
The encoded data generated by the variable-length encoding unit 17 is a bit stream generated by quantizing prediction residual data, a prediction mode, and a differential motion vector in a format standardized in the aforementioned
図6のビットストリームは、対象ブロックに該当する部分を示したものであり、先頭のブロックモード情報に続いて、対象ブロック内のパーティション分割数N個のインデクス情報Idxi(0≦i<N)が配置され、その後に動きベクトル情報MVi(0≦i<N)が配置される。 The bit stream in FIG. 6 shows a portion corresponding to the target block. Following the head block mode information, N pieces of index information Idxi (0 ≦ i <N) in the target block are numbered. After that, motion vector information MVi (0 ≦ i <N) is arranged.
ブロックモード情報には、対象ブロックの予測モードや、パーティション分割情報(インター符号化の場合)等が含まれている。
インデクス情報Idxiには、各パーティションが参照する参照画像相対位置の情報が含まれており、動き補償の際に使用する。
動きベクトル情報MViには、ブロック内の各パーティションの差分動きベクトル情報が含まれている。
The block mode information includes the prediction mode of the target block, partition division information (in the case of inter coding), and the like.
The index information Idxi includes information on the relative position of the reference image referenced by each partition, and is used for motion compensation.
The motion vector information MVi includes differential motion vector information of each partition in the block.
<動画像復号装置の機能構成>
次に、実施形態1に係る動画像復号装置の機能構成について説明する。
図7は、実施形態1に係る動画像復号装置2の機能構成を示すブロック図であり、同図において、動画像復号装置2は、可変長符号復号部10、動きベクトル復元部23、バッファメモリ12、インター予測画像生成部13、イントラ予測画像生成部20、予測方式決定部25、逆量子化・逆変換部14、加算部21から構成される。
<Functional configuration of video decoding device>
Next, a functional configuration of the video decoding device according to the first embodiment will be described.
FIG. 7 is a block diagram illustrating a functional configuration of the moving
可変長符号復号部10は、入力された符号化データを可変長復号し、予測モードをバッファメモリ12に格納するとともに、予測方式決定部25に出力し、差分動きベクトルを動きベクトル復元部23に出力し、量子化予測残差データを逆量子化・逆変換部14に出力する。
The variable length
動きベクトル復元部23は、差分動きベクトルとバッファメモリ12に格納された動きベクトルから算出した予測ベクトルを用いて、対象パーティションの動きベクトルを復号して、バッファメモリ12に格納するとともに、インター予測画像生成部13に出力する。
The motion
バッファメモリ12は、処理対象のフレームに対して、復号済みの全ブロック(パーティション)に対して局所復号画像、動きベクトル、予測モードを格納する。
The
インター予測画像生成部13は、動きベクトルおよびバッファメモリ12に格納された復号画像から動き補償により予測画像を生成し、予測方式決定部25に出力する。
The inter prediction
イントラ予測画像生成部20は、バッファメモリ12に格納された、対象ブロックと同じ画像内の局所復号画像からイントラ予測画像を生成し、予測方式決定部25に出力する。
The intra-predicted
予測方式決定部25は、可変長符号復号部10で復号された予測モードに従って、イントラ予測画像生成部20の出力であるイントラ予測画像と、インター予測画像生成部13の出力であるインター予測画像のいずれかを予測画像として加算部21に出力する。
The prediction
逆量子化・逆変換部14は、量子化予測残差データに対して逆量子化および逆DCT変換を行うことにより予測残差画像を復号し、加算部21に出力する。
The inverse quantization /
加算部21は、逆量子化・逆変換部14の出力である予測残差画像と予測方式決定部25の出力である予測画像とを加算することにより復号画像を生成し、バッファメモリ12に格納するとともに、動画像復号装置2の外部に出力する。
The
<動きベクトル復元部23の機能構成>
次に、本発明の特徴である動きベクトル復元部23の機能構成について説明する。
図8は、対象パーティションの動きベクトルを計算する動きベクトル復元部23の機能構成を示すブロック図であり、同図において、動きベクトル復元部23は、類似度PMV導出部111、加算部112から構成されている。
<Functional Configuration of Motion
Next, a functional configuration of the motion
FIG. 8 is a block diagram showing a functional configuration of the motion
類似度PMV導出部111は、図2に示した動画像符号化装置1の構成要素と同じであるから、説明を省略する。
動きベクトル復元部23は、類似度PMV導出部111によりバッファメモリ12に格納された動きベクトルから算出した類似度を用いて予測ベクトルを導出し、導出した予測ベクトルに可変長符号復号部10の出力である差分動きベクトルを加算部112により加算して、対象パーティションの動きベクトルを計算して出力する。
The similarity
The motion
<実施形態1により算出された予測ベクトルの効果>
実施形態1により算出された予測ベクトルを用いる効果について、図9および図10を用いて説明する。
<Effect of prediction vector calculated by
The effect of using the prediction vector calculated by
図9の斜線で示した剛体オブジェクトが横長である場合を例にして説明する。
剛体のオブジェクト内の各部は、一般に同じ動きをすることから相関が高いため、そのオブジェクト内部のパーティションの動きベクトルは相関が高い傾向にある。
しかし、剛体のオブジェクトの内部以外の領域では、一般的にこの剛体オブジェクトの動きとは異なるため、動きベクトルの方向や大きさは一定であるとは言えない。
An example in which the rigid object indicated by the diagonal lines in FIG. 9 is horizontally long will be described.
Since each part in a rigid object generally has the same motion, it has a high correlation. Therefore, the motion vectors of the partitions inside the object tend to have a high correlation.
However, in a region other than the inside of a rigid object, the motion vector direction is generally different from the motion of the rigid object, and thus the direction and size of the motion vector cannot be said to be constant.
また、対象パーティションがオブジェクト境界にある時に、この対象パーティションの近傍パーティションの中央値を用いて予測ベクトルを算出すると、オブジェクト外の領域の近傍パーティションの動きベクトルが予期しない予測ベクトルとして求められる場合が少なくない。 In addition, when the prediction partition is calculated using the median value of the neighboring partition of the target partition when the target partition is at the object boundary, the motion vector of the neighboring partition in the area outside the object is rarely obtained as an unexpected prediction vector. Absent.
例えば、図10において、オブジェクト境界に位置する対象パーティション(斜線領域)の予測ベクトルは、オブジェクト内領域のパーティションの動きベクトルAとオブジェクト外領域のパーティションの動きベクトルB,Cとから中央値で算出することになる。 For example, in FIG. 10, the prediction vector of the target partition (shaded area) located at the object boundary is calculated as a median from the motion vector A of the partition in the object inner area and the motion vectors B and C of the partition in the outer object area. It will be.
しかし、本実施形態1による類似度を用いると、同一オブジェクトに属する方向、ここでは横方向(左方向)の動きベクトルの類似度が大きくなるため、左パーティションの動きベクトルが予測ベクトルとして選択されやすくなる。
つまり、類似度PMVは、近傍パーティションの一部が属するオブジェクトと、対象パーティションの属するオブジェクトとが異なる場合の予測ベクトルを算出するのに効果的である。
However, when the similarity according to the first embodiment is used, the similarity between the motion vectors in the direction belonging to the same object, here, the horizontal direction (left direction) increases, and thus the motion vector of the left partition is easily selected as the prediction vector. Become.
That is, the similarity PMV is effective in calculating a prediction vector when an object to which a part of a neighboring partition belongs and an object to which the target partition belongs are different.
以上のように、本実施形態1によれば、空間方向の動きベクトルを予測ベクトル候補とし、その中から類似度の高い予測ベクトルを選択するので、予測ベクトルの予測精度が向上する。
また、上記予測ベクトルの選択を類似度によって一つに絞り込むので、実質的な予測ベクトル候補数を削減することなく、この予測ベクトルを導出する方法を区別する情報を符号化せずにすむ。
As described above, according to the first embodiment, a motion vector in the spatial direction is used as a prediction vector candidate, and a prediction vector with a high similarity is selected from the motion vector candidates, so that the prediction vector prediction accuracy is improved.
In addition, since the selection of the prediction vector is narrowed down to one according to the degree of similarity, it is not necessary to encode information that distinguishes the method of deriving the prediction vector without reducing the number of substantial prediction vector candidates.
これにより、精度のよい予測ベクトルを選択でき、差分動きベクトルおよび予測残差が小さくなるので、結果的に符号化したビットストリームのデータ量が減少し、符号化効率が向上する。 This makes it possible to select a prediction vector with high accuracy, and the difference motion vector and the prediction residual are reduced. As a result, the data amount of the encoded bit stream is reduced and the encoding efficiency is improved.
<<実施形態2>>
<<
<動画像符号化装置の機能構成>
次に、本実施形態2に係る動画像符号化装置の機能構成について説明する。尚、本実施形態2に係る動画像符号化装置は、図1に示した実施形態1と同様であり、動きベクトル冗長性削減部24の構成要素のみが異なっているため、相違点のみを説明する。
<Functional Configuration of Video Encoding Device>
Next, a functional configuration of the video encoding apparatus according to the second embodiment will be described. Note that the video encoding apparatus according to the second embodiment is the same as that of the first embodiment shown in FIG. 1, and only the components of the motion vector
図11は、本実施形態2に係る動画像符号化装置1の動きベクトル冗長性削減部24の機能構成を示すブロック図であり、同図において、動きベクトル冗長性削減部24は、類似度PMV導出部210、減算部191から構成されている。
減算部191は、図2の同符号の構成要素と同じである。
また、バッファメモリ12には、実施形態1で説明した内容に加えて、時間方向の類似度を算出するために少なくとも1フレーム分の全ブロック(パーティション)の動きベクトルを蓄積するものとする。
FIG. 11 is a block diagram illustrating a functional configuration of the motion vector
The subtracting
In addition to the contents described in the first embodiment, the
<類似度PMV導出部210の機能構成>
類似度PMV導出部210は、図11に示すように、時空間方向類似度算出部220、類似度PMV判定部221、類似度PMV候補抽出部222から構成される。
<Functional Configuration of Similarity
As shown in FIG. 11, the similarity
さらに、時空間方向類似度算出部220は、図11に示されるように、空間方向動きベクトル抽出部130、時間方向動きベクトル抽出部230、類似度算出部231から構成され、4種類の空間方向の類似度に加えて、時間方向の類似度を算出し、出力する。
Furthermore, as shown in FIG. 11, the spatio-temporal direction
空間方向動きベクトル抽出部130は、実施形態1と同様にして、左、上、右上、左上方向に対し、参照パーティション1および参照パーティション2の動きベクトルを抽出して出力する。
The spatial direction motion
時間方向動きベクトル抽出部230は、符号化済フレームにおいて対象パーティションと同じ位置を占めるパーティション(以下、コロケートパーティションと呼ぶ)の動きベクトルの抽出を行う。異なる符号化済みのフレームにおけるコロケートパーティションを各々、参照パーティション1、参照パーティション2とし、それらの参照パーティションの動きベクトルを抽出して出力する。
次に、この時間方向の参照パーティション1および参照パーティション2の動きベクトルの抽出方法について、図12および図13を用いて説明する。
The temporal direction motion
Next, a method of extracting the motion vectors of the
(1)対象パーティションとコロケートパーティションのサイズが同じ場合には、次のように参照パーティション1および参照パーティション2の動きベクトルを抽出する。
図12は、対象パーティションが属するフレームの1フレーム前、および2フレーム前の参照パーティションの動きベクトルを抽出する例を示したものであり、参照パーティション1の動きベクトルの抽出は、対象フレームNの1フレーム前の、対象パーティション(斜線実線矩形領域)と同位置のパーティションcol1(灰色破線矩形領域)の動きベクトルを抽出し、また、参照パーティション2の動きベクトルの抽出は、対象フレームNの2フレーム前の、対象パーティションと同位置のパーティションcol2(無色破線矩形領域)の動きベクトルを抽出する。
(1) When the sizes of the target partition and the collocated partition are the same, the motion vectors of the
FIG. 12 shows an example of extracting the motion vector of the
(2)対象パーティションとコロケートパーティションのサイズが異なる場合には、次のように参照パーティション1および参照パーティション2の動きベクトルを抽出する。
図13は、対象パーティションが属するフレームの1フレーム前の参照パーティションの動きベクトルを抽出する例を示したものである。参照パーティションの動きベクトルの抽出は、図13に示すように、対象パーティションの左上画素位置に対応する参照画像上のパーティションの動きベクトルを選択する。
例えば、フレームNのパーティションX、Y、Zに対応する、フレーム(N-1)の参照パーティションはそれぞれcolX、colY、colZである。
(2) When the sizes of the target partition and the collocated partition are different, the motion vectors of the
FIG. 13 shows an example in which the motion vector of the reference partition one frame before the frame to which the target partition belongs is extracted. For extracting the motion vector of the reference partition, as shown in FIG. 13, the motion vector of the partition on the reference image corresponding to the upper left pixel position of the target partition is selected.
For example, the reference partitions of frame (N−1) corresponding to partitions X, Y, and Z of frame N are colX, colY, and colZ, respectively.
(3)コロケートパーティションがイントラ符号化のブロックに属する場合には、次のように参照パーティション1および参照パーティション2の動きベクトルを抽出する。
コロケートパーティションがイントラ符号化のブロックに属する場合は、コロケートパーティションの周囲の位置に存在するインター符号化されたパーティションの動きベクトルを抽出する。
例えば、参照パーティション1は、対象パーティションの下パーティションと同位置に存在する1フレーム前のインター符号化されたパーティション、参照パーティション2は、対象パーティションの下パーティションと同位置に存在する2フレーム前のインター符号化されたパーティションとする。
また、参照パーティション1、および、参照パーティション2は、同位置である方が好ましい。
また、前記参照パーティションは、下パーティションに限らず、左、上、右上パーティション等から動きベクトルを抽出してもよい。
尚、参照パーティションがイントラ符号化の場合は、前述したように類似度を0としてもよいが、より好適には上記の手法を用いる。
(3) When the collocated partition belongs to an intra-coded block, the motion vectors of the
When a collocated partition belongs to an intra-coded block, a motion vector of an inter-coded partition existing at a position around the collocated partition is extracted.
For example, the
Further, it is preferable that the
Further, the reference partition is not limited to the lower partition, and motion vectors may be extracted from the left, upper, and upper right partitions.
When the reference partition is intra-coded, the similarity may be 0 as described above, but the above method is more preferably used.
類似度算出部231は、空間方向動きベクトル抽出部130から出力された最大4種類の空間方向と、時間方向動きベクトル抽出部230から出力された1種類の時間方向を加えた最大5種類の類似度を式(1)、式(2)、式(3)により算出し、出力する。
The
尚、式(3)に示す重みwを用いて、空間方向に位置する動きベクトルと、時間方向に位置する動きベクトルの選択されやすさを調節してもよい。 It should be noted that the ease of selection of the motion vector located in the spatial direction and the motion vector located in the temporal direction may be adjusted using the weight w shown in Expression (3).
類似度PMV候補抽出部222は、実施形態1の類似度PMV候補抽出部122と同様にして対象パーティションの空間方向(左、上、右上、左上)の近傍パーティションのうち最大4種類の近傍パーティションを抽出し、それらのパーティションの動きベクトルと、前記の時間方向動きベクトル抽出部230の参照パーティション1と同様にして、コロケートパーティションの動きベクトルを抽出し、最大5種類の動きベクトルを予測ベクトル候補として出力する。
Similar to the similarity PMV
類似度PMV判定部221は、時空間方向類似度算出部220(即ち、類似度算出部231)から入力された最大5種類の類似度の比較を行い、最大類似度の方向を特定し、類似度PMV候補抽出部222で抽出された予測ベクトル候補中から、最大類似度に対応する方向の予測ベクトル候補を選択して、予測ベクトル(類似度PMV)として出力する。
The similarity
上記の類似度の判定において、最大類似度の方向が複数存在する場合は、左方向、時間方向、上方向、右上方向、左上方向の優先順で予測ベクトルを決定する。 In the determination of the similarity, when there are a plurality of directions of the maximum similarity, the prediction vector is determined in the priority order of the left direction, the time direction, the upward direction, the upper right direction, and the upper left direction.
また、最大類似度が所定の閾値より小さい場合には、類似度自体の信頼性が低いため、第1予測ベクトルを算出する例外処理を行う。この例外処理は、類似度が低いと判定されているため、時間方向の動きベクトルを第1予測ベクトルの算出対象に追加しなくてもよい。 Also, when the maximum similarity is smaller than a predetermined threshold, since the reliability of the similarity itself is low, an exception process for calculating the first prediction vector is performed. In this exceptional process, since it is determined that the degree of similarity is low, it is not necessary to add the motion vector in the time direction to the calculation target of the first prediction vector.
(類似度算出部231の別の構成)
上述した、時間方向動きベクトル抽出部230では、2フレーム分のコロケートパーティションの動きベクトルを抽出し、時間方向の類似度を算出するが、別の構成をとってもよい。
具体的には、1フレーム分のコロケートパーティションおよびコロケートパーティションの近傍パーティションを参照することにより、時間方向の類似度を算出する手法について説明する。
(Another configuration of the similarity calculation unit 231)
The time direction motion
Specifically, a technique for calculating the temporal similarity by referring to a collocated partition for one frame and a neighboring partition of the collocated partition will be described.
動きベクトル間の距離distは、例えば時間方向では、近傍パーティションの動きベクトルと、コロケートパーティションの近傍パーティションの動きベクトルの差分を、近傍の1つもしくは複数の近傍パーティションで算出し、算出した差分の、平均、重み付き加算、中央値、最小値、最大値、最大値と最小値を排除した平均などの演算により算出される。 For example, in the time direction, the distance dist between the motion vectors is calculated by calculating the difference between the motion vector of the neighboring partition and the motion vector of the neighboring partition of the collocated partition in one or a plurality of neighboring partitions. It is calculated by calculation such as average, weighted addition, median, minimum, maximum, and average excluding maximum and minimum values.
また、時間方向の動きベクトル間の距離と同様、空間方向の動きベクトル間の距離については、例えば、近傍パーティションの動きベクトルと、その近傍パーティションの動きベクトルの差分を、近傍の1つもしくは複数の近傍パーティションで算出し、算出した差分の平均、重み付き加算、中央値、最小値、最大値、最大値と最小値を排除した平均などの演算により算出される。 Similarly to the distance between the motion vectors in the time direction, the distance between the motion vectors in the spatial direction is, for example, the difference between the motion vector of the neighboring partition and the motion vector of the neighboring partition. It is calculated by the neighborhood partition, and is calculated by calculation such as the average of the calculated differences, weighted addition, median value, minimum value, maximum value, average excluding maximum value and minimum value.
また、近傍パーティションの動きベクトルと近傍パーティションの動きベクトルの中央値との差分を、近傍の1つもしくは複数の近傍パーティションで算出し、算出した差分の平均、重み付き加算、中央値、最小値、最大値、最大値と最小値を排除した平均などの演算により、空間方向の動きベクトル間の距離を算出してもよい。 Further, the difference between the motion vector of the neighboring partition and the median value of the motion vector of the neighboring partition is calculated in one or more neighboring partitions, and the average of the calculated differences, weighted addition, median value, minimum value, The distance between motion vectors in the spatial direction may be calculated by a calculation such as a maximum value, an average excluding the maximum value and the minimum value.
上記、動きベクトル間の距離から、空間方向、時間方向、各々の類似度を算出し、空間方向の類似度および時間方向の類似度を用いて、類似度PMVを選択する。 The spatial direction, the temporal direction, and the respective similarities are calculated from the distances between the motion vectors, and the similarity PMV is selected using the spatial direction similarity and the temporal direction similarity.
類似度PMV導出部210の動作は、図5に示した空間方向の最大4種類の類似度を対象にした類似度PMV導出部111の動作に、時間方向の1種類の類似度を加え、ステップS1乃至S8の処理を5種類の類似度に対する処理に置き換えただけであるから説明を省略する。
The operation of the similarity
<実施形態2の可変長符号化部で生成される符号化ビットストリームの構成>
本実施形態2で生成されるビットストリームの構成は、実施形態1で説明したものと同じである。
<Configuration of Encoded Bitstream Generated by Variable Length Encoding Unit of
The configuration of the bitstream generated in the second embodiment is the same as that described in the first embodiment.
<動画像復号装置の機能構成>
次に、実施形態2に係る動画像復号装置の機能構成について説明する。尚、本実施形態2に係る動画像復号装置は、図7に示した実施形態1と同様であり、動きベクトル復元部23の構成要素のみが異なっているため、相違点のみを説明する。
<Functional configuration of video decoding device>
Next, a functional configuration of the video decoding device according to the second embodiment will be described. The moving picture decoding apparatus according to the second embodiment is the same as that of the first embodiment shown in FIG. 7, and only the components of the motion
図14は、本実施形態2に係る動画像復号装置2の動きベクトル復元部23の機能構成を示すブロック図であり、同図において、動きベクトル復元部23は、加算部112、類似度PMV導出部210から構成されている。
動きベクトル復元部23では、対象パーティションごとに、上記の類似度PMV導出部210により決定された予測ベクトルと、可変長符号復号部10で復号された差分動きベクトルを、実施形態1で説明した加算部112で加算することにより動きベクトルを復号する。
FIG. 14 is a block diagram illustrating a functional configuration of the motion
The motion
<実施形態2により算出された予測ベクトルの効果>
次に、実施形態2により算出された予測ベクトルを用いる効果について説明する。
平均的に時間方向の類似度より空間方向の類似度が高いので、実施形態1の方法で符号化すればよいが、例えば、空間方向の相関がない領域では、空間方向に隣接する動きベクトルよりも、時間方向に接する動きベクトルを予測ベクトルとする方が効果的である。
したがって、本実施形態2のように、空間方向の類似度に加えて時間方向の類似度も考慮に入れると、空間方向の相関がない領域では時間方向の動きベクトルが予測ベクトルとして算出されやすくなるので、最適な予測ベクトルを選択することができる。
<Effect of prediction vector calculated by
Next, the effect of using the prediction vector calculated by
Since the similarity in the spatial direction is higher than the similarity in the temporal direction on average, it may be encoded by the method of the first embodiment. For example, in a region having no correlation in the spatial direction, the motion vector adjacent to the spatial direction is used. However, it is more effective to use a motion vector in the time direction as a prediction vector.
Therefore, if the temporal direction similarity is taken into account in addition to the spatial direction similarity as in the second embodiment, the temporal direction motion vector is easily calculated as a prediction vector in a region where there is no spatial direction correlation. Therefore, an optimal prediction vector can be selected.
以上のように、本実施形態2によれば、空間方向および時間方向の動きベクトルを予測ベクトル候補とし、その中から類似度の高い予測ベクトルを選択するので、予測ベクトルの予測精度が向上する。
また、上記予測ベクトルの選択を類似度によって一つに絞り込むので、実質的な予測ベクトル候補数を削減することなく、この予測ベクトルを導出する方法を区別する情報を符号化せずにすむ。
As described above, according to the second embodiment, a motion vector in the spatial direction and the time direction is used as a prediction vector candidate, and a prediction vector having a high similarity is selected from the motion vector candidates, so that the prediction accuracy of the prediction vector is improved.
In addition, since the selection of the prediction vector is narrowed down to one according to the degree of similarity, it is not necessary to encode information that distinguishes the method of deriving the prediction vector without reducing the number of substantial prediction vector candidates.
これにより、精度のよい予測ベクトルを選択でき、差分動きベクトルおよび予測残差が小さくなるので、結果的に符号化したビットストリームのデータ量が減少し、符号化効率が向上する。 This makes it possible to select a prediction vector with high accuracy, and the difference motion vector and the prediction residual are reduced. As a result, the data amount of the encoded bit stream is reduced and the encoding efficiency is improved.
<<実施形態3>>
<<
<動画像符号化装置の機能構成>
次に、本実施形態3に係る動画像符号化装置の機能構成について説明する。尚、本実施形態3に係る動画像符号化装置は、図1に示した実施形態1と同様であり、動きベクトル冗長性削減部24の構成要素のみが異なっているため、相違点のみを説明する。
<Functional Configuration of Video Encoding Device>
Next, a functional configuration of the video encoding apparatus according to the third embodiment will be described. Note that the moving picture coding apparatus according to the third embodiment is the same as that of the first embodiment shown in FIG. 1, and only the components of the motion vector
図15は、本実施形態3に係る動画像符号化装置1の動きベクトル冗長性削減部24の機能構成を示すブロック図であり、同図において、動きベクトル冗長性削減部24は、第1予測ベクトル導出部190、類似度PMV導出部210、PMV判定部193から構成され、複数の予測ベクトル候補を算出し、その候補の中から符号化コストの小さな予測ベクトルを選択し、選択された予測ベクトルを導出する方法を区別する情報であるPMVフラグを出力する。
FIG. 15 is a block diagram illustrating a functional configuration of the motion vector
第1予測ベクトル導出部190は、第1予測ベクトルを導出する。
The first prediction
類似度PMV導出部210は、実施形態2で説明した空間方向および時間方向の類似度を利用して対象パーティションの予測ベクトルを決定して類似度PMVとして出力する。
The similarity
PMV判定部193は、第1予測ベクトル導出部190から出力された第1予測ベクトルと、類似度PMV導出部210から出力された類似度PMVについて、対象パーティションの動きベクトルとの差分動きベクトルをそれぞれ算出し、これらの差分動きベクトルによる符号化コストを算出し、最小の符号化コストである予測ベクトル(第1予測ベクトルまたは類似度PMV)を選択し、選択した予測ベクトルから算出された差分動きベクトルおよびPMVフラグを出力する。
尚、本実施形態では、フラグの符号化を明示的に示すために、PMVフラグの生成を可変長符号化部17とは別の手段として示しているが、可変長符号化部17で直接、PMVフラグを示す選択情報を符号化する構成としても構わない。この場合、PMVフラグの生成処理は可変長符号化部17に含まれるという位置づけになる。ここで、PMVフラグを示す選択情報を符号化するPMV判定部193と可変長符号化部17とを単に「符号化部」と呼ぶ。
The
In this embodiment, in order to explicitly indicate the encoding of the flag, the generation of the PMV flag is shown as a means different from the variable length encoding unit 17, but the variable length encoding unit 17 directly The selection information indicating the PMV flag may be encoded. In this case, the PMV flag generation process is included in the variable length encoding unit 17. Here, the
ここで、符号化コストは、差分動きベクトルを符号化したときの符号量を用いてもよいし、差分動きベクトルにPMVフラグを含めて符号化したときの符号量を用いてもよい。
また、PMVフラグは、複数の予測ベクトル候補の中から予測ベクトルを導出する方法を区別する情報である。本実施形態3では、類似度PMV導出部210または第1予測ベクトル導出部190のいずれを選択したかの区別を表わすものであるから、1ビットで構成され、例えば、ゼロのときには類似度PMV導出部210が選択され、1のときには第1予測ベクトル導出部190が選択されるものと規定する。また、動きベクトル候補の数が複数の場合、PMVフラグは、2ビット以上のフラグとなる。
Here, as the coding cost, the code amount when the differential motion vector is encoded may be used, or the code amount when the differential motion vector is encoded including the PMV flag may be used.
The PMV flag is information for distinguishing a method for deriving a prediction vector from a plurality of prediction vector candidates. In the third embodiment, since the distinction represents whether the similarity
<実施形態3の可変長符号化部で生成される符号化ビットストリームの構成>
実施形態3の動画像符号化装置1の可変長符号化部17で生成される符号化データは、量子化予測残差データ、予測モード、差分動きベクトルを、前出の非特許文献1において規格化された形式で生成されるビットストリームである。
<Configuration of Encoded Bitstream Generated by Variable Length Encoding Unit of
The encoded data generated by the variable-length encoding unit 17 of the moving
図17のビットストリームは、対象ブロックに該当する部分であり、先頭のブロックモード情報に続いて、対象ブロック内のパーティション分割数N個のPMVフラグ情報Flgi(0≦i<N)が配置され、その後にインデクス情報Idxi(0≦i<N)が配置され、その後に動きベクトル情報MVi(0≦i<N)が配置される。
PMVフラグ情報Flgi以外の構成は、実施形態1で説明したものと同様であるため説明を省略する。
The bit stream of FIG. 17 is a portion corresponding to the target block, and following the first block mode information, N pieces of the partition division number PMV flag information Flgi (0 ≦ i <N) in the target block is arranged, After that, index information Idxi (0 ≦ i <N) is arranged, and then motion vector information MVi (0 ≦ i <N) is arranged.
Since the configuration other than the PMV flag information Flgi is the same as that described in the first embodiment, a description thereof will be omitted.
PMVフラグ情報Flgiには、対象ブロック内のパーティションそれぞれに対するPMVフラグを含んでいる。つまり、動画像符号化装置で、どの予測ベクトル導出手法を使用したかを区別する情報を示している。
動画像復号装置では、このPMVフラグを判定することにより、動画像符号化装置と同様の処理を用いて、予測ベクトルを導出することができる。
The PMV flag information Flgi includes a PMV flag for each partition in the target block. That is, the information which distinguishes which prediction vector derivation method was used in the moving image encoder is shown.
By determining this PMV flag, the moving picture decoding apparatus can derive a prediction vector using the same processing as that of the moving picture encoding apparatus.
<動画像復号装置の機能構成>
次に、実施形態3に係る動画像復号装置の機能構成について説明する。動画像復号装置では、上記ビットストリームによって構成された符号化データに基づいて、動画像符号化装置で導出した予測ベクトルと同一の予測ベクトルを復元することができる。また、動画像復号装置は、そのような予測ベクトルに基づいて、復号画像を生成することができる。
尚、本実施形態3に係る動画像復号装置は、図7に示した実施形態1と同様であり、動きベクトル復元部23の構成要素のみが異なっているため、相違点のみを説明する。
<Functional configuration of video decoding device>
Next, a functional configuration of the video decoding device according to the third embodiment will be described. The video decoding device can restore the same prediction vector as the prediction vector derived by the video encoding device based on the encoded data configured by the bit stream. Moreover, the moving image decoding apparatus can generate a decoded image based on such a prediction vector.
Note that the moving picture decoding apparatus according to the third embodiment is the same as that of the first embodiment shown in FIG. 7, and only the components of the motion
図18は、本実施形態3に係る動画像復号装置2の動きベクトル復元部23の機能構成を示すブロック図であり、同図において、動きベクトル復元部23は、加算部112、PMV決定部320から構成され、PMV決定部320で復号した対象パーティションの予測ベクトルと、可変長符号復号部10で復号した差分動きベクトルを加算部112により加算して、動きベクトルを復号する。
さらに、PMV決定部320は、類似度PMV導出部210、フラグ選択部330、第1予測ベクトル導出部190、切替部331から構成されている。
FIG. 18 is a block diagram illustrating a functional configuration of the motion
Further, the
類似度PMV導出部210は、実施形態2で説明したように、空間方向の類似度と時間方向の類似度を用いて、類似度PMVを算出する。
第1予測ベクトル導出部190は、第1予測ベクトルを導出する。
As described in the second embodiment, the similarity
The first prediction
フラグ選択部330は、可変長符号復号部10で復号された対象パーティションに対するPMVフラグを出力する。また、上記では可変長符号復号部10でPMVフラグを復号する構成を示したが、可変長符号復号部10で直接、何れの予測ベクトル候補を選択したかを示す情報である選択情報を直接復号しても構わない。
切替部331は、類似度PMV導出部210からの出力値と、第1予測ベクトル導出部190からの出力値を、フラグ選択部330から出力されたPMVフラグに応じて切り替える。例えば、PMVフラグがゼロであれば、類似度PMV導出部210により出力された類似度PMVを予測ベクトルとして出力し、PMVフラグが1であれば、第1予測ベクトル導出部190により出力された第1予測ベクトルを出力する。
The
The
<PMV決定部320の動作>
PMV決定部320の動作を図19のフローチャートを用いて説明する。
<Operation of
The operation of the
対象パーティションのPMVフラグの判定を行い、PMVフラグがゼロであれば(ステップS10のYES)、実施形態2で説明した類似度PMV導出部210の処理を行って、時空間方向の類似度を用いて算出した類似度PMVを予測ベクトルとして出力する(ステップS11)。
When the PMV flag of the target partition is determined and the PMV flag is zero (YES in step S10), the similarity
一方、PMVフラグが1であれば(ステップS10のNO)、第1予測ベクトル導出部190により算出された第1予測ベクトルを出力する(ステップS12)。
On the other hand, if the PMV flag is 1 (NO in step S10), the first prediction vector calculated by the first prediction
<本実施形態3により算出された予測ベクトルの効果>
非特許文献2に記載された従来のMV Competition手法では、予測ベクトル候補として、中央値を用いた動きベクトルや、空間方向の動きベクトルや時間方向の動きベクトルや、これらから新たに導出した動きベクトル等を使用している。
このように、予測ベクトルの候補数を増やせば、予測ベクトルの予測精度が向上すると考えられるが、どの候補を選択したかを区別する情報の符号量が増加してしまう。
<Effect of prediction vector calculated by
In the conventional MV Completion method described in
As described above, it is considered that the prediction vector prediction accuracy is improved by increasing the number of prediction vector candidates, but the code amount of information for identifying which candidate is selected increases.
一方、本実施形態3では、MV Competition手法における予測ベクトルの候補の一つとして、類似度PMVを使用するため、符号量を小さくする効果がある。
なぜなら、類似度PMVが複数の予測ベクトル候補の中から類似度を用いて候補を1つに絞り込んでいるため、所望の予測ベクトルを示すために必要なフラグを追加する必要がなくなり、類似度PMVとそれ以外の予測ベクトルのいずれかを選択するフラグのみを符号化するだけでよい。
On the other hand, in the third embodiment, the similarity PMV is used as one of the prediction vector candidates in the MV Completion method, so that there is an effect of reducing the code amount.
This is because the similarity PMV is narrowed down to one candidate from among a plurality of prediction vector candidates by using the similarity, so that it is not necessary to add a flag necessary for indicating a desired prediction vector, and the similarity PMV And only a flag for selecting one of the other prediction vectors need be encoded.
したがって、符号化および復号化に上記の同じアルゴリズムを用いて候補を絞り込むようにすれば、上記のようなフラグは1ビットのみとなり、従来の手法に比べて符号量を削減することができる。 Therefore, if candidates are narrowed down using the same algorithm as described above for encoding and decoding, the flag as described above is only one bit, and the amount of code can be reduced as compared with the conventional method.
尚、上述の実施形態3では、類似度PMV(空間方向動きベクトルおよび時間方向動きベクトルの中から最大類似度の動きベクトル)と第1予測ベクトルを予測ベクトル候補とし、符号化コストの小さい方を予測ベクトルとしたが、予測ベクトル候補はこれに限定されるものではなく、その他の組み合わせでもよい。 In the third embodiment, the similarity PMV (the motion vector having the maximum similarity among the spatial direction motion vector and the temporal direction motion vector) and the first prediction vector are used as the prediction vector candidates, and the one with the lower coding cost is selected. Although the prediction vector is used, the prediction vector candidate is not limited to this and may be other combinations.
例えば、類似度PMVと時間方向動きベクトル(コロケートパーティションの動きベクトル)、または、類似度PMVと空間方向動きベクトル(例えば、左方向や上方向に隣接したパーティションの動きベクトル等)を予測ベクトル候補としてもよい。 For example, similarity PMV and temporal direction motion vector (colocated partition motion vector), or similarity PMV and spatial direction motion vector (for example, motion vector of a partition adjacent in the left direction or upward direction) are used as prediction vector candidates. Also good.
以上のように、本実施形態3によれば、類似度により予測ベクトルを選択する方法か、または、第1予測ベクトルとする方法かのいずれか一つに絞り込み、このいずれの予測ベクトルを選択したのかを区別する情報だけを符号化するので、実質的な予測ベクトル候補数を削減することなく、この区別情報の削減が可能となる。 As described above, according to the third embodiment, the prediction vector is narrowed down to one of the method of selecting a prediction vector based on the similarity or the method of using the first prediction vector, and the prediction vector is selected. Since only the information for discriminating between the two is encoded, the discrimination information can be reduced without reducing the substantial number of prediction vector candidates.
これにより、精度のよい予測ベクトルを選択でき、差分動きベクトルおよび予測残差が小さくなるので、結果的に符号化したビットストリームのデータ量が減少し、符号化効率が向上する。 This makes it possible to select a prediction vector with high accuracy, and the difference motion vector and the prediction residual are reduced. As a result, the data amount of the encoded bit stream is reduced and the encoding efficiency is improved.
<<動画像符号化装置の変形例>>
本発明は、上記の実施形態に限定されるものではない。以下では、本発明の動画像符号化装置の変形例について説明する。
<< Modification of Video Encoding Device >>
The present invention is not limited to the above embodiment. Below, the modification of the moving image encoder of this invention is demonstrated.
図20は、本発明の動画像符号化装置の変形例に係る動きベクトル冗長性削減部の機能構成を示すブロック図である。尚、本発明の変形例に係る動画像符号化装置は、図1に示した動画像符号化装置1と同様であり、動きベクトル冗長性削減部24´の構成要素のみが異なっているため、相違点のみ説明する。
FIG. 20 is a block diagram showing a functional configuration of a motion vector redundancy reducing unit according to a modification of the video encoding device of the present invention. Note that the moving image encoding apparatus according to the modification of the present invention is the same as the moving
図20において、動きベクトル冗長性削減部24´は、処理対象画像上の前記対象パーティションに隣接して存在する近傍パーティションの動きベクトルから第1予測ベクトルを算出する第1予測ベクトル導出部190と、処理対象画像上の前記対象パーティションに隣接して存在する近傍パーティションの動きベクトルから第1予測ベクトルとは異なる第2予測ベクトルを算出する第2予測ベクトル導出部192と、既に処理された画像上で、前記対象パーティションと同じ位置、もしくは前記対象パーティションに隣接する前記パーティションの周囲に位置するパーティションの動きベクトルから、時間方向動きベクトルを算出する時間方向動きベクトル算出部194と、時間方向に対応する1つもしくは複数の動きベクトルの組を用いて、時間方向の動きベクトルの類似度を求める類似度算出部231´と、前記時間方向の類似度が所定の値以上である場合には、第1予測ベクトル導出部190から出力される第1予測ベクトル、および、時間方向動きベクトル算出部194から出力される時間方向動きベクトルを予測ベクトル候補とし、それ以外の場合には、前記第1予測ベクトル、および第2予測ベクトル導出部192から出力される第2予測ベクトルを予測ベクトル候補とする予測ベクトル候補選択部195と、両者の予測ベクトルに基づく符号化コストを比較し、符号化コストの少ない方を当該対象ブロックの予測ベクトルとし、当該予測ベクトルが前記予測ベクトル候補のいずれであるかを示すフラグと差分動きベクトルを出力するPMV判定部193´とを備えている。
In FIG. 20, the motion vector
より具体的には、第1予測ベクトルは、対象パーティションの左、上、右上に隣接するパーティションの動きベクトルの中央値を用い、第2予測ベクトルには、対象パーティションの左に隣接するパーティションの動きベクトルを用い、時間方向動きベクトルには、既に処理された画像上で、対象パーティションと同じ位置のパーティションの動きベクトルを用いることが好適であるが、これに限る必要はない。 More specifically, the first prediction vector uses the median value of the motion vectors of the partitions adjacent to the left, top, and right of the target partition, and the second prediction vector uses the motion of the partition adjacent to the left of the target partition. It is preferable to use a vector and use the motion vector of the partition at the same position as the target partition on the already processed image as the time direction motion vector, but it is not necessary to be limited to this.
また、時間方向の類似度は、例えば、以下のように求める。
まず、処理対象画像上で、対象パーティションの上に隣接するパーティションの動きベクトルMV_U0と、前記パーティション位置と同じ位置の前記処理対象画像の1フレーム前のブロックの動きベクトルMV_U1の動きベクトルの組から算出される値をdU、処理対象画像上で、対象パーティションの左に隣接するパーティションの動きベクトルMV_L0と、前記パーティション位置と同じ位置の前記処理対象画像の1フレーム前のブロックの動きベクトルMV_L1の動きベクトルの組から算出される値dLを以下の式で求める。
The similarity in the time direction is obtained as follows, for example.
First, on the processing target image, the motion vector MV_U0 of the partition adjacent on the target partition and the motion vector MV_U1 of the block one frame before the processing target image at the same position as the partition position are calculated. DU, the motion vector MV_L0 of the partition adjacent to the left of the target partition on the processing target image, and the motion vector MV_L1 of the block one frame before the processing target image at the same position as the partition position The value dL calculated from the set of
dU=|MV_U0-MV_U1|
dL=|MV_L0-MV_L1|
dU = | MV_U0-MV_U1 |
dL = | MV_L0−MV_L1 |
次に、dUとdLの最小値を距離distとし、式(3)で類似度を求める。
上記の方法では、対象パーティションの上パーティションか、もしくは左パーティションのいずれかで時間方向の動きベクトルの距離が小さい場合に、算出する時間方向の動きベクトルの類似度が大きくなる。時間的な方向の動きベクトルが類似しているどうかは、空間的な相関があると考えられることからこの方法は好適である。
Next, the minimum value of dU and dL is set as the distance dist, and the similarity is obtained by Expression (3).
In the above method, when the distance of the motion vector in the time direction is small in either the upper partition or the left partition of the target partition, the similarity of the motion vector in the time direction to be calculated increases. This method is suitable because it is considered that there is a spatial correlation in whether the motion vectors in the temporal direction are similar.
尚、上記では、複数のベクトルの組から、距離の最小値を求めているが、最小値に限らず、平均値、中央値などを用いて算出しても良い。 In the above, the minimum value of the distance is obtained from a set of a plurality of vectors. However, the distance may be calculated using an average value, a median value, or the like without being limited to the minimum value.
尚、複数の、動きベクトルの組から求めた類似度を、ある方向(ここでは時間方向)の類似度とする方法は、実施形態3の変形例に限らず、実施形態1、実施形態2などで用いても構わない。 Note that the method of setting the similarity obtained from a plurality of sets of motion vectors as the similarity in a certain direction (here, the time direction) is not limited to the modification of the third embodiment, and the first embodiment, the second embodiment, and the like. You may use in.
このように、動きベクトル冗長性削減部24´では、時間方向の類似度により、予測ベクトル候補を切り替えることが可能となる。
具体的には、時間方向の類似度が所定の値以上である場合には、時間方向の予測ベクトルの予測精度が高いと考えられるため、前記第1予測ベクトルおよび前記時間方向動きベクトルを予測ベクトル候補とし、時間方向の類似度が所定の値以下である場合には、空間方向の予測ベクトルの予測精度が高いと考えられるため、前記第1予測ベクトルおよび前記第2予測ベクトルを予測ベクトル候補とすることで、予測精度の高い予測ベクトルを導出することができる。
As described above, the motion vector
Specifically, since the prediction accuracy of the prediction vector in the time direction is considered to be high when the similarity in the time direction is equal to or greater than a predetermined value, the first prediction vector and the temporal direction motion vector are used as the prediction vector. If the temporal direction similarity is equal to or lower than a predetermined value, it is considered that the prediction accuracy of the prediction vector in the spatial direction is high. Therefore, the first prediction vector and the second prediction vector are regarded as prediction vector candidates. By doing so, a prediction vector with high prediction accuracy can be derived.
<<動画像復号装置の変形例>>
上記の本発明の動画像符号化装置の変形例で作成された符号化ビットストリームを復号する動画像復号装置について説明する。
<< Modification of Video Decoding Device >>
A moving picture decoding apparatus for decoding an encoded bit stream created in a modification of the moving picture encoding apparatus of the present invention will be described.
図21は、本発明の動画像復号装置の変形例に係る動きベクトル復元部の機能構成を示すブロック図である。尚、本発明の変形例に係る動画像復号装置は、図7に示した動画像復号装置2と同様であり、動きベクトル復元部23´の構成要素のみが異なっているため、相違点のみ説明する。尚、上記の動画像復号装置の変形例で説明した構成要素と同じものには同じ符号を付してある。
FIG. 21 is a block diagram showing a functional configuration of a motion vector restoration unit according to a modification of the video decoding device of the present invention. Note that the moving picture decoding apparatus according to the modification of the present invention is the same as the moving
図21において、動きベクトル復元部23´は、第1予測ベクトル導出部190と、第2予測ベクトル導出部192と、時間方向動きベクトル算出部194と、類似度算出部231´と、可変長符号復号部10で復号された対象パーティションに対するPMVフラグを出力するフラグ選択部330と、第1予測ベクトル導出部190、第2予測ベクトル導出部192、時間方向動きベクトル算出部194から出力される予測ベクトル候補を、類似度算出部231'からの出力された時間方向の類似度、および、フラグ選択部330から出力されたPMVフラグに応じて切り替える切替部331´を備えている。
In FIG. 21, the motion
切替部331´は、時間方向の類似度が所定の値以上である場合、PMVフラグがゼロであれば第1予測ベクトル導出部190により出力された第1予測ベクトルを出力し、PMVフラグが1であれば、時間方向動きベクトル算出部194により出力された時間方向動きベクトルを出力する。
逆に、時間方向の類似度が所定の値未満の場合には、PMVフラグがゼロであれば第1予測ベクトル導出部190により出力された第1予測ベクトルを出力し、PMVフラグが1であれば、第2予測ベクトル導出部192により出力された第2予測ベクトルを出力する。
When the similarity in the time direction is equal to or greater than a predetermined value, the
Conversely, when the similarity in the time direction is less than a predetermined value, if the PMV flag is zero, the first prediction vector output by the first prediction
このように、動きベクトル復元部23´では、時間方向の類似度により、予測ベクトル候補を切り替えることが可能となる。したがって、本変形例に係る動画像復号装置を用いることによって、符号化効率の高い符号化データを復号することができる。
As described above, the motion
また、本発明は上述した実施形態に限定されず、本発明の要旨を逸脱しない範囲内で各種の変形、修正が可能であるのは勿論である。
例えば、上述した実施形態を構成する動画像符号化装置の各部(例えば、変換・量子化部、可変長符号化部、逆量子化・逆変換部、動きベクトル推定部、インター予測画像生成部、イントラ予測画像生成部、予測方式制御部、動きベクトル冗長性削減部等)または動画像復号装置の各部(例えば、可変長符号復号部、動きベクトル復元部、インター予測画像生成部、イントラ予測画像生成部、予測方式決定部、逆量子化・逆変換部等)としてコンピュータを機能させるプログラムを作成し、予め記録媒体に書き込んでおき、この記録媒体に記録されたこれらのプログラムをコンピュータに備えられたメモリあるいは記憶装置に格納し、そのプログラムをCPU(Central Processing Unit)等により実行することによって、本発明の目的が達成されることは言うまでもない。
In addition, the present invention is not limited to the above-described embodiment, and various modifications and corrections can be made without departing from the scope of the present invention.
For example, each unit (for example, transform / quantization unit, variable length coding unit, inverse quantization / inverse transform unit, motion vector estimation unit, inter prediction image generation unit, Intra prediction image generation unit, prediction scheme control unit, motion vector redundancy reduction unit, etc.) or each part of the video decoding device (for example, variable length code decoding unit, motion vector restoration unit, inter prediction image generation unit, intra prediction image generation) A program for causing a computer to function as a recording unit, a prediction method determination unit, an inverse quantization / inverse conversion unit, etc., and written in a recording medium in advance, and these programs recorded in the recording medium were provided in the computer The object of the present invention is achieved by storing the program in a memory or a storage device and executing the program by a CPU (Central Processing Unit) or the like. Needless to say, the.
この場合、記録媒体から読み出されたプログラム自体が上述した実施形態の機能を実現することになり、そのプログラムおよびそのプログラムを記録した記録媒体も本発明を構成することになる。
また、上記プログラムは、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することによって上述した実施形態の機能が実現される場合も含まれる。
In this case, the program itself read from the recording medium realizes the functions of the above-described embodiment, and the program and the recording medium recording the program also constitute the present invention.
In addition, the program includes a case where the functions of the above-described embodiment are realized by processing in cooperation with an operating system or another application program based on an instruction of the program.
尚、上述した実施形態の機能を実現するプログラムは、ディスク系(例えば、磁気ディスク、光ディスク等)、カード系(例えば、メモリカード、光カード等)、半導体メモリ系(例えば、ROM、不揮発性メモリ等)、テープ系(例えば、磁気テープ、カセットテープ等)等のいずれの形態の記録媒体で提供されてもよい。あるいは、ネットワークや放送波を介して記憶装置に格納された上記プログラムをサーバコンピュータから直接供給を受けるようにしてもよい。この場合、このサーバコンピュータの記憶装置も本発明の記録媒体に含まれる。 The program for realizing the functions of the above-described embodiments includes a disk system (for example, magnetic disk, optical disk, etc.), a card system (for example, memory card, optical card, etc.), and a semiconductor memory system (for example, ROM, nonvolatile memory). Etc.) and a recording medium of any form such as a tape system (for example, magnetic tape, cassette tape, etc.). Or you may make it receive the said program stored in the memory | storage device via a network or a broadcast wave directly from a server computer. In this case, the storage device of this server computer is also included in the recording medium of the present invention.
また、上述した実施形態における動画像符号化装置および動画像復号装置の一部、または全部を典型的には集積回路であるLSI(Large Scale Integration)として実現してもよい。動画像符号化装置および動画像復号装置の各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。また、集積回路化の手法はLSIに限らず、専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。 Further, a part or all of the moving image encoding device and the moving image decoding device in the above-described embodiment may be realized as an LSI (Large Scale Integration) that is typically an integrated circuit. Each functional block of the moving image encoding device and the moving image decoding device may be individually chipped, or a part or all of them may be integrated into a chip. Further, the method of circuit integration is not limited to LSI, and may be realized with a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology can also be used.
1…動画像符号化装置、12…バッファメモリ、13…インター予測画像生成部、14…逆量子化・逆変換部、15…変換・量子化部、16…予測方式制御部、17…可変長符号化部、18…動きベクトル推定部、20…イントラ予測画像生成部、21…加算部、22…減算部、24…動きベクトル冗長性削減部、111…類似度PMV導出部、191…減算部、120…空間方向類似度算出部、130…空間方向動きベクトル抽出部、131…類似度算出部、121…類似度PMV判定部、122…類似度PMV候補抽出部、210…類似度PMV導出部、220…時空間方向類似度算出部、230…時間方向動きベクトル抽出部、231…類似度算出部、221…類似度PMV判定部、222…類似度PMV候補抽出部、190…第1予測ベクトル導出部、193…PMV判定部、24´…動きベクトル冗長性削減部、192…第2予測ベクトル導出部、193´…PMV判定部、194…時間方向動きベクトル算出部、195…予測ベクトル候補選択部、231´…類似度算出部、2…動画像復号装置、10…可変長符号復号部、23…動きベクトル復元部、25…予測方式決定部、112…加算部、320…PMV決定部、330…フラグ選択部、331…切替部、23´…動きベクトル復元部、331´…切替部。
DESCRIPTION OF
Claims (14)
時間方向もしくは空間方向の1つ以上の方向に対応する2つ以上のブロックの動きベクトルの組を1個もしくは複数個抽出し、それらの動きベクトルの組から前記方向に対応する類似度を算出する類似度算出部と、
前記類似度が最大となった方向に対応する方法で算出された動きベクトルを、前記対象ブロックの予測ベクトルもしくは予測ベクトルの1つとして導出する予測ベクトル導出部を備えることを特徴とする動画像符号化装置。 In a video encoding device that generates a differential motion vector from a motion vector of a target block and a prediction vector and encodes a video,
One or a plurality of sets of motion vectors of two or more blocks corresponding to one or more directions in the time direction or the spatial direction are extracted, and the degree of similarity corresponding to the direction is calculated from the set of motion vectors. A similarity calculator;
A moving picture code comprising: a prediction vector deriving unit for deriving a motion vector calculated by a method corresponding to a direction in which the degree of similarity is maximum as a prediction vector of the target block or one of the prediction vectors Device.
前記類似度算出部は、処理対象画像上の前記対象ブロックの近傍ブロックの中の少なくとも2以上の空間方向に存在する隣接する近傍ブロックの動きベクトル及び当該対象ブロックから当該方向に離れて存在する近傍ブロックの動きベクトルからなる前記空間方向毎の2つの動きベクトルの組を抽出し、それらの動きベクトルの組から算出した動きベクトル間の距離に基づいて類似度を算出し、
前記予測ベクトル導出部は、前記類似度が最大となったブロックの動きベクトルを、前記対象ブロックの予測ベクトルとして導出することを特徴とする請求項2に記載の動画像符号化装置。 A motion vector redundancy reducing unit that generates a differential motion vector from a difference between the prediction vector and the motion vector of the target block; and a variable length encoding unit that generates encoded data using the differential motion vector,
The similarity calculation unit includes a motion vector of adjacent neighboring blocks existing in at least two spatial directions among neighboring blocks of the target block on the processing target image, and a neighborhood existing away from the target block in the direction. Extracting a set of two motion vectors for each spatial direction composed of motion vectors of blocks, and calculating a similarity based on a distance between the motion vectors calculated from the set of motion vectors;
The video encoding apparatus according to claim 2, wherein the prediction vector deriving unit derives a motion vector of a block having the maximum similarity as a prediction vector of the target block.
前記予測ベクトル導出部は、前記類似度算出部の算出した類似度が所定の閾値以下の場合、前記第1予測ベクトルを予測ベクトルとして導出することを特徴とする請求項1乃至5のいずれかに記載の動画像符号化装置。 A first prediction vector derivation unit that calculates a first prediction vector from motion vectors of neighboring blocks adjacent to the target block on the processing target image;
The prediction vector derivation unit derives the first prediction vector as a prediction vector when the similarity calculated by the similarity calculation unit is a predetermined threshold value or less. The moving image encoding apparatus described.
前記類似度算出部が算出した類似度の最大の動きベクトルおよび前記第1予測ベクトル導出部が導出した第1予測ベクトルを候補とし、両者の予測ベクトルに基づく符号化コストを比較し、符号化コストの少ない方を当該対象ブロックの予測ベクトルとし、当該予測ベクトルが上記候補のいずれであるかを示すフラグを設定し符号化する符号化部と、
を備えることを特徴とする請求項1乃至4のいずれかに記載の動画像符号化装置。 A first prediction vector deriving unit that calculates a first prediction vector from motion vectors of neighboring blocks that are adjacent to the target block on the processing target image;
The maximum motion vector of the similarity calculated by the similarity calculation unit and the first prediction vector derived by the first prediction vector deriving unit are candidates, and the encoding costs based on both prediction vectors are compared. An encoding unit that sets and encodes a flag indicating which of the candidates the prediction vector is the prediction vector of the target block,
The moving picture coding apparatus according to claim 1, further comprising:
処理対象画像上の前記対象ブロックに隣接して存在する近傍ブロックの動きベクトルから第1予測ベクトルとは異なる第2予測ベクトルを算出する第2予測ベクトル導出部と、
既に処理された画像上で、前記処理対象ブロックに隣接するブロックと同じ位置、もしくは前記処理対象ブロックに隣接する前記ブロックの周囲に位置するブロックの動きベクトルから、時間方向動きベクトルを算出する時間方向動きベクトル算出部と、
前記類似度算出部が、時間方向に対応する1つもしくは複数の動きベクトルの組を用いて、時間方向の動きベクトルの類似度を求めた際、当該時間方向の類似度が所定の値以上である場合には、前記第1予測ベクトルおよび前記時間方向動きベクトルを予測ベクトル候補とし、それ以外の場合には、前記第1予測ベクトルおよび前記第2予測ベクトルを予測ベクトル候補とする予測ベクトル候補選択部と、
両者の予測ベクトルに基づく符号化コストを比較し、符号化コストの少ない方を当該対象ブロックの予測ベクトルとし、当該予測ベクトルが前記予測ベクトル候補のいずれであるかを示すフラグを設定し符号化する符号化部と、
を備えることを特徴とする請求項1乃至4のいずれかに記載の動画像符号化装置。 A first prediction vector deriving unit that calculates a first prediction vector from motion vectors of neighboring blocks that are adjacent to the target block on the processing target image;
A second prediction vector derivation unit that calculates a second prediction vector different from the first prediction vector from motion vectors of neighboring blocks existing adjacent to the target block on the processing target image;
A time direction for calculating a time direction motion vector from a motion vector of a block located at the same position as the block adjacent to the processing target block or around the block adjacent to the processing target block on an already processed image A motion vector calculation unit;
When the similarity calculation unit calculates the similarity of the motion vector in the time direction using one or a plurality of motion vector pairs corresponding to the time direction, the similarity in the time direction is equal to or greater than a predetermined value. In some cases, the first prediction vector and the temporal motion vector are used as prediction vector candidates. In other cases, the prediction vector candidate selection is performed using the first prediction vector and the second prediction vector as prediction vector candidates. And
Compare the coding costs based on both prediction vectors, set the one with the lower coding cost as the prediction vector of the target block, and set and encode a flag indicating which of the prediction vector candidates the prediction vector is An encoding unit;
The moving picture coding apparatus according to claim 1, further comprising:
時間方向もしくは空間方向の1つ以上の方向に対応する2つ以上のブロックの動きベクトルの組を1個もしくは複数個抽出し、それらの動きベクトルの組から前記方向に対応する類似度を算出する類似度算出部と、
前記類似度が最大となった方向に対応する方法で算出された動きベクトルを、前記対象ブロックの予測ベクトルもしくは予測ベクトルの1つとして導出する予測ベクトル導出部と、を備えることを特徴とする動画像復号装置。 A prediction vector of a target block is generated from a motion vector of a block obtained by decoding encoded data obtained by encoding a moving image to be processed using motion compensation prediction, and a motion vector is generated from the difference motion vector of the target block and the prediction vector. In the moving picture decoding apparatus that restores and decodes the encoded data,
One or a plurality of sets of motion vectors of two or more blocks corresponding to one or more directions in the time direction or the spatial direction are extracted, and the degree of similarity corresponding to the direction is calculated from the set of motion vectors. A similarity calculator;
And a prediction vector deriving unit that derives a motion vector calculated by a method corresponding to a direction in which the similarity is maximized as one of the prediction vector of the target block or one of the prediction vectors. Image decoding device.
前記類似度算出部は、処理対象画像上の前記対象ブロックの近傍ブロックの中の少なくとも2以上の空間方向に存在する隣接する近傍ブロックの動きベクトル及び当該対象ブロックから当該方向に離れて存在する近傍ブロックの動きベクトルからなる前記空間方向毎の動きベクトルの組を抽出し、該動きベクトルの組から算出した動きベクトル間の距離に基づいて類似度を算出し、
前記予測ベクトル導出部は、前記類似度が最大となったブロックの動きベクトルを、前記対象ブロックの予測ベクトルとして導出することを特徴とする請求項10に記載の動画像復号装置。 A motion vector restoration unit that restores a motion vector from the prediction vector and the difference motion vector of the target block;
The similarity calculation unit includes a motion vector of adjacent neighboring blocks existing in at least two spatial directions among neighboring blocks of the target block on the processing target image, and a neighborhood existing away from the target block in the direction. Extracting a set of motion vectors for each spatial direction composed of block motion vectors, and calculating a similarity based on a distance between the motion vectors calculated from the set of motion vectors;
The moving picture decoding apparatus according to claim 10, wherein the prediction vector deriving unit derives a motion vector of a block having the maximum similarity as a prediction vector of the target block.
処理対象画像上の前記対象ブロックに隣接して存在する近傍ブロックの動きベクトルから第1予測ベクトルとは異なる第2予測ベクトルを算出する第2予測ベクトル導出部と、
既に処理された画像上で、前記処理対象ブロックに隣接するブロックと同じ位置、もしくは前記処理対象ブロックに隣接する前記ブロックの周囲に位置するブロックの動きベクトルから、時間方向動きベクトルを算出する時間方向動きベクトル算出部と、
前記類似度算出部が、時間方向に対応する1つもしくは複数の動きベクトルの組を用いて、時間方向の動きベクトルの類似度を求めた際、当該時間方向の類似度が所定の値以上である場合には、前記第1予測ベクトルおよび前記時間方向動きベクトルを予測ベクトル候補とし、それ以外の場合には、前記第1予測ベクトルおよび前記第2予測ベクトルを予測ベクトル候補とする予測ベクトル候補選択部と、
可変長符号復号部で復号された対象ブロックに対するPMVフラグを出力するフラグ選択部と、
前記予測ベクトル候補選択部から出力される予測ベクトル候補を、前記類似度算出部から出力された時間方向の類似度、および、前記フラグ選択部から出力されたPMVフラグに応じて切り替える切替部と、を備えることを特徴とする請求項9に記載の動画像復号装置。 A first prediction vector deriving unit that calculates a first prediction vector from motion vectors of neighboring blocks that are adjacent to the target block on the processing target image;
A second prediction vector derivation unit that calculates a second prediction vector different from the first prediction vector from motion vectors of neighboring blocks that are adjacent to the target block on the processing target image;
A time direction for calculating a time direction motion vector from a motion vector of a block located in the same position as the block adjacent to the processing target block or around the block adjacent to the processing target block on an already processed image A motion vector calculation unit;
When the similarity calculation unit calculates the similarity of the motion vector in the time direction using one or a plurality of motion vector pairs corresponding to the time direction, the similarity in the time direction is equal to or greater than a predetermined value. In some cases, the first prediction vector and the temporal motion vector are used as prediction vector candidates. In other cases, the prediction vector candidate selection is performed using the first prediction vector and the second prediction vector as prediction vector candidates. And
A flag selection unit that outputs a PMV flag for the target block decoded by the variable-length code decoding unit;
A switching unit that switches the prediction vector candidate output from the prediction vector candidate selection unit according to the temporal direction similarity output from the similarity calculation unit and the PMV flag output from the flag selection unit; The moving picture decoding apparatus according to claim 9, further comprising:
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009-262129 | 2009-11-17 | ||
| JP2009262129 | 2009-11-17 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2011062082A1 true WO2011062082A1 (en) | 2011-05-26 |
Family
ID=44059562
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2010/069889 Ceased WO2011062082A1 (en) | 2009-11-17 | 2010-11-09 | Video encoder and video decoder |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2011062082A1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012090397A1 (en) * | 2010-12-28 | 2012-07-05 | 株式会社Jvcケンウッド | Video encoding device, video encoding method, and video encoding program, and video decoding device, video decoding method, and video decoding program |
| JP2013098745A (en) * | 2011-10-31 | 2013-05-20 | Fujitsu Ltd | Moving image decoder, moving image encoder, moving image decoding method, moving image encoding method, moving image decoding program and moving image encoding program |
| WO2013111551A1 (en) * | 2012-01-27 | 2013-08-01 | パナソニック株式会社 | Video encoding method, video encoding device, video decoding method and video decoding device |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003199113A (en) * | 2001-10-05 | 2003-07-11 | Mitsubishi Electric Information Technology Centre Europa Bv | Method for approximating the motion vector of an image block, a computer program for performing the method, a data storage medium storing the computer program, an apparatus for performing the method, and a receiver for a communication system including the apparatus |
| JP2004096752A (en) * | 2002-08-27 | 2004-03-25 | Mitsubishi Electric Information Technology Centre Europa Bv | Method for approximating a motion vector, a computer program for performing the method, a data storage medium for storing the program, a device adapted to perform the method, and a receiver including the device |
| JP2007300209A (en) * | 2006-04-27 | 2007-11-15 | Pioneer Electronic Corp | Moving picture re-encoding apparatus and motion vector discrimination method thereof |
| JP2008283490A (en) * | 2007-05-10 | 2008-11-20 | Ntt Docomo Inc | Moving picture encoding apparatus, method and program, and moving picture decoding apparatus, method and program |
-
2010
- 2010-11-09 WO PCT/JP2010/069889 patent/WO2011062082A1/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003199113A (en) * | 2001-10-05 | 2003-07-11 | Mitsubishi Electric Information Technology Centre Europa Bv | Method for approximating the motion vector of an image block, a computer program for performing the method, a data storage medium storing the computer program, an apparatus for performing the method, and a receiver for a communication system including the apparatus |
| JP2004096752A (en) * | 2002-08-27 | 2004-03-25 | Mitsubishi Electric Information Technology Centre Europa Bv | Method for approximating a motion vector, a computer program for performing the method, a data storage medium for storing the program, a device adapted to perform the method, and a receiver including the device |
| JP2007300209A (en) * | 2006-04-27 | 2007-11-15 | Pioneer Electronic Corp | Moving picture re-encoding apparatus and motion vector discrimination method thereof |
| JP2008283490A (en) * | 2007-05-10 | 2008-11-20 | Ntt Docomo Inc | Moving picture encoding apparatus, method and program, and moving picture decoding apparatus, method and program |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012090397A1 (en) * | 2010-12-28 | 2012-07-05 | 株式会社Jvcケンウッド | Video encoding device, video encoding method, and video encoding program, and video decoding device, video decoding method, and video decoding program |
| JP2013098745A (en) * | 2011-10-31 | 2013-05-20 | Fujitsu Ltd | Moving image decoder, moving image encoder, moving image decoding method, moving image encoding method, moving image decoding program and moving image encoding program |
| WO2013111551A1 (en) * | 2012-01-27 | 2013-08-01 | パナソニック株式会社 | Video encoding method, video encoding device, video decoding method and video decoding device |
| JPWO2013111551A1 (en) * | 2012-01-27 | 2015-05-11 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Moving picture encoding method, moving picture encoding apparatus, moving picture decoding method, and moving picture decoding apparatus |
| US9560353B2 (en) | 2012-01-27 | 2017-01-31 | Sun Patent Trust | Video encoding method, video encoding device, video decoding method and video decoding device |
| US10554999B2 (en) | 2012-01-27 | 2020-02-04 | Sun Patent Trust | Video encoding method, video encoding device, video decoding method and video decoding device |
| US11206423B2 (en) | 2012-01-27 | 2021-12-21 | Sun Patent Trust | Video encoding method, video encoding device, video decoding method and video decoding device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| RU2559740C2 (en) | Method and apparatus for encoding/decoding motion vector | |
| RU2699404C1 (en) | Predictive coding method, a predictive coding device and a predictive coding method of a motion vector and a predictive decoding method, a predictive decoding device and a motion vector prediction decoding program | |
| CN103096080B (en) | Apparatus for estimating motion vector of current block | |
| JP6073404B2 (en) | Video decoding method and apparatus | |
| CN102835111B (en) | Method and apparatus for encoding/decoding an image using a motion vector of a previous block as a motion vector of a current block | |
| KR20200057692A (en) | Methods of motion vector predictor derivation and apparatuses for using the same | |
| JP2019115060A (en) | Encoder, encoding method, decoder, decoding method and program | |
| TW202127890A (en) | Method and apparatus for video conding | |
| JP2016154395A (en) | Method and apparatus for encoding/decoding video using motion vector of previous block as motion vector for current block | |
| WO2011062082A1 (en) | Video encoder and video decoder | |
| JP6019797B2 (en) | Moving picture coding apparatus, moving picture coding method, and program | |
| JP6853697B2 (en) | Time prediction motion vector candidate generator, coding device, decoding device, and program | |
| JP2013517733A (en) | Video encoding / decoding method and apparatus using previous block motion vector as current block motion vector |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10831477 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 1201001516 Country of ref document: TH |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 10831477 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |