WO2011105230A1 - フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造 - Google Patents
フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造 Download PDFInfo
- Publication number
- WO2011105230A1 WO2011105230A1 PCT/JP2011/052921 JP2011052921W WO2011105230A1 WO 2011105230 A1 WO2011105230 A1 WO 2011105230A1 JP 2011052921 W JP2011052921 W JP 2011052921W WO 2011105230 A1 WO2011105230 A1 WO 2011105230A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- filter
- filter coefficient
- value
- coefficient
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Definitions
- the present invention relates to a filter coefficient encoding apparatus that encodes a filter coefficient and a filter coefficient decoding apparatus that decodes the encoded filter coefficient.
- the present invention also relates to a moving picture encoding apparatus including such a filter coefficient encoding apparatus and a moving picture decoding apparatus including such a filter coefficient decoding apparatus.
- the present invention also relates to a data structure of encoded data generated by such a filter coefficient encoding device and referred to by such a filter coefficient decoding device.
- a moving image encoding device In order to efficiently transmit or record moving images, a moving image encoding device is used.
- a specific moving picture encoding method for example, H.264 is used.
- an image (picture) constituting a moving image is obtained by dividing a slice obtained by dividing an image, a macroblock obtained by dividing the slice, and a macroblock.
- a slice obtained by dividing an image
- a macroblock obtained by dividing the slice
- a macroblock obtained by dividing the slice
- a macroblock obtained by dividing the slice
- a macroblock is managed by a hierarchical structure composed of sub-blocks, and are usually encoded for each macroblock.
- AVC employs a configuration in which a deblocking filter that acts on a (local) decoded image is provided and a predicted image is generated with reference to the (local) decoded image with reduced block noise.
- the KTA software employs a configuration in which an ALF (Adaptive Loop Filter) is provided after the deblocking filter and a predicted image is generated with reference to the (local) decoded image after application of ALF (Non-patent Document 1). reference).
- the filter coefficient of ALF is adaptively determined so that the error between the decoded image to which ALF is applied and the original image is minimized for each frame or slice on the decoded image.
- the KTA software adopts a configuration that predictively encodes ALF filter coefficients. That is, the difference between the filter coefficient group used for filtering of the encoding / decoding target frame and the prediction filter coefficient group predicted from the filter coefficient group used for filtering of the encoded / decoded frame is encoded.
- a configuration provided to the image decoding apparatus is employed.
- the number of taps is equal to the filter coefficient group used for filtering the encoding / decoding target frame among the filter coefficient groups used for filtering the encoded / decoded frame as the prediction filter coefficient group.
- the filter coefficient group is used as it is. This is because, in the KTA software, if a filter coefficient group having a different number of taps is used as the prediction filter coefficient group, the sum of the prediction filter coefficients included in the prediction filter coefficient group and the target filter (for the encoding / decoding target frame). This is because the total sum of the filter coefficients of the filter is different, so that the prediction accuracy is greatly reduced.
- the filter coefficient group having the same number of taps as the filter coefficient group used for filtering of the encoding / decoding target frame is used as the prediction filter coefficient group.
- the time interval between the target frame and the encoded / decoded frame that is referenced to generate the prediction filter coefficient group increases. For this reason, there has been a problem that the encoding efficiency does not increase as expected even when predictive encoding is performed, or the encoding efficiency is lowered when predictive encoding is performed.
- the present invention has been made in view of the above problems, and an object of the present invention is to realize a filter coefficient encoding apparatus having higher encoding efficiency than the conventional configuration, and a filter coefficient decoding apparatus corresponding thereto. It is in.
- a filter coefficient encoding apparatus encodes a difference between each filter coefficient of a target filter acting on a target image and a predicted value for the filter coefficient.
- a prediction value generating means for generating the predicted value by multiplying a filter coefficient corresponding to the reference filter acting on the reference image by a weighting coefficient, wherein the predicted value generating means includes each filter of the target filter.
- the absolute value of the difference between the sum of the prediction values for the coefficients and a predetermined value, or the absolute value of the difference between the sum of the prediction values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter is determined in advance. It is characterized in that the value of each weighting factor is set so as to be equal to or less than the threshold value.
- the sum of the predicted values of the filter coefficients of the target filter is close to a predetermined value.
- the predicted value is normalized so that the value or a value close to the sum of the filter coefficients of the reference filter is obtained.
- the encoding efficiency can be increased.
- an encoded frame that is closer in time to the encoding target frame is used as a reference image, and a normalized filter coefficient of the reference filter is used as a filter coefficient of the target filter. Since it can be set as the predicted value, the encoding efficiency can be further increased as compared with the conventional configuration.
- the filter coefficient encoding apparatus operates on a reference image in a filter coefficient encoding apparatus that encodes a difference between each filter coefficient of a target filter that operates on a target image and a predicted value for the filter coefficient.
- a first predicted value generating means for generating a first predicted value by multiplying the corresponding filter coefficient of the reference filter to be weighted by a weighting coefficient, the sum of the first predicted values for each filter coefficient of the target filter A predetermined threshold value, or an absolute value of a difference between a sum of first predicted values for each filter coefficient of the target filter and a sum of filter coefficients of the reference filter
- the first prediction value setting means for setting the value of each weighting coefficient and the second prediction value with the corresponding filter coefficient of the reference filter as the second prediction value so that A value generation means, and a prediction value setting means for setting, as the prediction value, one having a smaller residual with the filter coefficient among the first prediction value and the second prediction value. It is a feature.
- the filter coefficient encoding apparatus operates on a reference image in a filter coefficient encoding apparatus that encodes a difference between each filter coefficient of a target filter that operates on a target image and a predicted value for the filter coefficient.
- First predictive value setting means for setting the value of each weighting factor so as to be equal to or less than a threshold value of 1, and a second predictive value using a filter coefficient corresponding to the reference filter as a second predictive value Predictive value generation means, and when the absolute value of the difference between the sum of the corresponding filter coefficients of the reference filter and a predetermined value is equal to or smaller than a predetermined second threshold value, the target filter The difference between each filter coefficient and the first predicted value is encoded. Otherwise, the difference between each filter coefficient of the target filter and the second predicted value is encoded. It is said.
- encoded data with a smaller code amount can be generated according to the sum of the filter coefficients of the reference filter.
- the moving picture coding apparatus includes the filter coefficient coding apparatus, and performs filtering using the filter coefficient of the target filter on a locally decoded image.
- the above moving picture coding apparatus has the same effects as the filter coefficient coding apparatus.
- the filter coefficient decoding apparatus restores each filter coefficient of the target filter acting on the target image by adding a prediction value to the filter coefficient residual obtained by decoding the encoded data.
- the filter coefficient decoding device includes a prediction value generation unit that generates the prediction value by multiplying a filter coefficient corresponding to the reference filter that acts on the reference image by a weighting coefficient
- the prediction value generation unit includes the target The absolute value of the difference between the sum of the predicted values for each filter coefficient of the filter and a predetermined value, or the absolute value of the difference between the sum of the predicted values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter It is characterized in that the value of each weighting factor is set so that the value is not more than a predetermined threshold value.
- a filter coefficient group having the same number of taps as the number of taps in the prediction filter coefficient group is used as the prediction filter coefficient group.
- the filter coefficient encoding apparatus having a configuration corresponding to the above configuration can be applied to a case where the number of taps of the target filter and the number of taps of the reference filter are different. That is, an encoded frame that is closer in time to the encoding target frame can be used as the reference image regardless of the number of taps. Furthermore, according to the filter coefficient encoding device having a configuration corresponding to the above configuration, even if the number of taps of the target filter and the number of taps of the reference filter are different, the predicted value of the filter coefficient of the target filter The predicted value can be normalized so that the sum of the values becomes a value close to a predetermined value or a value close to the sum of the filter coefficients of the reference filter. Therefore, according to the filter coefficient encoding apparatus having a configuration corresponding to the above configuration, the encoding efficiency can be increased as compared with the conventional configuration.
- the filter coefficient decoding apparatus having the above configuration can decode such encoded data with high encoding efficiency.
- the filter coefficient decoding apparatus restores each filter coefficient of the target filter acting on the target image by adding a prediction value to the filter coefficient residual obtained by decoding the encoded data.
- prediction value generation means for generating the prediction value by multiplying a filter coefficient corresponding to a reference filter acting on a reference image by a weighting coefficient, the first coefficient for each filter coefficient of the target filter The absolute value of the difference between the sum of the predicted values and the predetermined value, or the absolute value of the difference between the sum of the first predicted values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter
- First predictive value setting means for setting the value of each weighting factor so as to be equal to or less than a predetermined threshold value, and a corresponding filter of the reference filter.
- the filter coefficient decoding apparatus restores each filter coefficient of the target filter acting on the target image by adding a prediction value to the filter coefficient residual obtained by decoding the encoded data.
- first prediction value generation means for generating a first prediction value by multiplying a filter coefficient corresponding to a reference filter acting on a reference image by a weighting coefficient, each of the target filters The absolute value of the difference between the sum of the first predicted values for the filter coefficients and a predetermined value, or the sum of the first predicted values for the filter coefficients of the target filter and the sum of the filter coefficients of the reference filter
- First prediction value setting means for setting the value of each weighting factor so that the absolute value of the difference is equal to or less than a predetermined first threshold
- the reference filter Second predicted value generation means using a corresponding filter coefficient as a second predicted value, and an absolute value of a difference between a sum of the corresponding filter coefficients of the reference filter and a predetermined value is determined in advance. If it is less than or equal to
- the filter coefficient encoding device having a configuration corresponding to the above configuration, encoded data with a smaller code amount can be generated according to the sum of the filter coefficients of the reference filter.
- the moving picture decoding apparatus includes the filter coefficient decoding apparatus, and performs filtering using the filter coefficient of the target filter on the local decoded image.
- the data structure of the encoded data according to the present invention is obtained by encoding the filter coefficient residual which is the difference between each filter coefficient of the target filter acting on the target image and the predicted value for the filter coefficient.
- the encoded data has a data structure, and the prediction value is an absolute value of a difference between a sum of prediction values for each filter coefficient of the target filter and a predetermined value, or a prediction for each filter coefficient of the target filter.
- the weighting coefficient set so that the absolute value of the difference between the sum of the values and the sum of the respective filter coefficients of the reference filter acting on the reference image is equal to or less than a predetermined threshold value is used as the corresponding filter coefficient of the reference filter. It is generated by multiplying by.
- the predicted value is generated by multiplying a corresponding filter coefficient of the reference filter by a weighting coefficient, and the weighting coefficient is an absolute value of a difference between a sum of predicted values for each filter coefficient of the target filter and a predetermined value, Alternatively, the absolute value of the difference between the sum of the prediction values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter acting on the reference image is set to be equal to or less than a predetermined threshold value. Therefore, the encoded data is encoded data with high encoding efficiency.
- a filter coefficient group having the same number of taps as that of the prediction filter coefficient group is used as the prediction filter coefficient group. Since the time interval between the decoding target frame and the reference image to which filtering using the reference filter coefficient group is applied becomes large, the encoding efficiency does not increase as expected even if predictive encoding is performed, or However, when predictive encoding is performed, there is a problem that encoding efficiency is lowered.
- encoded data having the above configuration can be generated even when the number of taps of the target filter and the number of taps of the reference filter are different. Furthermore, even if the encoded data having the above configuration has a case where the number of taps of the target filter and the number of taps of the reference filter are different, the sum of the predicted values of the filter coefficients of the target filter and the predetermined value
- the absolute value of the difference, or the absolute value of the difference between the sum of the prediction values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter acting on the reference image is equal to or less than a predetermined threshold value. Generate a predicted value.
- the encoded data having the above configuration is encoded data with high encoding efficiency.
- the predetermined value is, as described above, (1) whether or not the filter coefficient is quantized, and (2) if the filter coefficient is quantized. It can be determined according to the size of the quantization step.
- the filter coefficient encoding apparatus provides a reference for a filter coefficient encoding apparatus that encodes a difference between each filter coefficient of a target filter that acts on a target image and a prediction value for the filter coefficient.
- a prediction value generating unit configured to generate the predicted value by multiplying a corresponding filter coefficient of the reference filter acting on the image by a weighting coefficient; and the predicted value generating unit predicts each filter coefficient of the target filter. Threshold value in which the absolute value of the difference between the sum of the values and the predetermined value or the absolute value of the difference between the sum of the predicted values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter is determined in advance
- the value of each weighting factor is set so as to be as follows.
- the filter coefficient encoding apparatus configured as described above, the filter coefficient having higher encoding efficiency than the conventional configuration in which the filter coefficient group used for filtering of the encoded / decoded frame is the prediction filter coefficient group.
- An encoding device can be realized.
- Embodiment 1 (Moving picture decoding apparatus 1)
- the moving picture decoding apparatus 1 includes H.264 as a part thereof. H.264 / MPEG-4 AVC, and a decoding device including technology adopted in KTA software.
- FIG. 1 is a block diagram showing a configuration of the moving picture decoding apparatus 1.
- the moving picture decoding apparatus 1 includes a variable length code decoding unit 13, a motion vector restoration unit 14, a buffer memory 15, an inter prediction image generation unit 16, an intra prediction image generation unit 17, and a prediction method determination unit 18. , An inverse quantization / inverse transform unit 19, an adder 20, a deblocking filter 50, and an adaptive filter 100.
- the video decoding device 1 generates and outputs a decoded image # 2 by decoding the encoded data # 1.
- the generation of decoded image # 2 by the moving image decoding apparatus 1 is performed in units of macroblocks constituting a frame or subblocks constituting a macroblock.
- variable length code decoding unit 13 performs variable length decoding on the encoded data # 1, and performs differential motion vector # 13a, side information # 13b, quantized prediction residual data # 13c, filter coefficient residual # 13d, and filter parameters. Information # 13e is output.
- the side information # 13b includes a prediction mode, a motion vector, a reference image index, a quantization parameter, and the like.
- the filter parameter information # 13e includes a parameter indicating the number of reference pixels for filtering (the number of taps) and information related to a parameter for specifying on / off of filtering.
- the motion vector restoration unit 14 decodes the motion vector # 14 of the target partition from the differential motion vector # 13a and the motion vector # 15a that has already been decoded and stored in the buffer memory 25.
- the buffer memory 15 stores output image data # 100 output from the adaptive filter 100, motion vector # 14, and side information # 13b.
- the inter prediction image generation unit 16 is decoded by the motion vector restoration unit 14 and based on the motion vector # 15c that has passed through the buffer memory 15 and the reference image # 15d stored in the buffer memory 15, the inter prediction image # 16. Is generated.
- the generation of the inter prediction image # 16 is performed in units of macroblocks or subblocks, for example.
- the motion vector # 15c may be the same motion vector as the motion vector # 14.
- the reference image # 15d corresponds to output image data # 100 output from an application filter 100 described later.
- the intra-predicted image generation unit 17 generates an intra-predicted image # 17 from the local decoded image # 15b stored in the buffer memory 15. More specifically, the intra predicted image generation unit 17 generates an image on the prediction target macroblock of the intra predicted image # 17 using the local decoded image # 15b in the same frame as the prediction target macroblock.
- the prediction method determination unit 18 selects either one of the intra prediction image # 17 and the inter prediction image # 16 based on the prediction mode information included in the side information # 13b, and outputs the selected prediction image # 18. To do.
- Quantization prediction residual data # 13c is supplied to the inverse quantization / inverse transform unit 19 in units of sub-blocks.
- the inverse quantization / inverse transform unit 19 transforms the quantized prediction residual data # 13c into a frequency component by performing inverse quantization, and further performs inverse DCT (Discrete Cosine Transform) transform on the frequency component. As a result, a prediction residual # 19 is generated and output.
- inverse DCT Discrete Cosine Transform
- the adder 20 generates a decoded image # 2 by adding the prediction residual # 19 and the prediction image # 18, and outputs the decoded image # 2.
- the output decoded image # 2 is also supplied to the deblocking filter 50.
- the deblocking filter 50 performs deblocking processing for reducing block distortion at the block boundary or macroblock boundary on the decoded image # 2.
- the image data subjected to the deblocking process is output as a deblocked image # 50.
- the adaptive filter 100 calculates a filter coefficient based on the filter coefficient residual # 13d decoded from the encoded data # 1, and performs filtering using the filter coefficient on the deblocked image # 50, thereby outputting an output image.
- Data # 100 is generated.
- the output image data # 100 is supplied to the buffer memory 15.
- the filtering process in adaptive filter 100 is performed based on side information # 13b decoded from encoded data # 1 and parameters included in filter parameter information # 13e.
- FIG. 2 is a block diagram showing the configuration of the adaptive filter 100.
- the adaptive filter 100 includes a filter processing unit 110, a filter coefficient prediction unit 140, and an adder 101.
- the adder 101 generates the filter coefficient # 101 by adding the filter coefficient residual # 13d decoded from the encoded data # 1 and the prediction filter coefficient # 140 output from the filter coefficient prediction unit 140, Output.
- the filter processing unit 110 generates output image data # 100 by filtering the deblocked image # 50 using the filter coefficient # 101 based on the side information # 13b and the filter parameter information # 13e. And output.
- the filter processing unit 110 for example, each pixel value of the deblocked image # 50 and the filter coefficient # of each pixel value included in the filter reference area specified by the filter parameter information # 13e.
- Each pixel value of output image data # 100 is calculated and output by taking a weighted linear sum based on 101 and further adding an offset based on filter coefficient # 101.
- the filter processing unit 110 calculates the pixel value S0 (x ′, y ′) at the coordinates (x ′, y ′) of the output image data # 100 by a weighted linear sum represented by Expression (1). To do.
- SI (x, y) represents the pixel value at the coordinates (x, y) of the deblocked image # 50, and h (i, j) is multiplied by the pixel value SI (x + i, y + j). It represents the filter coefficient.
- O represents an offset value.
- the filter coefficient h (i, j) corresponds to the filter coefficient # 101.
- R represents a filter reference area that is a set of relative coordinates to be subjected to the weighted linear sum. As described above, the filter reference region R is determined based on, for example, the filter parameter information # 13e. Also, the coordinates (x ′, y ′) and the coordinates (x, y) may be the same coordinates or different coordinates.
- Output image data # 100 composed of the pixel value S0 (x ′, y ′) calculated using the above equation (1) is supplied to the buffer memory 15.
- FIG. 3 is a diagram illustrating each pixel included in the filter reference region R and the corresponding filter coefficient when the filter reference region R is M ⁇ N taps.
- Hij corresponds to the filter coefficient h (i, j) (the same applies hereinafter).
- a filter coefficient h (i, j) is assigned to each pixel in the M ⁇ N tap filter reference region R.
- the filter coefficient prediction unit 140 is a decoded frame of the filter coefficient # 101 that has already been decoded in a frame of the same picture type as the encoded data # 1, or decoded. Based on the filter coefficients already decoded in the middle frame, the prediction filter coefficient # 140 for the filter reference region R on the prediction target frame is calculated. The prediction filter coefficient # 140 is output to the adder 101.
- FIG. 4 is a block diagram showing a configuration of the filter coefficient prediction unit 140.
- the filter coefficient prediction unit 140 includes a filter coefficient storage unit 141, a reference filter coefficient selection unit 142, and a prediction filter coefficient derivation unit (prediction value generation unit) 143.
- the filter coefficient storage unit 141 stores filter coefficient # 101, side information # 13b, and filter parameter information # 13e.
- the filter coefficient stored in the filter coefficient storage unit 141 includes a filter coefficient that has already been decoded in a decoded frame or a filter coefficient that has already been decoded in a frame that is being decoded.
- the filter coefficient storage unit 141 stores side information related to the prediction target frame and filter parameter information related to the prediction target frame.
- side information # 13b side information regarding a decoded frame is represented as side information # 13b (D), and side information regarding a prediction target frame is represented as side information # 13b (P).
- filter parameter information # 13e filter parameter information related to a decoded frame is represented as filter parameter information # 13e (D), and filter parameter information related to a prediction target frame is represented as filter parameter information # 13e (P). To do.
- the reference filter coefficient selection unit 142 refers to the side information # 13b (D) and the side information # 13b (P), and is a frame of the same picture type as the picture type of the prediction target frame.
- the frame with the smallest frame interval hereinafter referred to as frame NF is identified.
- the frame interval can be calculated based on a reference image index for identifying a reference image or an image number assigned to each encoded / decoded frame.
- the reference image index is a number assigned to each reference image in order to identify the reference image stored in the buffer memory, and is usually a reference image that is closer in time to the encoding / decoding target frame or encoding. / A smaller number is assigned to a reference image that is more similar to the decoding target frame. Therefore, the reference image index can be used to specify the frame interval.
- the frame interval can also be calculated based on the difference from the assigned image number. Therefore, the frame having the smallest frame interval with the prediction target frame can also be expressed as a frame having the smallest difference from the image number assigned to the prediction target frame.
- the reference filter coefficient selection unit 142 selects a frame with the smallest reference image index from among the reference images encoded before the prediction target frame as a frame having the smallest frame interval with the prediction target frame. Shall be selected.
- the reference filter coefficient selection unit 142 is an area corresponding to the filter reference area R on the prediction target frame and is a set of filter coefficients for an area on the frame NF (hereinafter referred to as a filter reference area R ′) ( That is, a filter coefficient set used for filtering using the filter reference region R ′ as a filter reference region is output to the prediction filter coefficient deriving unit 143 as a reference filter coefficient set # 142.
- the prediction filter coefficient derivation unit 143 refers to the filter parameter information # 13e (D) and the filter parameter information # 13e (P), and derives the prediction filter coefficient # 140 based on the reference filter coefficient set # 142.
- the filter coefficient used for filtering the prediction target frame there is a correlation between the filter coefficient used for filtering the prediction target frame and the filter coefficient used for filtering the decoded frame.
- the correlation increases as the frame interval between the prediction target frame and the decoded frame decreases.
- the moving picture encoding apparatus that generates the encoded data # 1 can reduce the code amount of the filter coefficient residual # 13d by performing the same operation as described above.
- the moving image decoding apparatus 1 can decode the encoded data # 1 with the small code amount generated as described above by performing the operation of this example.
- the prediction accuracy is high regardless of whether the number of taps in the filter reference region R ′ is equal to or different from the number of taps in the filter reference region R.
- Prediction filter coefficient # 140 can be calculated.
- the prediction filter coefficient deriving unit 143 refers to the number of taps in the filter reference region R ′ obtained by referring to the filter parameter information # 13e (D) and the filter reference obtained by referring to the filter parameter information # 13e (P). The number of taps in region R is compared, and prediction filter coefficient # 140 is derived according to a method selected according to the magnitude relationship.
- the number of taps in the filter reference region R ′ is M ⁇ M taps (M is a natural number), and the number of taps in the filter reference region R is N ⁇ N taps (N is a natural number).
- the prediction filter coefficient deriving unit 143 is an area within the filter reference area R ′ that overlaps with the filter reference area R (hereinafter referred to as a filter reference area R ′) from the set of filter coefficients h ′ (i, j) for the filter reference area R ′.
- the prediction filter coefficient deriving unit 143 uses the following equation (2) based on each filter coefficient h ′ (i, j) for the overlapping region OR to predict the prediction filter coefficient p (i) for the filter reference region R. , J).
- ⁇ in the numerator on the right side of Equation (2) represents that the sum in the filter reference region R ′ (in this example, M ⁇ M taps) of the filter coefficient h ′ (i, j) is taken
- ⁇ in the denominator on the right side of Equation (2) indicates that the sum in the region OR (N ⁇ N taps in this example) of the filter coefficient h ′ (i, j) is taken.
- the calculated prediction filter coefficient p (i, j) is output as prediction filter coefficient # 140.
- the sum of the prediction filter coefficients p (i, j) in the filter reference region R is equal to the sum of the filter coefficients h ′ (i, j) in the filter reference region R ′.
- the prediction filter coefficient deriving unit 143 extracts the filter coefficient for the overlapping area OR from the set of filter coefficients h ′ (i, j) for the filter reference area R ′, and filters the filter in the filter reference area R ′.
- the prediction filter coefficient p (i in the filter reference region R is normalized.
- J) can be expressed as follows.
- the target for normalization is only the filter coefficient that acts on the reference pixel for filtering. Therefore, the prediction filter coefficient deriving unit 143 does not normalize the offset for holding the direct current (low frequency) component of the image represented by Expression (1).
- FIG. 5A shows a filter reference region R ′ that is 9 ⁇ 9 taps and an overlapping region OR that is 5 ⁇ 5 taps, and FIG. 5B is 5 ⁇ 5 taps.
- a filter reference region R is shown.
- the prediction filter coefficient deriving unit 143 Is a prediction filter coefficient p (i, j) for the filter reference region R (i is an arbitrary integer satisfying 3 ⁇ i ⁇ 7, j is an arbitrary integer satisfying 3 ⁇ j ⁇ 7), and the expression (2 ) To calculate from the filter coefficient h ′ (i, j) for the overlapping region OR.
- ⁇ in the numerator on the right side of Formula (2) is specifically (1 ⁇ m ⁇ 9, 1 ⁇ n ⁇ 9).
- ⁇ in the denominator on the right side of Equation (2) is the sum of indexes m and n that satisfy (3 ⁇ m ⁇ 7, 3 ⁇ n ⁇ 7).
- the total sum of the prediction filter coefficients p (i, j) in the filter reference region R is equal to the total sum of the filter coefficients h ′ (i, j) in the filter reference region R ′.
- a prediction filter coefficient p (i, j) can be calculated.
- the code amount of the filter coefficient residual # 13d can be reduced by calculating the prediction filter coefficient using the same method as in this example.
- the moving image decoding apparatus 1 can decode the encoded data # 1 with the small code amount generated as described above by performing the operation of this example.
- prediction filter coefficient deriving unit 143 may be configured to derive the prediction filter coefficient p_center for the center pixel of the filter reference region R using the following equation (3).
- R1 represents a region excluding the central pixel of the filter reference region R in the filter reference region R
- h (i, j) is a filter coefficient for the frame being decoded and has already been decoded. Represents the filter coefficient.
- the prediction filter coefficient p_center is derived using the tendency that the sum of the filter coefficients h (i, j) in the filter reference region R is close to 1. be able to.
- a value corresponding to the quantized coefficient is used instead of taking a difference from 1. For example, since the filter coefficient quantized with 1/256 as a step is multiplied by 256, a difference from 256 may be used.
- the prediction filter coefficient p_center for the center pixel is derived by taking the difference from the value corresponding to the quantization step, instead of taking the difference from 1. What is necessary is just to be the structure to do.
- the prediction filter coefficient p_center for the center pixel can be derived. With such a configuration, the code amount of the filter coefficient residual # 13d included in the encoded data # 1 can be reduced.
- the filter coefficient included in the encoded data # 1 is generated by generating the prediction filter coefficient for the center pixel using the same expression as Expression (3).
- the code amount of the residual # 13d can be reduced.
- the moving picture decoding apparatus 1 can decode the encoded data # 1 with a small code amount of the filter coefficient residual # 13d by adopting the above configuration.
- the prediction filter coefficient deriving unit 143 calculates the sum of the filter coefficients h ′ (i, j) in the filter reference region R ′ and the prediction filter coefficients p (i, j) in the filter reference region R.
- the normalization is expressed so that the sums are equal, in the actual process, the quantization error associated with the use of the quantized filter coefficients accumulates, whereby the filter coefficient h in the filter reference region R ′ is accumulated.
- the sum of '(i, j) and the sum of the prediction filter coefficients p (i, j) in the filter reference region R are not completely equal.
- the prediction filter coefficient deriving unit 143 in this example has the sum of the filter coefficients h ′ (i, j) in the filter reference region R ′ close to the sum of the prediction filter coefficients p (i, j) in the filter reference region R.
- the prediction filter coefficient p (i, j) is normalized.
- the prediction filter coefficient deriving unit 143 sets the prediction filter coefficient p (i, j) so that the total sum of the prediction filter coefficients p (i, j) is close to the target value. It can be expressed as normalizing.
- the prediction filter coefficient deriving unit 143 uses the expression in which the numerator ⁇ h ′ (m, n) on the right side of Expression (2) is replaced with ⁇ h ′ (m, n) + d, to predict the prediction filter for the filter reference region R. It is good also as a structure which calculates the coefficient p (i, j).
- d is a parameter having a predetermined positive or negative value, and its specific value is determined according to the characteristics of the image to be filtered.
- the parameter d a value determined in advance according to the sequence of images to be filtered can be used.
- a specific value of the parameter d it is preferable to use a parameter whose absolute value is equal to or less than a predetermined threshold value.
- the sum of the prediction filter coefficients p (i, j) in the filter reference region R is calculated from the sum of the filter coefficients h ′ (i, j) in the filter reference region R ′.
- the code amount of the filter coefficient residual # 13d can be further reduced by calculating the prediction filter coefficient p (i, j) so as to be different by a predetermined value. The above configuration can be suitably applied in such a case.
- the filter reference region R ′ is 9 ⁇ 9 taps and the filter reference region R is 5 ⁇ 5 taps has been described as an example.
- the present invention is not limited to this.
- the present invention can be applied to the case where the filter reference region R ′ has M ⁇ N taps and the filter reference region R has M ′ ⁇ N ′ taps.
- the calculation process of the prediction filter coefficient # 140 by the filter coefficient prediction unit 140 when N> M is as follows (specific example 1-2).
- the prediction filter coefficient deriving unit 143 uses the following equation (4) based on each filter coefficient h ′ (i, j) included in the filter reference region R ′ to calculate the region in the filter reference region R: Therefore, the prediction filter coefficient p (i, j) for the region overlapping with the filter reference region R ′ (hereinafter referred to as the overlapping region OR ′) is calculated.
- ⁇ in the denominator on the right side of Expression (4) represents the total sum of the filter coefficients h ′ (i, j) in the filter reference region R ′ (M ⁇ M taps).
- a in the numerator of Expression (4) is a parameter that defines the total sum of the prediction filter coefficients p (i, j) in the overlapping region OR ′.
- a specific value of the parameter d ′ for example, a value determined in advance according to the sequence of images to be filtered can be used as in the parameter d described above.
- a specific value of the parameter d ′ it is preferable to use a parameter whose absolute value is equal to or less than a predetermined threshold value.
- the calculated prediction filter coefficient p (i, j) is output as prediction filter coefficient # 140.
- the numerator of equation (4) is not A itself, but may be obtained by multiplying A by a value corresponding to the quantization coefficient. For example, since the filter coefficient quantized using 1/256 as a step is multiplied by 256, the numerator of equation (4) may be 256 ⁇ A.
- the prediction filter coefficient deriving unit 143 sets the prediction filter coefficient p (i, j) for the area on the filter reference area R and not included in the overlapping area OR ′ to 0.
- the prediction filter coefficient deriving unit 143 makes the absolute value of the difference between the sum of the prediction filter coefficients p (i, j) and 1 in the overlapping region OR ′ equal to or less than a predetermined threshold value.
- the prediction filter coefficient p (i, j) in the overlapping region OR ′ is normalized, and the prediction filter coefficient p (i, j) for the region on the filter reference region R that is not included in the overlapping region OR ′ is set to 0. It can be expressed that the prediction filter coefficient p (i, j) in the filter reference region R is derived.
- FIG. 6A shows a filter reference region R ′ that is 5 ⁇ 5 taps
- FIG. 6B is a filter reference region R that is 9 ⁇ 9 taps and 5 ⁇ 5 taps.
- An overlapping area OR ′ is shown.
- a prediction filter coefficient deriving unit when the overlapping area OR ′ is specified by (1 ⁇ i ⁇ 5, 1 ⁇ j ⁇ 5) using indexes i and j, a prediction filter coefficient deriving unit.
- 143 is a prediction filter coefficient p (i, j) (i is an arbitrary integer satisfying 1 ⁇ i ⁇ 5, and j is an arbitrary integer satisfying 1 ⁇ j ⁇ 5 for the overlapping region OR ′ in the filter reference region R ) Is calculated from the filter coefficient h ′ (i, j) for the filter reference region R ′ using Equation (4).
- ⁇ in the denominator on the right side of Equation (4) is specifically (1 ⁇ m ⁇ 5, 1 ⁇ n ⁇ 5). This is the sum of the indices m and n to be satisfied.
- the prediction filter coefficient deriving unit 143 predicts the prediction filter coefficient p (i, j) for the area on the filter reference area R and not including the overlapping area OR ′. Is set to 0.
- the sum of the prediction filter coefficients p (i, j) in the filter reference region R is equal to A.
- the sum of filter coefficients in the filter reference region R tends to be close to 1. Therefore, in the moving picture encoding apparatus that generates the encoded data # 1, the prediction filter coefficients are generated so that the sum of the prediction filter coefficients in the filter reference region R is close to 1, so that it is included in the encoded data # 1.
- the amount of code of the filter coefficient residual # 13d that can be reduced can be reduced. Also, the moving picture decoding apparatus 1 can decode the encoded data # 1 with a small code amount of the filter coefficient residual # 13d by adopting the above configuration.
- the prediction filter coefficient p_center for the center pixel of the filter reference region R may be derived using Expression (3).
- the filter reference region R ′ is 5 ⁇ 5 taps and the filter reference region R is 9 ⁇ 9 taps has been described as an example.
- the present invention is not limited to this.
- the present invention can be applied to the case where the filter reference region R ′ has M ⁇ N taps and the filter reference region R has M ′ ⁇ N ′ taps.
- the prediction filter coefficient deriving unit 143 normalizes each filter coefficient h ′ (i, j) included in the filter reference region R ′ by the equation (4), so that the prediction filter coefficient p (i) for the filter reference region R is obtained. , J).
- the calculated prediction filter coefficient p (i, j) is output as prediction filter coefficient # 140.
- the sum of the prediction filter coefficients p (i, j) in the filter reference region R ′ is a value close to 1.
- the numerator of Expression (4) may be a value corresponding to the quantization coefficient instead of A itself as described above.
- the sum of filter coefficients in the filter reference region R tends to be close to 1. Therefore, in the moving picture encoding apparatus that generates the encoded data # 1, the prediction filter coefficients are generated so that the sum of the prediction filter coefficients in the filter reference region R is close to 1, so that it is included in the encoded data # 1.
- the amount of code of the filter coefficient residual # 13d that can be reduced can be reduced. Also, the moving picture decoding apparatus 1 can decode the encoded data # 1 with a small code amount of the filter coefficient residual # 13d by adopting the above configuration.
- the prediction filter coefficient p_center for the center pixel of the filter reference region R may be derived using Expression (3).
- the above operation is performed when the absolute value of the sum of the filter coefficients h ′ (i, j) in the filter reference region R ′ subtracted from 1 is equal to or larger than a predetermined value. It is good also as such a structure.
- the variable length decoding unit 13, the adder 101, and the filter coefficient prediction unit 140 are added to the filter coefficient residual # 13d included in the encoded data # 1. Based on this, it can be regarded as a filter coefficient decoding device that decodes the filter coefficient # 101. Therefore, the video decoding device 1 according to the present embodiment includes such a filter coefficient decoding device, and is a video decoding device that performs filtering using the filter coefficient # 101 on the deblocked image # 50. It can also be expressed.
- the moving picture encoding apparatus 2 includes H.264 as a part thereof. H.264 / MPEG-4 AVC, and a decoding device including technology adopted in KTA software.
- FIG. 7 is a block diagram showing a configuration of the moving picture encoding apparatus 2.
- the moving image encoding device 2 includes a transform / quantization unit 21, a variable length encoding unit 22, an inverse quantization / inverse transform unit 23, a buffer memory 24, an intra predicted image generation unit 25, an inter prediction image generation unit 25, and an inter prediction image generation unit 25.
- a prediction image generation unit 26, a prediction scheme control unit 28, a motion vector redundancy reduction unit 29, an adder 31, a subtractor 32, a deblocking filter 50, and an adaptive filter 100 ′ are provided.
- the input image # 10 divided into macro blocks is input to the moving image encoding device 2.
- the moving image encoding apparatus 2 is an apparatus that performs an encoding process on the input image # 10 and outputs encoded data # 1.
- the transform / quantization unit 21 converts the difference image # 32 between the input image # 10 divided into macroblocks and a prediction image # 28a output from the prediction scheme control unit 28, which will be described later, into frequency components by DCT conversion. After conversion, the frequency component is quantized to generate quantized prediction residual data # 21.
- the quantization is an operation for associating the frequency component with an integer value.
- the DCT transform and quantization are performed in units of blocks obtained by dividing a macroblock.
- a macro block to be processed is referred to as a “target macro block”
- a block to be processed is referred to as a “target block”.
- the inverse quantization / inverse transform unit 23 decodes the quantized prediction residual data # 21 and generates a prediction residual # 23. Specifically, the inverse quantization / inverse transform unit 23 performs inverse quantization of the quantized prediction residual data # 21, that is, associates integer values constituting the quantized prediction residual data # 21 with frequency components. Then, inverse DCT transformation of the frequency component, that is, inverse transformation to the pixel component of the target macroblock based on the frequency component is performed to generate prediction residual # 23.
- the adder 31 adds the prediction residual # 23 and the prediction image # 28a to generate a decoded image # 31.
- the generated decoded image # 31 is supplied to the deblocking filter 50.
- the deblocking filter 50 performs a deblocking process on the block boundary or the macroblock boundary in the decoded image # 31.
- the image data subjected to the deblocking process is output as a deblocked image # 50.
- the adaptive filter 100 ′ performs filtering on the deblocked image # 50 and outputs output image data # 100 ′ to the buffer memory 24.
- the adaptive filter 100 ′ also outputs a filter coefficient residual # 102 that is a residual between the filter coefficient used for filtering and the predicted filter coefficient to the variable length coding unit 22.
- the adaptive filter 100 ′ also outputs to the variable length encoding unit 22 a parameter indicating the number of reference pixels for filtering (the number of taps) and filter parameter information that is information relating to parameters for specifying on / off of filtering. To do. Since the configuration of the adaptive filter 100 ′ will be described later, the description thereof is omitted here.
- the intra-predicted image generation unit 25 extracts the local decoded image # 24a (the already decoded region in the same frame as the target macroblock) from the output image data # 100 ′ stored in the buffer memory 24, and based on the local decoded image # 24a Intra-frame prediction is performed to generate intra-predicted image # 25.
- the inter prediction image generation unit 26 calculates and assigns a motion vector # 27 to the target block on the input image # 10 by using the reference image # 24b in which the entire frame has already been decoded and stored in the buffer memory 24. .
- the calculated motion vector # 27 is output to the inter prediction image generation unit 26 and the motion vector redundancy reduction unit 29 and is stored in the buffer memory 24.
- the inter predicted image generation unit 26 performs motion compensation on the reference image # 24b based on the motion vector # 27 for each block, and generates an inter predicted image # 26.
- the prediction method control unit 28 compares the intra prediction image # 25, the inter prediction image # 26, and the input image # 10 in units of macro blocks, and the intra prediction image # 25 or the inter prediction image # 26. Any one of them is selected and output as a predicted image # 28a. In addition, the prediction method control unit 28 outputs a prediction mode # 28b that is information indicating which one of the intra prediction image # 25 or the inter prediction image # 26 is selected. The predicted image # 28a is input to the subtracter 32.
- the prediction mode # 28b is stored in the buffer memory 24 and input to the variable length encoding unit 22.
- the motion vector redundancy reduction unit 29 assigns the motion vector # 27 to the target block in the inter predicted image generation unit 26, and then assigns the motion vector # 27c to the other block and stored in the buffer memory 24. Based on this, a prediction vector is calculated. In addition, the motion vector redundancy reduction unit 29 takes the difference between the prediction vector and the motion vector # 27, and generates a difference motion vector # 29. The generated difference motion vector # 29 is output to the variable length coding unit 22.
- variable length encoding unit 22 performs variable length encoding on the quantized prediction residual data # 21, the differential motion vector # 29, the prediction mode # 28b, the filter coefficient residual # 102, and the filter parameter information, Coded data # 1 is generated.
- the subtracter 32 takes the difference between the input image # 10 and the predicted image # 28a for the target macroblock, and outputs a difference image # 32.
- FIG. 8 is a block diagram showing a configuration of the adaptive filter 100 ′.
- the adaptive filter 100 ′ includes a filter processing unit 110 ′, a filter parameter determination unit 120 ′, a filter coefficient derivation unit 130 ′, a filter coefficient prediction unit 140 ′, and a subtractor 102.
- the filter parameter determination unit 120 ′ based on the side information of the input image # 10, sets a parameter indicating the number of reference pixels for filtering (number of taps), a parameter group that specifies filtering on / off, and the like (hereinafter referred to as filter parameters).
- the filter parameter information # 120 ′ which is information including the filter parameter group, is output.
- the side information of the input image # 10 includes a prediction mode, a motion vector, a reference image index indicating a reference frame, a quantization parameter, and the like.
- the filter parameter group determination method does not limit the present invention.
- the filter parameter determination unit 120 ′ determines the block size of the blocks constituting the input image # 10 or the input image # 10.
- a configuration may be adopted in which the filter parameter group is determined according to the number of hierarchies when hierarchically divided by a quad-tree.
- the subtractor 102 generates and outputs a filter coefficient residual # 102 by taking the difference between the filter coefficient # 130 'and the prediction filter coefficient # 140'.
- the filter processing unit 110 ′ generates and outputs output image data # 100 ′ by filtering the deblocked image # 50 using the filter coefficient # 130 ′.
- the filtering process in the filter processing unit 110 ′ is almost the same as the filtering process in the filter processing unit 110 in the moving image decoding apparatus 1 described above.
- the filter processing unit 110 filters the pixel value S0 (x ′, y ′) at the coordinates (x ′, y ′) of the output image data # 100 ′ as shown in the above equation (1). Calculation is performed by adding an offset to the weighted linear sum using the coefficient h (i, j). However, in the filter processing unit 110 ', it is assumed that the filter coefficient h (i, j) in Expression (1) corresponds to the filter coefficient # 130'.
- the filter coefficient deriving unit 130 ′ derives the filter coefficient # 130 ′ using the input image # 10 and the deblocked image # 50 based on the filter parameter information # 120 ′ output from the filter parameter determining unit 120 ′. .
- the derived filter coefficient # 130 ′ is output to the filter coefficient prediction unit 140 ′, the subtractor 102, and the filter processing unit 110 ′.
- the filter coefficient deriving unit 130 ′ obtains the value of the filter coefficient h (i, j), for example, by the following expression (5), each pixel value of the input image # 10 and each pixel of the output image data # 100 ′. Derived so as to minimize the square error E1 with the value.
- S (x, y) represents the pixel value at the coordinates (x, y) of the input image # 10
- SI (x, y) represents the coordinates (x, y) of the deblocked image # 50.
- O represents an offset.
- the filter coefficient h (i, j) derived in this way (1 ⁇ i ⁇ M, 1 ⁇ j ⁇ N) is output as filter coefficient # 130 ′ from the filter coefficient deriving unit 130 ′, and the filter processing unit Used for filtering at 110 '.
- the filter coefficient prediction unit 140 ′ performs substantially the same operation as the filter coefficient prediction unit 140 included in the video decoding device 1. However, in the moving picture coding apparatus 2, the filter coefficient supplied to the filter coefficient prediction unit 140 ′ is the filter coefficient # 130 ′, and the prediction filter coefficient output from the filter coefficient prediction unit 140 ′ is the prediction filter coefficient. # 140 '.
- FIG. 9 is a block diagram showing the configuration of the filter coefficient prediction unit 140 '.
- the filter coefficient prediction unit 140 ' includes a filter coefficient storage unit 141', a reference filter coefficient selection unit 142 ', and a prediction filter coefficient derivation unit (predicted value generation means) 143'.
- the filter coefficient storage unit 141 ′ performs substantially the same operation as the filter coefficient storage unit 141 in the video decoding device 1. However, the filter coefficient stored in the filter coefficient storage unit 141 ′ includes the filter coefficient already used in the filtering process for the encoded frame. The filter coefficient storage unit 141 ′ also stores side information related to the prediction target frame and filter parameter information related to the prediction target frame.
- the side information regarding the encoded frame is represented as side information # 10s (D)
- the side information regarding the prediction target frame is represented as side information # 10s ( P).
- the filter parameter information related to the encoded frame is expressed as filter parameter information # 10p (D), and the filter parameter information related to the prediction target frame is expressed as the filter parameter. It will be expressed as information # 10p (P).
- the reference filter coefficient selection unit 142 ′ refers to the side information # 10s (D) and the side information # 10s (P) in substantially the same manner as the reference filter coefficient selection unit 142 in the video decoding device 1, and performs the prediction target frame.
- a frame NF having the same picture type as the picture type and having the smallest frame interval from the prediction target frame is identified.
- the reference filter coefficient selection unit 142 ′ is an area corresponding to the filter reference area R on the prediction target frame, and sets a filter coefficient for the filter reference area R ′ on the frame NF as a reference filter coefficient set #. As 142 ', it outputs to prediction filter coefficient derivation
- the prediction filter coefficient derivation unit 143 ′ refers to the filter parameter information # 10p (D) and the filter parameter information # 10p (P) in the same manner as the prediction filter coefficient derivation unit 143 in the video decoding device 1, and the reference filter coefficient Based on the set # 142 ′, a prediction filter coefficient # 140 ′ is derived.
- the prediction filter coefficient deriving unit 143 ′ refers to the number of taps in the filter reference region R ′ obtained by referring to the filter parameter information # 10p (D) and the filter parameter information # 10p (P). Are compared with the number of taps in the filter reference region R, and a prediction filter coefficient # 140 ′ is derived according to a method selected according to the magnitude relationship.
- the number of taps in the filter reference region R ′ is M ⁇ M taps (M is a natural number), and the number of taps in the filter reference region R is N ⁇ N taps (N is a natural number).
- the calculation process of the prediction filter coefficient # 140 by the prediction filter coefficient deriving unit 143 'when N ⁇ M is as follows (specific example 1-1').
- the filter coefficient prediction unit 140 ′ performs substantially the same operation as the calculation process of the prediction filter coefficient # 140 by the filter coefficient prediction unit 140 described in (Specific example 1-1).
- the prediction filter coefficient deriving unit 143 ′ starts from the set of filter coefficients h ′ (i, j) for the filter reference area R ′ and is an area within the filter reference area R ′ that overlaps the filter reference area R.
- a filter coefficient h ′ (i, j) for OR is extracted.
- the prediction filter coefficient deriving unit 143 ′ normalizes the filter coefficient h ′ (i, j) for the overlapping region OR by the equation (2), thereby predicting the prediction filter coefficient p (i, j) for the filter reference region R. ) Is calculated. Also, the calculated p (i, j) is output as a prediction filter coefficient 140 '.
- the sum of the prediction filter coefficients p (i, j) calculated using the equation (2) in the filter reference region R is the filter coefficient h ′ (i, j). Is equal to the sum in the filter reference region R ′.
- the prediction filter coefficient deriving unit 143 ′ extracts the filter coefficient for the overlap area OR from the set of filter coefficients h ′ (i, j) for the filter reference area R ′, and in the filter reference area R ′.
- the prediction filter coefficient p in the filter reference region R ( It can be expressed that i, j) is derived.
- the moving picture encoding apparatus 2 can reduce the code amount of the filter coefficient residual # 102 by performing the operation of this example.
- prediction filter coefficient deriving unit 143 may be configured to derive the prediction filter coefficient p_center for the center pixel of the filter reference region R using Expression (3).
- the code amount of the filter coefficient residual # 102 can be reduced by generating the prediction filter coefficient using Expression (3).
- the prediction filter coefficient deriving unit 143 ′ predicts the filter reference region R using an expression in which the numerator ⁇ h ′ (m, n) on the right side of Expression (2) is replaced with ⁇ h ′ (m, n) + d.
- the filter coefficient p (i, j) may be calculated.
- d is a parameter having a predetermined positive or negative value, and its specific value is determined according to the characteristics of the image to be filtered.
- a value determined in advance according to the sequence of images to be filtered can be used.
- a specific value of the parameter d it is preferable to use a parameter whose absolute value is equal to or less than a predetermined threshold value.
- the sum of the prediction filter coefficients p (i, j) in the filter reference region R is calculated from the sum of the filter coefficients h ′ (i, j) in the filter reference region R ′.
- the code amount of the filter coefficient residual # 13d can be further reduced by calculating the prediction filter coefficient p (i, j) so as to be different by a predetermined value. The above configuration can be suitably applied in such a case.
- the calculation process of the prediction filter coefficient # 140 'by the filter coefficient prediction unit 140' when N> M is as follows (specific example 1-2 ').
- the prediction filter coefficient deriving unit 143 ′ performs the same operation as the calculation process of the prediction filter coefficient # 140 by the prediction filter coefficient deriving unit 143 ′ described in (Specific example 1-2).
- the prediction filter coefficient deriving unit 143 ′ first selects a region on the filter reference region R using Expression (4) based on each filter coefficient h ′ (i, j) included in the filter reference region R ′. Thus, the prediction filter coefficient p (i, j) for the region overlapping with the filter reference region R ′ (overlapping region OR ′) is calculated. Further, the calculated prediction filter coefficient p (i, j) is output as a prediction filter coefficient # 140 '.
- the sum of the prediction filter coefficients p (i, j) in the overlapping region OR ′ is a value close to 1.
- the prediction filter coefficient deriving unit 143 sets the prediction filter coefficient p (i, j) for the area on the filter reference area R and not included in the overlapping area OR' to 0.
- the prediction filter coefficient deriving unit 143 ′ causes the absolute value of the difference between 1 and the sum of the prediction filter coefficients p (i, j) in the overlapping region OR ′ to be equal to or less than a predetermined threshold. Then, the prediction filter coefficient p (i, j) in the overlapping region OR ′ is normalized, and the prediction filter coefficient p (i, j) for the region on the filter reference region R and not included in the overlapping region OR ′ is obtained. By setting it to 0, it can be expressed that the prediction filter coefficient p (i, j) in the filter reference region R is derived.
- the moving picture encoding apparatus 1 can reduce the code amount of the filter coefficient residual # 102 by performing the above operation.
- the prediction filter coefficient p_center for the center pixel of the filter reference region R may be derived using Expression (3).
- the prediction filter coefficient deriving unit 143 ′ performs the same operation as the calculation process of the prediction filter coefficient # 140 by the prediction filter coefficient deriving unit 143 described in (Specific Example 1-3).
- the prediction filter coefficient deriving unit 143 ′ normalizes each filter coefficient h ′ (i, j) included in the filter reference region R ′ by Expression (4), thereby predicting the prediction filter coefficient p ( i, j) is calculated.
- the sum of the prediction filter coefficients p (i, j) in the filter reference region R is a value close to 1.
- the moving picture encoding apparatus 2 can reduce the code amount of the filter coefficient residual # 102 by performing the above operation.
- the prediction filter coefficient p_center for the center pixel of the filter reference region R may be derived using Expression (3).
- the variable length encoding unit 22, the subtractor 102, and the filter coefficient prediction unit 140 ′ are filter coefficients supplied from the filter coefficient deriving unit 130 ′. It is assumed that a filter coefficient encoding apparatus that encodes a filter coefficient residual # 102 that is a residual between # 130 ′ and a prediction filter coefficient # 140 ′ predicted based on the filter coefficient # 130 ′ is configured. be able to. Therefore, the moving picture coding apparatus 2 according to the present embodiment can also be expressed as a moving picture coding apparatus including such a filter coefficient coding apparatus.
- FIG. 16 is a diagram illustrating a bit stream #BS for each slice of the encoded data # 1 generated by the video encoding device 2 and referred to by the video decoding device 1.
- the bitstream #BS includes filter parameter information FP, filter coefficient residual information RC, and macroblock information MB1 to MBN.
- the filter coefficient residual information RC is information including the filter coefficient residual # 102 generated in the video encoding device 2.
- Macroblock information MB1 to MBN is information used for decoding macroblocks existing in a slice. N represents the number of macroblocks present in the slice.
- the macroblock information includes a prediction mode, a motion vector, a reference image index, a quantization parameter, quantized prediction residual data, and the like.
- (B) of FIG. 16 shows an example of the configuration of the filter parameter information FP.
- the filter parameter information FP includes information indicating the number of reference pixels for filtering (tap number information) and on / off designation information for designating filtering on / off.
- the filter coefficient residual information RC is generated using the prediction filter coefficient # 140 ′ generated by any one of the methods (Specific example 1-1 ′) to (Specific example 1-3 ′).
- a filter coefficient residual # 102 is included.
- FIG. 10 is a block diagram illustrating a configuration of the moving image decoding apparatus 3.
- the same blocks as those shown in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted.
- the video decoding device 3 includes a variable length code decoding unit 51, a motion vector restoration unit 14, a buffer memory 15, an inter prediction image generation unit 16, an intra prediction image generation unit 17, and a prediction method determination unit 18. , An inverse quantization / inverse transform unit 19, an adder 20, a deblocking filter 50, and an adaptive filter 200.
- the video decoding device 3 is a device that receives the encoded data # 5 and outputs an output image # 6.
- variable-length code decoding unit 51 performs variable-length decoding on the encoded data # 5, performs differential motion vector # 13a, side information # 13b, quantized prediction residual data # 13c, filter coefficient residual # 13d, filter parameter information # 13e and flag # 51 indicating the filter coefficient calculation method are output.
- the adaptive filter 200 calculates a filter coefficient based on the filter coefficient residual # 13d according to the filter coefficient calculation method indicated by the flag # 51 decoded from the encoded data # 5, and applies the filter coefficient to the deblocked image # 50.
- Output image data # 200 is generated by performing filtering using a coefficient.
- the output image data # 200 is supplied to the buffer memory 15.
- the filtering process in adaptive filter 200 is performed based on side information # 13b decoded from encoded data # 5 and parameters included in filter parameter information # 13e.
- FIG. 11 is a block diagram showing the configuration of the adaptive filter 200.
- the same blocks as those shown in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted.
- the adaptive filter 200 includes a filter processing unit 110, a filter coefficient prediction unit 210, and an adder 202.
- the adder 202 generates the filter coefficient # 202 by adding the filter coefficient residual # 13d decoded from the encoded data # 5 and the prediction filter coefficient # 210 output from the filter coefficient prediction unit 210, Output.
- the filter coefficient prediction unit 210 follows the method indicated by the flag # 51 indicating the filter coefficient calculation method, and based on the filter coefficient already used in the filtering process for the decoded frame of the filter coefficient # 202, the prediction filter coefficient # 210 is calculated. Prediction filter coefficient # 210 is output to adder 202.
- FIG. 12 is a block diagram showing the configuration of the filter coefficient prediction unit 210.
- the same blocks as those shown in FIG. 4 are denoted by the same reference numerals, and the description thereof is omitted.
- the filter coefficient prediction unit 210 includes a filter coefficient storage unit 141, a reference filter coefficient selection unit 211, and a prediction filter coefficient derivation unit 212.
- the filter coefficient prediction unit 210 outputs the prediction filter coefficient # 210 similar to the prediction filter coefficient # 140 described in (Specific example 1-1) to (Specific example 1-3) according to the flag # 51, or Alternatively, the filter coefficient used for filtering the decoded frame is output as the prediction filter coefficient # 210.
- the reference filter coefficient selection unit 211 refers to the side information # 13b (D) and the side information # 13b (P), and among the decoded frames, the frame of the same picture type as the picture type of the prediction target frame Then, the frame having the smallest frame interval from the prediction target frame (hereinafter referred to as frame NF1) is specified.
- the reference filter coefficient selection unit 211 is an area corresponding to the filter reference area R on the prediction target frame, and sets a filter coefficient for the filter reference area R ′ on the frame NF1 as a reference filter coefficient set # 211a. Is output to the prediction filter coefficient deriving unit 212.
- the reference filter coefficient selection unit 211 refers to the side information # 13b (D), the side information # 13b (P), the filter parameter information # 13e (D), and the filter parameter information # 13e (P), Of the frames that are decoded frames of the same picture type as the prediction target frame and have the same number of taps in the filter reference region corresponding to the filter reference region R, the frame with the prediction target frame A frame having the smallest interval (hereinafter referred to as frame NF2) is specified.
- a filter reference area corresponding to the filter reference area R which is an area on the frame NF2
- a filter reference area R ′′ a filter reference area corresponding to the filter reference area R
- the reference filter coefficient selection unit 211 outputs a set of filter coefficients used for filtering with the filter reference region R ′′ as the filter reference region to the prediction filter coefficient derivation unit 212 as a reference filter coefficient set # 211b. To do.
- the prediction filter coefficient deriving unit 212 refers to the filter parameter information # 13e (D) and the filter parameter information # 13e (P), and sets the reference filter coefficient set # 211a. Based on this, a prediction filter coefficient # 210 is derived.
- any one of (Specific Example 1-1) to (Specific Example 1-3) described above may be used.
- the prediction filter coefficient deriving unit 212 outputs the filter coefficient included in the reference filter coefficient set # 211b as the prediction filter coefficient # 210.
- the filter coefficient prediction unit 210 does not refer to the flag # 51, and based on the reference filter coefficient set # 211a, any one of (Specific example 1-1) to (Specific example 1-3) of the first embodiment.
- the prediction filter coefficient # 210 may be derived by the method shown in FIG. 5 or each filter coefficient included in the prediction filter coefficient # 211b may be output as the prediction filter coefficient # 210.
- each of the prediction filter coefficients # 211b included in the prediction filter coefficient # 211b is output.
- the filter coefficient may be output as the prediction filter coefficient # 210.
- the code of the filter coefficient residual according to the sum of the reference filter coefficients can be generated while effectively reducing the amount.
- the moving picture decoding apparatus 3 having the above configuration can appropriately decode the encoded data # 5 generated as described above.
- FIG. 13 is a block diagram illustrating a configuration of the moving image encoding device 4.
- the same reference numerals are assigned to the same blocks as those shown in FIG. 7, and the description thereof is omitted.
- the moving image encoding device 4 includes a transform / quantization unit 21, an inverse quantization / inverse transform unit 23, a buffer memory 24, an intra predicted image generation unit 25, an inter predicted image generation unit 26, and a prediction.
- a system control unit 28, a motion vector redundancy reduction unit 29, an adder 31, a subtractor 32, a deblocking filter 50, a variable length coding unit 41, and an adaptive filter 200 ′ are provided.
- the input image # 4 divided into block images composed of a plurality of adjacent pixels is input to the moving image encoding device 4.
- the moving image encoding device 4 performs an encoding process on the input image # 4 and outputs encoded data # 5.
- variable-length encoding unit 41 applies the quantized prediction residual data # 21, the difference motion vector # 29, the prediction mode # 28b, the flag # 220 indicating the filter coefficient prediction method, and the filter coefficient residual # 102. Variable length encoding is performed to generate encoded data # 5.
- the adaptive filter 200 ′ generates output image data # 200 ′ by filtering the deblocked image # 50 and outputs the output image data # 200 ′ to the buffer memory 24.
- the adaptive filter 200 ′ also outputs a filter coefficient residual # 102 that is a residual between the filter coefficient used for filtering and the predicted filter coefficient to the variable length coding unit 41.
- the adaptive filter 200 ′ also outputs a flag # 220 indicating the filter coefficient prediction method to the variable length coding unit 41.
- FIG. 14 is a block diagram illustrating a configuration example of the adaptive filter 200 ′.
- the adaptive filter 200 ′ includes a filter processing unit 110 ′, a filter parameter determination unit 120 ′, a filter coefficient derivation unit 130 ′, a filter coefficient prediction unit 210 ′, a subtractor 201, and The prediction means selection unit 220 is provided.
- the same blocks as those shown in FIG. 8 are denoted by the same reference numerals, and the description thereof is omitted.
- FIG. 15 is a block diagram illustrating a configuration of the filter coefficient prediction unit 210 ′.
- the same blocks as those shown in FIG. 9 are denoted by the same reference numerals, and the description thereof is omitted.
- the filter coefficient prediction unit 210 ′ includes a filter coefficient storage unit 141 ′, a reference filter coefficient selection unit 211 ′, and a prediction filter coefficient derivation unit 212 ′.
- the reference filter coefficient selection unit 211 ′ is substantially the same as the reference filter coefficient selection unit 211 in the video decoding device 3, and side information # 10s (D) and side information # 10s (stored in the filter coefficient storage unit 141 ′). P), a frame NF1 that has the same picture type as the picture type of the prediction target frame and has the smallest frame interval from the prediction target frame is identified.
- the reference filter coefficient selection unit 211 ′ is an area corresponding to the filter reference area R on the prediction target frame, and sets a filter coefficient for the filter reference area R ′ on the frame NF1 as a reference filter coefficient set #. As 211a ', it outputs to the prediction filter coefficient derivation
- the reference filter coefficient selection unit 211 ′ includes the side information # 10s (D), the side information # 10s (P), the filter parameter information # 10p (D), and the filter stored in the filter coefficient storage unit 141 ′.
- the frame has the same picture type as the prediction target frame, and the number of taps in the filter reference area corresponding to the filter reference area R is the same as the number of taps in the filter reference area R.
- the frame having the smallest frame interval with the prediction target frame hereinafter referred to as frame NF2 is specified.
- a filter reference area corresponding to the filter reference area R which is an area on the frame NF2
- a filter reference area R ′′ a filter reference area corresponding to the filter reference area R
- the reference filter coefficient selection unit 211 ′ uses the filter coefficient set used for filtering with the filter reference region R ′′ as the filter reference region as a reference filter coefficient set # 211b ′, and the prediction filter coefficient derivation unit 212. Output to '.
- the prediction filter coefficient deriving unit 212 ′ refers to the filter parameter information # 10p (D) and the filter parameter information # 10p (P) as in the case of the prediction filter coefficient deriving unit 212 in the video decoding device 3, and the reference filter coefficient Based on the set # 211a ′, a prediction filter coefficient # 210 ′ is derived.
- the prediction filter coefficient deriving unit 212 ′ derives the prediction filter coefficient # 210 ′ by the same method as described in (Specific example 1-1 ′) to (Specific example 1-3 ′). .
- the prediction filter coefficient # 210 includes a set of filter coefficients used for filtering using the filter target area R "on the frame NF2 as a filter reference area.
- the subtractor 201 generates a filter coefficient residual # 201 by taking the difference between the filter coefficient # 130 'and the prediction filter coefficient # 210', and outputs it to the prediction means selection unit 220.
- the subtractor 201 uses the filter coefficient # 130 ′ of the prediction filter coefficient # 210 ′ calculated by the same method as in (Specific example 1-1 ′) to (Specific example 1-3 ′). And a filter coefficient residual # RC1 that is a residual of the filter coefficient used for filtering with the filter target region R ′′ on the frame NF2 as a filter reference region, and the residual of the filter coefficient # 130 ′ The filter coefficient residual # RC2 is output.
- Prediction means selection section 220 compares filter coefficient residual # RC1 with filter coefficient residual # RC2, and outputs a smaller filter coefficient residual as filter coefficient residual # 102.
- the input to the prediction means selection unit 220 is used as the code amount of the filter coefficient residual, and the prediction means selection unit 220 compares both, and the filter coefficient residual corresponding to the smaller code amount is filtered. It may be configured to output as coefficient residual # 102.
- the prediction means selection unit 220 predicts the prediction filter calculated by any one of the methods (Specific Example 1-1 ′) to (Specific Example 1-3 ′).
- the flag # 220 indicating that the coefficient is used is output and the filter coefficient residual # RC2 is output, the filter coefficient used for filtering with the filter target region R ′′ on the frame NF2 as the filter reference region Is output as a prediction filter coefficient.
- the adaptive filter 200 can output the filter coefficient residual # 102 with a smaller code amount by adopting the above configuration.
- the above-described moving picture decoding device 3 can decode the filter coefficient residual # 102 with a smaller code amount by referring to the flag # 220 (corresponding to the flag # 51).
- the configuration of the prediction means selection unit 220 is not limited to the above configuration, and may be configured as follows, for example.
- the prediction means selection unit 220 compares the absolute value of the difference between the sum of the filter coefficients included in the reference filter coefficient set # 211a ′ and 1 with a predetermined threshold th, and the sum is smaller than the threshold th.
- the filter coefficient residual # RC1 is calculated by using the filter coefficient calculated by any one of the methods (Specific example 1-1 ′) to (Specific example 1-3 ′) in the prediction filter coefficient # 210 ′.
- the calculated filter coefficient residual # RC1 is output as the filter coefficient residual # 102.
- the prediction means selection unit 220 sets the reference filter coefficient set # 211b' to the reference filter coefficient set # 211b '.
- Each filter coefficient included is set as a prediction filter coefficient
- filter count residual # RC2 is calculated using the prediction filter coefficient
- the calculated filter coefficient residual # RC2 is output as filter coefficient residual # 102. .
- the prediction filter coefficient residual # 102 can be derived without outputting the flag # 220. Therefore, the code amount of the encoded data # 5 can be effectively reduced by adopting such a configuration.
- the data structure of encoded data # 5 is substantially the same as the data structure of encoded data # 1 already described with reference to FIGS. 16A to 16B, but differs in the following points.
- the filter parameter information FP in the encoded data # 5 is the prediction filter coefficient calculated by any of the methods (Specific Example 1-1 ′) to (Specific Example 1-3 ′)? A flag indicating whether or not is included.
- the video decoding device 3 that decodes the encoded data # 5 can derive the prediction filter coefficient by using the same method as that used in the video encoding device 4 by referring to the flag. Therefore, the moving picture decoding apparatus 3 that decodes the encoded data # 5 can decode the encoded data # 5 including the filter coefficient residual # 102 with a smaller code amount by referring to the flag.
- the filter coefficient encoding apparatus provides a reference for a filter coefficient encoding apparatus that encodes a difference between each filter coefficient of a target filter that acts on a target image and a prediction value for the filter coefficient.
- a prediction value generating unit configured to generate the predicted value by multiplying a corresponding filter coefficient of the reference filter acting on the image by a weighting coefficient; and the predicted value generating unit predicts each filter coefficient of the target filter.
- Threshold value in which the absolute value of the difference between the sum of the values and the predetermined value or the absolute value of the difference between the sum of the predicted values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter is determined in advance It is characterized in that the value of each weighting factor is set so as to be as follows.
- the sum of the predicted values of the filter coefficients of the target filter is close to a predetermined value.
- the predicted value is normalized so that the value or a value close to the sum of the filter coefficients of the reference filter is obtained.
- the encoding efficiency can be increased.
- an encoded frame that is closer in time to the encoding target frame is used as a reference image, and a normalized filter coefficient of the reference filter is used as a filter coefficient of the target filter. Since it can be set as the predicted value, the encoding efficiency can be further increased as compared with the conventional configuration.
- the prediction value generation means when the number of taps of the target filter is larger than the number of taps of the reference filter, among the filter coefficients of the target filter, It is preferable that the predicted value for the filter coefficient multiplied by the pixel value of the pixel belonging to the region on the target image not overlapping with the image is set to 0.
- the prediction value generating unit when the number of taps of the target filter is larger than the number of taps of the reference filter, the prediction value generating unit does not overlap the reference image among the filter coefficients of the target filter. Since the prediction value for the filter coefficient multiplied by the pixel value of the pixel belonging to the upper region can be set to 0, even if the number of taps of the target filter is larger than the number of taps of the reference filter, encoding is performed. Efficiency can be increased.
- the predicted value generation means subtracts the predicted value for the filter coefficient by which the pixel value of the center pixel of the target image is multiplied by the sum of other filter coefficients from a predetermined value. It is preferable to calculate by this.
- each weighting factor is set such that the sum of the prediction values for each filter coefficient of the target filter is a value close to a predetermined value or a value close to the sum of the filter coefficients of the reference filter. Since the prediction value for the filter coefficient to be multiplied by the pixel value of the center pixel of the target image can be calculated by subtracting the sum of the other filter coefficients from the predetermined value, the encoding efficiency is high.
- a filter coefficient encoding device can be realized.
- the filter coefficient encoding apparatus operates on a reference image in a filter coefficient encoding apparatus that encodes a difference between each filter coefficient of a target filter that operates on a target image and a predicted value for the filter coefficient.
- a first predicted value generating means for generating a first predicted value by multiplying the corresponding filter coefficient of the reference filter to be weighted by a weighting coefficient, the sum of the first predicted values for each filter coefficient of the target filter A predetermined threshold value, or an absolute value of a difference between a sum of first predicted values for each filter coefficient of the target filter and a sum of filter coefficients of the reference filter
- the first prediction value setting means for setting the value of each weighting coefficient and the second prediction value with the corresponding filter coefficient of the reference filter as the second prediction value so that A value generation means, and a prediction value setting means for setting, as the prediction value, one having a smaller residual with the filter coefficient among the first prediction value and the second prediction value. It is a feature.
- the filter coefficient encoding apparatus operates on a reference image in a filter coefficient encoding apparatus that encodes a difference between each filter coefficient of a target filter that operates on a target image and a predicted value for the filter coefficient.
- First predictive value setting means for setting the value of each weighting factor so as to be equal to or less than a threshold value of 1, and a second predictive value using a filter coefficient corresponding to the reference filter as a second predictive value Predictive value generation means, and when the absolute value of the difference between the sum of the corresponding filter coefficients of the reference filter and a predetermined value is equal to or smaller than a predetermined second threshold value, the target filter The difference between each filter coefficient and the first predicted value is encoded. Otherwise, the difference between each filter coefficient of the target filter and the second predicted value is encoded. It is said.
- encoded data with a smaller code amount can be generated according to the sum of the filter coefficients of the reference filter.
- the moving picture coding apparatus includes the filter coefficient coding apparatus, and performs filtering using the filter coefficient of the target filter on a locally decoded image.
- the above moving picture coding apparatus has the same effects as the filter coefficient coding apparatus.
- the filter coefficient decoding apparatus restores each filter coefficient of the target filter acting on the target image by adding a prediction value to the filter coefficient residual obtained by decoding the encoded data.
- the filter coefficient decoding device includes a prediction value generation unit that generates the prediction value by multiplying a filter coefficient corresponding to the reference filter that acts on the reference image by a weighting coefficient
- the prediction value generation unit includes the target The absolute value of the difference between the sum of the predicted values for each filter coefficient of the filter and a predetermined value, or the absolute value of the difference between the sum of the predicted values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter It is characterized in that the value of each weighting factor is set so that the value is not more than a predetermined threshold value.
- a filter coefficient group having the same number of taps as the number of taps in the prediction filter coefficient group is used as the prediction filter coefficient group.
- the filter coefficient encoding apparatus having a configuration corresponding to the above configuration can be applied to a case where the number of taps of the target filter and the number of taps of the reference filter are different. That is, an encoded frame that is closer in time to the encoding target frame can be used as the reference image regardless of the number of taps. Furthermore, according to the filter coefficient encoding device having a configuration corresponding to the above configuration, even if the number of taps of the target filter and the number of taps of the reference filter are different, the predicted value of the filter coefficient of the target filter The predicted value can be normalized so that the sum of the values becomes a value close to a predetermined value or a value close to the sum of the filter coefficients of the reference filter. Therefore, according to the filter coefficient encoding apparatus having a configuration corresponding to the above configuration, the encoding efficiency can be increased as compared with the conventional configuration.
- the filter coefficient decoding apparatus having the above configuration can decode such encoded data with high encoding efficiency.
- the prediction value generation means when the number of taps of the target filter is larger than the number of taps of the reference filter, out of the filter coefficients of the target filter, the reference image It is preferable to set the prediction value for the filter coefficient multiplied by the pixel value of the pixel belonging to the region on the target image not overlapping with 0 to 0.
- the predicted value generation means increases the encoding efficiency even when the number of taps of the target filter is larger than the number of taps of the reference filter. Can be increased.
- the predicted value generation means subtracts the predicted value for the filter coefficient to be multiplied by the pixel value of the central pixel of the target image from the predetermined value by summing up the other filter coefficients. It is preferable to calculate by
- the sum of the prediction values for each filter coefficient of the target filter is a value close to a predetermined value or the total of the filter coefficients of the reference filter.
- the filter coefficient decoding apparatus restores each filter coefficient of the target filter acting on the target image by adding a prediction value to the filter coefficient residual obtained by decoding the encoded data.
- prediction value generation means for generating the prediction value by multiplying a filter coefficient corresponding to a reference filter acting on a reference image by a weighting coefficient, the first coefficient for each filter coefficient of the target filter The absolute value of the difference between the sum of the predicted values and the predetermined value, or the absolute value of the difference between the sum of the first predicted values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter
- First predictive value setting means for setting the value of each weighting factor so as to be equal to or less than a predetermined threshold value, and a corresponding filter of the reference filter.
- the filter coefficient decoding apparatus restores each filter coefficient of the target filter acting on the target image by adding a prediction value to the filter coefficient residual obtained by decoding the encoded data.
- first prediction value generation means for generating a first prediction value by multiplying a filter coefficient corresponding to a reference filter acting on a reference image by a weighting coefficient, each of the target filters The absolute value of the difference between the sum of the first predicted values for the filter coefficients and a predetermined value, or the sum of the first predicted values for the filter coefficients of the target filter and the sum of the filter coefficients of the reference filter
- First prediction value setting means for setting the value of each weighting factor so that the absolute value of the difference is equal to or less than a predetermined first threshold
- the reference filter Second predicted value generation means using a corresponding filter coefficient as a second predicted value, and an absolute value of a difference between a sum of the corresponding filter coefficients of the reference filter and a predetermined value is determined in advance. If it is less than or equal to
- the filter coefficient encoding device having a configuration corresponding to the above configuration, encoded data with a smaller code amount can be generated according to the sum of the filter coefficients of the reference filter.
- the moving picture decoding apparatus includes the filter coefficient decoding apparatus, and performs filtering using the filter coefficient of the target filter on the local decoded image.
- the data structure of the encoded data according to the present invention is obtained by encoding the filter coefficient residual which is the difference between each filter coefficient of the target filter acting on the target image and the predicted value for the filter coefficient.
- the encoded data has a data structure, and the prediction value is an absolute value of a difference between a sum of prediction values for each filter coefficient of the target filter and a predetermined value, or a prediction for each filter coefficient of the target filter.
- the weighting coefficient set so that the absolute value of the difference between the sum of the values and the sum of the respective filter coefficients of the reference filter acting on the reference image is equal to or less than a predetermined threshold value is used as the corresponding filter coefficient of the reference filter. It is generated by multiplying by.
- the sum of the filter coefficients after quantization is close to the inverse of the quantization step. Therefore, for example, the encoding efficiency can be improved by normalizing the prediction value of the filter coefficient so that the sum of the prediction values is close to the reciprocal of the quantization step.
- the predicted value is generated by multiplying a corresponding filter coefficient of the reference filter by a weighting coefficient, and the weighting coefficient is an absolute value of a difference between a sum of predicted values for each filter coefficient of the target filter and a predetermined value, Alternatively, the absolute value of the difference between the sum of the prediction values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter acting on the reference image is set to be equal to or less than a predetermined threshold value. Therefore, the encoded data is encoded data with high encoding efficiency.
- a filter coefficient group having the same number of taps as that of the prediction filter coefficient group is used as the prediction filter coefficient group. Since the time interval between the decoding target frame and the reference image to which filtering using the reference filter coefficient group is applied becomes large, the encoding efficiency does not increase as expected even if predictive encoding is performed, or However, when predictive encoding is performed, there is a problem that encoding efficiency is lowered.
- encoded data having the above configuration can be generated even when the number of taps of the target filter and the number of taps of the reference filter are different. Furthermore, even if the encoded data having the above configuration has a case where the number of taps of the target filter and the number of taps of the reference filter are different, the sum of the predicted values of the filter coefficients of the target filter and the predetermined value
- the absolute value of the difference, or the absolute value of the difference between the sum of the prediction values for each filter coefficient of the target filter and the sum of the filter coefficients of the reference filter acting on the reference image is equal to or less than a predetermined threshold value. Generate a predicted value.
- the encoded data having the above configuration is encoded data with high encoding efficiency.
- the present invention is suitably applied to a moving image encoding device that encodes a moving image and generates encoded data, and a moving image decoding device that decodes encoded data generated using such a moving image encoding device.
- a moving image decoding device that decodes encoded data generated using such a moving image encoding device.
- it can be suitably applied to, for example, a broadcast receiving terminal and an HDD recorder.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測フィルタ係数導出部(143')を備えており、予測フィルタ係数導出部(143')は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する。
Description
本発明は、フィルタ係数を符号化するフィルタ係数符号化装置、および、符号化されたフィルタ係数を復号するフィルタ係数復号装置に関する。また、そのようなフィルタ係数符号化装置を含む動画像符号化装置、および、そのようなフィルタ係数復号装置を含む動画像復号装置に関する。また、そのようなフィルタ係数符号化装置によって生成され、そのようなフィルタ係数復号装置によって参照される符号化データのデータ構造に関する。
動画像を効率的に伝送または記録するために、動画像符号化装置が用いられている。具体的な動画像符号化方式としては、例えば、H.264/MPEG-4.AVC、および、KTAソフトウェアに採用されている方式などが挙げられる。
このような符号化方式において、動画像を構成する画像(ピクチャ)は、画像を分割することにより得られるスライス、スライスを分割することにより得られるマクロブロック、及び、マクロブロックを分割することより得られるサブブロックからなる階層構造により管理され、普通、マクロブロックごとに符号化される。
予測符号化を採用する動画像符号化方式において符号化効率を上げるためには、原画像(符号化済みフレーム)を精度良く近似する参照画像を参照し、原画像(符号化対象フレーム)を精度良く近似する予測画像を生成することが重要である。このため、H.264/MPEG-4.AVCにおいては、(局所)復号画像に作用するデブロッキングフィルタを設け、ブロックノイズが低減された(局所)復号画像を参照して予測画像を生成する構成が採用されている。
さらに、KTAソフトウェアでは、デブロッキングフィルタの後段にALF(Adaptive Loop Filter)を設け、ALF適用後の(局所)復号画像を参照して予測画像を生成する構成が採用されている(非特許文献1参照)。ALFのフィルタ係数は、復号画像上のフレームごと、もしくは、スライスごとに、ALFが適用された復号画像と原画像との誤差が最小となるように、適応的に決定される。
また、KTAソフトウェアにおいては、ALFのフィルタ係数も予測符号化する構成が採用される。すなわち、符号化/復号化対象フレームのフィルタリングに用いたフィルタ係数群と、符号化/復号化済みフレームのフィルタリングに用いたフィルタ係数群から予測された予測フィルタ係数群との差を符号化し、動画像復号装置に提供する構成が採用される。
また、KTAソフトウェアにおいては、予測フィルタ係数群として、符号化/復号化済みフレームのフィルタリングに用いたフィルタ係数群のうち、符号化/復号化対象フレームのフィルタリングに用いるフィルタ係数群とタップ数の等しいフィルタ係数群がそのまま用いられる。これは、仮に、KTAソフトウェアにおいて、タップ数の異なるフィルタ係数群を予測フィルタ係数群に用いると、予測フィルタ係数群に含まれる予測フィルタ係数の総和と、対象フィルタ(符号化/復号化対象フレームに対するフィルタ)のフィルタ係数の総和が異なるため、予測精度が大きく低下してしまうためである。
ITU-T Telecommunication Standardization Sector VCEG-AI18、2008(2008年7月公開)
しかしながら、上述のような従来の構成においては、符号化/復号化対象フレームのフィルタリングに用いるフィルタ係数群とタップ数の等しいフィルタ係数群を予測フィルタ係数群として用いているため、符号化/復号化対象フレームと、予測フィルタ係数群を生成するために参照される符号化/復号化済みフレームとの時間的な間隔が大きくなる。このため、予測符号化を行っても期待されるほど符号化効率が上がらない、あるいは、予測符号化を行うとかえって符号化効率が低下するという問題が生じていた。
本発明は、上記の問題に鑑みてなされたものであり、その目的は、従来の構成よりも符号化効率の高いフィルタ係数符号化装置、及び、これに対応するフィルタ係数復号装置を実現することにある。
上記課題を解決するために、本発明に係るフィルタ係数符号化装置は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段を備えており、上記予測値生成手段は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する、ことを特徴としている。
本発明に係る上記の構成によれば、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合であっても、対象フィルタのフィルタ係数の予測値の総和が、所定の値に近い値、または、上記参照フィルタの各フィルタ係数の総和に近い値になるように、予測値を正規化する。
一般に、量子化前のフィルタ係数の総和は、1に近いという傾向があるので、上記の構成によれば、符号化効率を高めることができる。
また、量子化後のフィルタ係数の総和は、量子化ステップの逆数に近いという傾向があるので、上記の構成によれば、符号化効率を高めることができる。
また、上記の構成によれば、タップ数に関わらず、符号化対象フレームに時間的により近い符号化済みフレームを参照画像とし、参照フィルタのフィルタ係数を正規化したものを対象フィルタのフィルタ係数の予測値とすることができるので、従来の構成に比べて符号化効率をより高めることができる。
なお、上記所定の値は、(1)上記フィルタ係数が量子化されたものであるのか否か、および、(2)上記フィルタ係数が量子化されたものである場合には量子化ステップの大きさに応じて定めることができる(以下同様)。例えば、量子化前のフィルタ係数に対しては、上記所定の値として、1を用いればよい。また、量子化後のフィルタ係数に対しては、上記所定の値として、量子化ステップの逆数を用いればよい。より具体的には、量子化後のフィルタ係数に対しては、量子化ステップを1/Nstep(Nstep=2n、nは自然数)としたとき、上記所定の値として、Nstepを用いればよい。
また、本発明に係るフィルタ係数符号化装置は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、上記第1の予測値と上記第2の予測値とのうち、上記フィルタ係数との残差がより小さいものを上記予測値に設定する予測値設定手段と、を備えることを特徴としている。
上記の構成によれば、より符号量の少ない符号化データを生成することができる。
また、本発明に係るフィルタ係数符号化装置は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた第1の閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、を備え、上記参照フィルタの対応するフィルタ係数の総和と所定の値との差の絶対値が、予め定められた第2の閾値以下である場合には、上記対象フィルタの各フィルタ係数と、上記第1の予測値との差を符号化し、そうでない場合には、上記対象フィルタの各フィルタ係数と、上記第2の予測値との差を符号化することを特徴としている。
上記の構成によれば、参照フィルタのフィルタ係数の総和に応じて、より符号量の少ない符号化データを生成することができる。
また、本発明に係る動画像符号化装置は、上記フィルタ係数符号化装置を備え、局所復号画像に対して上記対象フィルタのフィルタ係数を用いたフィルタリングを行う、ことを特徴としている。
本発明に係る上記の動画像符号化装置によれば、上記フィルタ係数符号化装置と同様の効果を奏する。
また、本発明に係るフィルタ係数復号装置は、対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段を備えており、上記予測値生成手段は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する、ことを特徴としている。
KTAに採用されている従来の構成においては、予測フィルタ係数群として、予測フィルタ係数群のタップ数と同じタップ数のフィルタ係数群が用いられるが、この従来の構成においては、復号化対象フレームと、参照フィルタ係数群を用いたフィルタリングが適用された参照画像との時間的な間隔が大きくなるため、予測符号化を行っても期待されるほど符号化効率が上がらない、あるいは、予測符号化を行うとかえって符号化効率が低下するという問題が生じていた。
上記の構成に対応する構成を有するフィルタ係数符号化装置は、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合に対しても適用することができる。すなわち、タップ数に関わらず、符号化対象フレームに時間的により近い符号化済みフレームを参照画像とすることができる。さらに、上記の構成に対応する構成を有するフィルタ係数符号化装置によれば、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合であっても、対象フィルタのフィルタ係数の予測値の総和が、所定の値に近い値、または、上記参照フィルタの各フィルタ係数の総和に近い値になるように、予測値を正規化することができる。したがって、上記の構成に対応する構成を有するフィルタ係数符号化装置によれば、従来の構成に比べて符号化効率を高めることができる。
上記の構成を有するフィルタ係数復号装置は、そのような符号化効率の高い符号化データを復号することができる。
また、本発明に係るフィルタ係数復号装置は、対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、上記符号化データに含まれるフラグを参照して、上記第1の予測値と上記第2の予測値とのうち何れか一方を上記予測値に設定する予測値設定手段と、を備えることを特徴としている。
上記の構成によれば、上記フラグを参照して、符号化効率のより高い符号化データを復号することができるという効果を奏する。
また、本発明に係るフィルタ係数復号装置は、対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた第1の閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、を備え、上記参照フィルタの対応するフィルタ係数の総和と所定の値との差の絶対値が、予め定められた第2の閾値以下である場合には、上記対象フィルタの各フィルタ係数を、上記フィルタ係数残差に上記第1の予測値を加算することによって復元し、そうでない場合には、上記対象フィルタの各フィルタ係数を、上記フィルタ係数残差に上記第2の予測値を加算することによって復元することを特徴としている。
上記の構成に対応する構成を有するフィルタ係数符号化装置によれば、参照フィルタのフィルタ係数の総和に応じて、より符号量の少ない符号化データを生成することができる。
上記の構成を有するフィルタ係数復号装置によれば、そのような符号量の少ない符号化データを復号することができる。
また、本発明に係る動画像復号装置は、上記フィルタ係数復号装置を備え、局所復号画像に対して上記対象フィルタのフィルタ係数を用いたフィルタリングを行う、ことを特徴としている。
上記の構成によれば、上記フィルタ係数復号装置と同様の効果を奏する。
また、本発明に係る符号化データのデータ構造は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差であるフィルタ係数残差を符号化することによって得られた符号化データのデータ構造であって、上記予測値は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と、参照画像に作用する参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように設定された重み係数を、上記参照フィルタの対応するフィルタ係数に乗じることによって生成されたものである、ことを特徴としている。
一般に、量子化前のフィルタ係数の総和は、1に近いことが知られている。したがって、例えば、量子化前のフィルタ係数の予測値を、予測値の総和が1に近くなるように正規化することによって、符号化効率を向上させることができる。
また、量子化後のフィルタ係数の総和は、量子化ステップの逆数に近いことが知られている。したがって、例えば、量子化後のフィルタ係数の予測値を、予測値の総和が量子化ステップの逆数に近くなるように正規化することによって、符号化効率を向上させることができる。
上記予測値は、参照フィルタの対応するフィルタ係数に重み係数を乗じることによって生成され、当該重み係数は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と、参照画像に作用する参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように設定されたものであるため、上記符号化データは、符号化効率の高い符号化データである。
また、KTAに採用されている従来の構成においては、予測フィルタ係数群として、予測フィルタ係数群のタップ数と同じタップ数のフィルタ係数群が用いられるが、この従来の構成においては、符号化/復号化対象フレームと、参照フィルタ係数群を用いたフィルタリングが適用された参照画像との時間的な間隔が大きくなるため、予測符号化を行っても期待されるほど符号化効率が上がらない、あるいは、予測符号化を行うとかえって符号化効率が低下するという問題が生じていた。
一方で、上記の構成を有する符号化データは、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合であっても生成することができる。さらに、上記の構成を有する符号化データは、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合であっても、対象フィルタのフィルタ係数の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と、参照画像に作用する参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように予測値を生成する。
したがって、上記の構成を有する符号化データは、符号化効率の高い符号化データである。
なお、上記所定の値は、上述のように、(1)上記フィルタ係数が量子化されたものであるのか否か、および、(2)上記フィルタ係数が量子化されたものである場合には量子化ステップの大きさに応じて定めることができる。
以上のように、本発明に係るフィルタ係数符号化装置は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段を備えており、上記予測値生成手段は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する。
上記のように構成されたフィルタ係数符号化装置によれば、符号化/復号化済みフレームのフィルタリングに用いたフィルタ係数群を予測フィルタ係数群とする従来の構成よりも符号化効率の高いフィルタ係数符号化装置を実現することができる。
〔実施形態1〕
(動画像復号装置1)
以下では、本実施形態に係る動画像復号装置1について図1~図6を参照して説明する。動画像復号装置1は、その一部に、H.264/MPEG-4 AVC、および、KTAソフトウェアに採用されている技術を含む復号装置である。
(動画像復号装置1)
以下では、本実施形態に係る動画像復号装置1について図1~図6を参照して説明する。動画像復号装置1は、その一部に、H.264/MPEG-4 AVC、および、KTAソフトウェアに採用されている技術を含む復号装置である。
図1は、動画像復号装置1の構成を示すブロック図である。図1に示すように、動画像復号装置1は、可変長符号復号部13、動きベクトル復元部14、バッファメモリ15、インター予測画像生成部16、イントラ予測画像生成部17、予測方式決定部18、逆量子化・逆変換部19、加算器20、デブロッキングフィルタ50、および、適応フィルタ100を備えている。
動画像復号装置1は、符号化データ#1を復号することによって復号画像#2を生成し、出力する。動画像復号装置1による復号画像#2の生成は、フレームを構成するマクロブロック単位、または、マクロブロックを構成するサブブロック単位で行われる。
可変長符号復号部13は、符号化データ#1を可変長復号し、差分動きベクトル#13a、サイド情報#13b、量子化予測残差データ#13c、フィルタ係数残差#13d、および、フィルタパラメータ情報#13eを出力する。
ここで、サイド情報#13bには、予測モード、動きベクトル、参照画像インデクス、および、量子化パラメータなどが含まれる。
また、フィルタパラメータ情報#13eには、フィルタリングの参照画素数を示すパラメータ(タップ数)、および、フィルタリングのオン/オフを指定するパラメータに関する情報が含まれる。
動きベクトル復元部14は、差分動きベクトル#13a、および、すでに復号され、バッファメモリ25に格納された動きベクトル#15aから対象パーティションの動きベクトル#14を復号する。
バッファメモリ15には、適応フィルタ100から出力される出力画像データ#100、動きベクトル#14、および、サイド情報#13bが格納される。
インター予測画像生成部16は、動きベクトル復元部14によって復号され、バッファメモリ15を経由した動きベクトル#15c、および、バッファメモリ15に格納された参照画像#15dに基づいて、インター予測画像#16を生成する。ここで、インター予測画像#16の生成は、例えば、マクロブロック単位、または、サブブロック単位で行われる。なお、動きベクトル#15cは、動きベクトル#14と同一の動きベクトルであってもよい。また、参照画像#15dは、後述する適用フィルタ100から出力される出力画像データ#100に対応している。
イントラ予測画像生成部17は、バッファメモリ15に格納された局所復号画像#15bから、イントラ予測画像#17を生成する。より具体的には、イントラ予測画像生成部17は、イントラ予測画像#17の予測対象マクロブロック上の画像を、当該予測対象マクロブロックと同じフレーム内の局所復号画像#15bを用いて生成する。
予測方式決定部18は、サイド情報#13bに含まれる予測モード情報に基づいて、イントラ予測画像#17、および、インター予測画像#16のうち、何れか一方を選択し、予測画像#18として出力する。
逆量子化・逆変換部19には、量子化予測残差データ#13cが、サブブロック単位で供給される。
逆量子化・逆変換部19は、量子化予測残差データ#13cを逆量子化することによって、周波数成分へ変換し、さらに、当該周波数成分に対して逆DCT(Discrete Cosine Transform)変換を施すことによって、予測残差#19を生成し、出力する。
加算器20は、予測残差#19と予測画像#18とを加算することによって復号画像#2を生成し、出力する。また、出力された復号画像#2は、デブロッキングフィルタ50に対しても供給される。
デブロッキングフィルタ50は、復号画像#2に対して、ブロック境界またはマクロブロック境界におけるブロック歪を低減するためのデブロッキング処理を施す。デブロッキング処理が施された画像データは、デブロック画像#50として出力される。
適応フィルタ100は、符号化データ#1から復号されたフィルタ係数残差#13dに基づいてフィルタ係数を算出し、デブロック画像#50に対して当該フィルタ係数を用いたフィルタリングを行うことによって出力画像データ#100を生成する。出力画像データ#100は、バッファメモリ15に対して供給される。なお、適応フィルタ100におけるフィルタリング処理は、符号化データ#1から復号されたサイド情報#13b、および、フィルタパラメータ情報#13eに含まれるパラメータに基づいて行われる。
以下では、図2を参照して、適応フィルタ100の構成について説明する。
(適応フィルタ100)
図2は、適応フィルタ100の構成を示すブロック図である。図2に示すように、適応フィルタ100は、フィルタ処理部110、フィルタ係数予測部140、および、加算器101を備えている。
図2は、適応フィルタ100の構成を示すブロック図である。図2に示すように、適応フィルタ100は、フィルタ処理部110、フィルタ係数予測部140、および、加算器101を備えている。
加算器101は、符号化データ#1から復号されたフィルタ係数残差#13dとフィルタ係数予測部140より出力された予測フィルタ係数#140とを加算することによって、フィルタ係数#101を生成し、出力する。
(フィルタ処理部110)
フィルタ処理部110は、サイド情報#13b、および、フィルタパラメータ情報#13eに基づき、デブロック画像#50に対して、上記フィルタ係数#101を用いたフィルタリングを施すことによって出力画像データ#100を生成し、出力する。
フィルタ処理部110は、サイド情報#13b、および、フィルタパラメータ情報#13eに基づき、デブロック画像#50に対して、上記フィルタ係数#101を用いたフィルタリングを施すことによって出力画像データ#100を生成し、出力する。
より具体的には、フィルタ処理部110は、例えば、デブロック画像#50の各画素値であって、フィルタパラメータ情報#13eによって指定されるフィルタ参照領域に含まれる各画素値の、フィルタ係数#101に基づいた加重線形和を取り、さらにフィルタ係数#101に基づいたオフセットを加算することによって、出力画像データ#100の各画素値を算出し、出力する。具体的には、フィルタ処理部110は、出力画像データ#100の座標(x’、y’)における画素値S0(x’、y’)を式(1)によって表される加重線形和によって算出する。
ここで、SI(x、y)は、デブロック画像#50の座標(x、y)における画素値を表しており、h(i、j)は、画素値SI(x+i、y+j)に乗ぜられるフィルタ係数を表している。また、oはオフセット値を示す。なお、フィルタ係数h(i、j)は、フィルタ係数#101に対応している。また、Rは、上記加重線形和の対象となる相対座標のセットであるフィルタ参照領域を表している。上述のように、フィルタ参照領域Rは、例えば、フィルタパラメータ情報#13eに基づいて決定される。また、座標(x’、y’)と座標(x、y)とは同一の座標であってもよいし、異なった座標であってもよい。
上記式(1)を用いて算出された画素値S0(x’、y’)から構成される出力画像データ#100は、バッファメモリ15に対して供給される。
図3は、フィルタ参照領域RがM×Nタップである場合の、フィルタ参照領域Rに含まれる各画素と、それに対応するフィルタ係数を示す図である。なお、hijは、フィルタ係数h(i、j)に対応している(以下同様)。図3に示すように、M×Nタップのフィルタ参照領域Rにおける各画素に対して、フィルタ係数h(i、j)が割り当てられている。
(フィルタ係数予測部140)
フィルタ係数予測部140は、概略的に言えば、フィルタ係数#101のうち、復号済みのフレームであって、符号化データ#1と同じピクチャタイプのフレームにおいてすでに復号されたフィルタ係数、もしくは、復号中のフレームにおいてすでに復号されたフィルタ係数に基づいて、予測対象フレーム上のフィルタ参照領域Rに対する予測フィルタ係数#140を算出する。また、予測フィルタ係数#140は加算器101に対して出力される。
フィルタ係数予測部140は、概略的に言えば、フィルタ係数#101のうち、復号済みのフレームであって、符号化データ#1と同じピクチャタイプのフレームにおいてすでに復号されたフィルタ係数、もしくは、復号中のフレームにおいてすでに復号されたフィルタ係数に基づいて、予測対象フレーム上のフィルタ参照領域Rに対する予測フィルタ係数#140を算出する。また、予測フィルタ係数#140は加算器101に対して出力される。
以下では、図4を参照してフィルタ係数予測部140の構成について説明する。
図4は、フィルタ係数予測部140の構成を示すブロック図である。図4に示すように、フィルタ係数予測部140は、フィルタ係数格納部141、参照フィルタ係数選択部142、および、予測フィルタ係数導出部(予測値生成手段)143を備えている。
(フィルタ係数格納部141)
フィルタ係数格納部141には、フィルタ係数#101、サイド情報#13b、および、フィルタパラメータ情報#13eが格納される。
フィルタ係数格納部141には、フィルタ係数#101、サイド情報#13b、および、フィルタパラメータ情報#13eが格納される。
なお、フィルタ係数格納部141に格納されているフィルタ係数には、復号済みのフレームにおいてすでに復号されたフィルタ係数、もしくは、復号中のフレームにおいてすでに復号されたフィルタ係数が含まれる。
また、フィルタ係数格納部141には、予測対象フレームに関するサイド情報、および、予測対象フレームに関するフィルタパラメータ情報も格納される。
以下では、サイド情報#13bのうち、復号済みのフレームに関するサイド情報をサイド情報#13b(D)と表し、予測対象フレームに関するサイド情報をサイド情報#13b(P)と表すことにする。
また、フィルタパラメータ情報#13eのうち、復号済みのフレームに関するフィルタパラメータ情報をフィルタパラメータ情報#13e(D)と表し、予測対象フレームに関するフィルタパラメータ情報をフィルタパラメータ情報#13e(P)と表すことにする。
(参照フィルタ係数選択部142)
参照フィルタ係数選択部142は、まず、サイド情報#13b(D)とサイド情報#13b(P)とを参照して、予測対象フレームのピクチャタイプと同じピクチャタイプのフレームであって、予測対象フレームとのフレーム間隔が最も小さいフレーム(以下、フレームNFと呼ぶ)を特定する。
参照フィルタ係数選択部142は、まず、サイド情報#13b(D)とサイド情報#13b(P)とを参照して、予測対象フレームのピクチャタイプと同じピクチャタイプのフレームであって、予測対象フレームとのフレーム間隔が最も小さいフレーム(以下、フレームNFと呼ぶ)を特定する。
ここで、フレーム間隔は、参照画像を特定する参照画像インデクス、もしくは、符号化/復号済みの各フレームに付与される画像番号に基づいて算出することができる。参照画像インデクスとは、バッファメモリに格納された参照画像を特定するために各参照画像に付与される番号であり、通常、符号化/復号対象フレームに時間的により近い参照画像、もしくは、符号化/復号対象フレームにより類似する参照画像により小さな番号が割り振られる。そのため、参照画像インデクスは、フレーム間隔を特定するために用いることができる。
また、各フレームに、それぞれのフレームの表示時刻に対応する画像番号が付与されている場合には、予測対象フレームに付与された画像番号と、予測対象フレームよりも前に符号化されたフレームに付与された画像番号との差によって、上記フレーム間隔を算出することもできる。したがって、予測対象フレームとのフレーム間隔が最も小さいフレームとは、予測対象フレームに付与された画像番号との差が最も小さいフレームのことである、と表現することもできる。
本例においては、参照フィルタ係数選択部142は、予測対象フレームとのフレーム間隔が最も小さいフレームとして、予測対象フレームよりも前に符号化された参照画像のうち、最も参照画像インデクスが小さいフレームを選択するものとする。
続いて、参照フィルタ係数選択部142は、予測対象フレーム上のフィルタ参照領域Rに対応する領域であって、フレームNF上の領域(以下、フィルタ参照領域R’と呼ぶ)に対するフィルタ係数のセット(すなわち、フィルタ参照領域R’をフィルタ参照領域とするフィルタリングに用いられたフィルタ係数のセット)を、参照フィルタ係数セット#142として、予測フィルタ係数導出部143に出力する。
(予測フィルタ係数導出部143)
予測フィルタ係数導出部143は、フィルタパラメータ情報#13e(D)とフィルタパラメータ情報#13e(P)とを参照し、参照フィルタ係数セット#142に基づいて、予測フィルタ係数#140を導出する。
予測フィルタ係数導出部143は、フィルタパラメータ情報#13e(D)とフィルタパラメータ情報#13e(P)とを参照し、参照フィルタ係数セット#142に基づいて、予測フィルタ係数#140を導出する。
一般に、予測対象フレームのフィルタリングに用いられるフィルタ係数と、復号済みフレームのフィルタリングに用いられたフィルタ係数との間には、相関がある。また、当該相関は、予測対象フレームと復号済みフレームとのフレーム間隔がより小さいほど、より大きい。
本実施形態においては、上述のように、予測対象フレームと同じピクチャタイプの復号済みフレームのうち、予測対象フレームとのフレーム間隔が最も小さいフレーム(フレームNF)のフィルタリングに用いられた参照フィルタ係数セット#142を用いているので、予測精度の高い予測フィルタ係数#140を算出することができる。
したがって、符号化データ#1を生成する動画像符号化装置は、上記と同様の動作を行うことによって、フィルタ係数残差#13dの符号量を削減することができる。また、動画像復号装置1は、本例の動作を行うことによって、そのように生成された符号量の小さい符号化データ#1を復号することができる。
また、以下に見るように、本実施形態においては、フィルタ参照領域R’のタップ数と、フィルタ参照領域Rのタップ数が等しい場合であっても、異なる場合であっても、予測精度の高い予測フィルタ係数#140を算出することができる。
(予測フィルタ係数の算出処理の具体例)
予測フィルタ係数導出部143は、フィルタパラメータ情報#13e(D)を参照することによって得られるフィルタ参照領域R’のタップ数と、フィルタパラメータ情報#13e(P)を参照することによって得られるフィルタ参照領域Rのタップ数とを比較し、その大小関係に応じて選択される方法に従い、予測フィルタ係数#140を導出する。
予測フィルタ係数導出部143は、フィルタパラメータ情報#13e(D)を参照することによって得られるフィルタ参照領域R’のタップ数と、フィルタパラメータ情報#13e(P)を参照することによって得られるフィルタ参照領域Rのタップ数とを比較し、その大小関係に応じて選択される方法に従い、予測フィルタ係数#140を導出する。
以下では、予測フィルタ係数導出部143による、予測フィルタ係数#140の算出処理の具体例について、図5~図6を参照して説明する。
なお、以下では、フィルタ参照領域R’のタップ数がM×Mタップ(Mは自然数)であり、フィルタ参照領域Rのタップ数がN×Nタップ(Nは自然数)であるとして説明を行う。
まず、N<Mである場合、すなわち、予測対象フレーム上のフィルタ参照領域Rのタップ数が、フレームNF上のフィルタ参照領域R’のタップ数よりも小さい場合における、フィルタ係数予測部140による予測フィルタ係数#140の算出処理は、以下の(具体例1-1)の通りである。
(具体例1-1)
予測フィルタ係数導出部143は、まず、フィルタ参照領域R’に対するフィルタ係数h’(i、j)のセットから、フィルタ参照領域R’内の領域であってフィルタ参照領域Rと重複する領域(以下、重複領域ORと呼ぶ)に対するフィルタ係数h’(i、j)のセットを抽出する。
予測フィルタ係数導出部143は、まず、フィルタ参照領域R’に対するフィルタ係数h’(i、j)のセットから、フィルタ参照領域R’内の領域であってフィルタ参照領域Rと重複する領域(以下、重複領域ORと呼ぶ)に対するフィルタ係数h’(i、j)のセットを抽出する。
続いて、予測フィルタ係数導出部143は、重複領域ORに対する各々のフィルタ係数h’(i、j)に基づき、以下の式(2)を用いて、フィルタ参照領域Rに対する予測フィルタ係数p(i、j)を算出する。
ここで、式(2)の右辺の分子におけるΣは、フィルタ係数h’(i、j)のフィルタ参照領域R’(本例においてはM×Mタップ)における総和をとることを表しており、式(2)の右辺の分母におけるΣは、フィルタ係数h’(i、j)の領域OR(本例においてはN×Nタップ)における総和をとることを表している。また、算出された予測フィルタ係数p(i、j)は、予測フィルタ係数#140として出力される。
式(2)から明らかなように、予測フィルタ係数p(i、j)のフィルタ参照領域Rにおける総和は、フィルタ係数h’(i、j)のフィルタ参照領域R’における総和に等しい。
すなわち、本例においては、予測フィルタ係数導出部143は、フィルタ参照領域R’に対するフィルタ係数h’(i、j)のセットから重複領域ORに対するフィルタ係数を抽出し、フィルタ参照領域R’におけるフィルタ係数h’(i、j)の総和と、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)の総和が等しくなるように正規化することによって、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)を導出するものである、と表現することができる。
また、正規化を行う対象は、フィルタリングの参照画素に作用するフィルタ係数のみである。したがって、予測フィルタ係数導出部143は、式(1)で示した画像の直流(低周波)成分を保持するためのオフセットに対しては正規化を行わない。
予測フィルタ係数導出部143の動作を、図5の(a)~(b)を参照して、より具体的に説明すれば以下の通りである。
図5の(a)は、9×9タップであるフィルタ参照領域R’と、5×5タップである重複領域ORとを示しており、図5の(b)は、5×5タップであるフィルタ参照領域Rを示している。
図5の(a)に示すように、重複領域ORが、インデックスiおよびjを用いて(3≦i≦7、3≦j≦7)によって指定される場合には、予測フィルタ係数導出部143は、フィルタ参照領域Rに対する予測フィルタ係数p(i、j)(iは、3≦i≦7を満たす任意の整数、jは、3≦j≦7を満たす任意の整数)を、式(2)を用いて、重複領域ORに対するフィルタ係数h’(i、j)から算出する。
ここで、図5の(a)および(b)に示す例においては、式(2)の右辺の分子におけるΣは、具体的には、(1≦m≦9、1≦n≦9)を満たすインデックスm、nに関する和であり、式(2)の右辺の分母におけるΣは、(3≦m≦7、3≦n≦7)を満たすインデックスm、nに関する和である。
このように、本例においては、予測フィルタ係数p(i、j)のフィルタ参照領域Rにおける総和が、フィルタ係数h’(i、j)のフィルタ参照領域R’における総和に等しくなるように、予測フィルタ係数p(i、j)を算出することができる。
したがって、符号化データ#1を生成する動画像符号化装置において、本例と同様の方法を用いて予測フィルタ係数を算出することによって、フィルタ係数残差#13dの符号量を削減することができる。また、動画像復号装置1は、本例の動作を行うことによって、そのように生成された符号量の小さい符号化データ#1を復号することができる。
なお、予測フィルタ係数導出部143は、以下の式(3)を用いてフィルタ参照領域Rの中心画素に対する予測フィルタ係数p_centerを導出するような構成としてもよい。
ここで、R1は、フィルタ参照領域Rのうち、フィルタ参照領域Rの中心画素を除く領域を表しており、h(i、j)は、復号中のフレームに対するフィルタ係数であって、すでに復号されたフィルタ係数を表している。
式(3)を用いて予測フィルタ係数p_centerを算出することによって、フィルタ参照領域Rにおけるフィルタ係数h(i、j)の総和が1に近いという傾向を利用して、予測フィルタ係数p_centerを導出することができる。なお、量子化されたフィルタ係数を用いる場合には、1からの差をとるのではなく、量子化係数に応じた値とする。例えば、1/256をステップとして量子化されたフィルタ係数は256倍されているので、256からの差分をとる構成とすればよい。
換言すれば、量子化されたフィルタ係数を用いる場合には、1からの差をとるのではなく、量子化ステップに応じた値からの差をとることによって、中心画素に対する予測フィルタ係数p_centerを導出する構成とすればよい。一般に、1/Nstep(Nstep=2n、nは自然数)を量子化ステップとして量子化されたフィルタ係数は、量子化前のフィルタ係数をNstep倍したものであるので、Nstepからの差をとることによって、中心画素に対する予測フィルタ係数p_centerを導出する構成とすることができる。このような構成によって、符号化データ#1に含まれるフィルタ係数残差#13dの符号量を削減することができる。
また、一般に、フィルタ参照領域Rにおける量子化前のフィルタ係数の総和は、1に近い傾向がある。従って、符号化データ#1を生成する動画像符号化装置において、式(3)と同様の式を用いて中心画素に対する予測フィルタ係数を生成することによって、符号化データ#1に含まれるフィルタ係数残差#13dの符号量を削減することができる。また、動画像復号装置1は、上記のような構成をとることによって、フィルタ係数残差#13dの符号量の少ない符号化データ#1を復号することができる。
なお、上記の説明においては、予測フィルタ係数導出部143は、フィルタ参照領域R’におけるフィルタ係数h’(i、j)の総和と、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)の総和が等しくなるように正規化する、と表現したが、実際の処理においては、量子化されたフィルタ係数を用いることに伴う量子化誤差が累積することによって、フィルタ参照領域R’におけるフィルタ係数h’(i、j)の総和と、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)の総和が完全には等しくならないような場合も生じ得る。
したがって、本例における予測フィルタ係数導出部143は、フィルタ参照領域R’におけるフィルタ係数h’(i、j)の総和が、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)の総和に近くなるように、予測フィルタ係数p(i、j)を正規化するものである、と表現することができる。
また、下記の動作例においても、一般に、量子化誤差が累積することによって、予測フィルタ係数p(i、j)の総和が、目標とする値に完全に一致しない場合も生じ得る。したがって、下記の動作例においても、予測フィルタ係数導出部143は、予測フィルタ係数p(i、j)の総和が、目標とする値に近くなるように、予測フィルタ係数p(i、j)を正規化するものである、と表現することができる。
また、予測フィルタ係数導出部143は、式(2)の右辺の分子Σh’(m、n)を、Σh’(m、n)+dに置き換えた式を用いて、フィルタ参照領域Rに対する予測フィルタ係数p(i、j)を算出するような構成としてもよい。ここで、dは、予め定められた正または負の値を有するパラメータであり、その具体的な値は、フィルタの対象となる画像の特性に応じて決定される。例えば、パラメータdとして、フィルタの対象となる画像のシーケンスに応じて予め決定される値を用いることができる。また、パラメータdの具体的な値としては、その絶対値が、予め定められた閾値以下となるようなものを用いることが好ましい。
一般に、フィルタの対象となる画像の特性如何によっては、予測フィルタ係数p(i、j)のフィルタ参照領域Rにおける総和が、フィルタ係数h’(i、j)のフィルタ参照領域R’における総和から、所定の値だけ異なった値となるように、予測フィルタ係数p(i、j)を算出することによって、フィルタ係数残差#13dの符号量をより低減させることができる場合もある。上記の構成は、そのような場合に好適に適用することができる。
また、上記の説明では、フィルタ参照領域R’が9×9タップであり、フィルタ参照領域Rが5×5タップである場合を例に挙げ説明を行ったが、本発明は、これに限定されるものではなく、一般にフィルタ参照領域R’が、M×Nタップであり、フィルタ参照領域RがM’×N’タップである場合に対して適用することができる。
また、上記の説明では、フィルタ参照領域R’の中心画素と、重複領域ORの中心画素とが一致する場合を例にとり説明を行ったが、本発明は、フィルタ参照領域R’の中心画素と、重複領域ORの中心画素とが一致しない場合に対しても適用することができる。
続いて、N>Mである場合、すなわち、予測対象フレーム上のフィルタ参照領域Rのタップ数が、フレームNF上のフィルタ参照領域R’のタップ数よりも大きい場合における、フィルタ係数予測部140の動作について説明する。
N>Mであるときのフィルタ係数予測部140による、予測フィルタ係数#140の算出処理は、以下の(具体例1-2)の通りである。
(具体例1-2)
予測フィルタ係数導出部143は、まず、フィルタ参照領域R’に含まれる各々のフィルタ係数h’(i、j)に基づき、以下の式(4)を用いて、フィルタ参照領域R上の領域であって、フィルタ参照領域R’に重複する領域(以下、重複領域OR’と呼ぶ)に対する予測フィルタ係数p(i、j)を算出する。
予測フィルタ係数導出部143は、まず、フィルタ参照領域R’に含まれる各々のフィルタ係数h’(i、j)に基づき、以下の式(4)を用いて、フィルタ参照領域R上の領域であって、フィルタ参照領域R’に重複する領域(以下、重複領域OR’と呼ぶ)に対する予測フィルタ係数p(i、j)を算出する。
ここで、式(4)の右辺の分母におけるΣは、フィルタ係数h’(i、j)のフィルタ参照領域R’(M×Mタップ)における総和を表している。また、式(4)の分子におけるAは、重複領域OR’における予測フィルタ係数p(i、j)の総和を規定するパラメータである。
なお、本例においては、Aの値は、1、または、1に近い値であるとする。より具体的には、Aの値は、フィルタの対象となる画像の特性に応じて決定される正または負の値を有するパラメータd’を用いて、A=1+d’のように表現することができる。パラメータd’の具体的な値としては、上述したパラメータdと同様に、例えば、フィルタの対象となる画像のシーケンスに応じて予め決定される値を用いることができる。また、パラメータd’の具体的な値としては、その絶対値が、予め定められた閾値以下となるようなものを用いることが好ましい。
また、算出された予測フィルタ係数p(i、j)は、予測フィルタ係数#140として出力される。
式(4)から明らかなように、重複領域OR’における予測フィルタ係数p(i、j)の総和は、1に近い値になる。なお、量子化されたフィルタ係数を用いる場合には、式(4)の分子は、Aそのものではなく、Aに量子化係数に応じた値を乗じたものとすればよい。例えば、1/256をステップとして量子化されたフィルタ係数は256倍されているので、式(4)の分子は、256×Aとすればよい。
一方で、予測フィルタ係数導出部143は、フィルタ参照領域R上の領域であって重複領域OR’に含まれない領域に対する予測フィルタ係数p(i、j)を0に設定する。
したがって、本例においては、予測フィルタ係数導出部143は、重複領域OR’における予測フィルタ係数p(i、j)の総和と1との差の絶対値が予め定められた閾値以下となるように、重複領域OR’における予測フィルタ係数p(i、j)を正規化し、フィルタ参照領域R上の領域であって重複領域OR’に含まれない領域に対する予測フィルタ係数p(i、j)を0に設定することによって、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)を導出するものである、と表現することができる。
予測フィルタ係数導出部143の動作を、図6の(a)~(b)を参照して、より具体的に説明すれば以下の通りである。
図6の(a)は、5×5タップであるフィルタ参照領域R’を示しており、図6の(b)は、9×9タップであるフィルタ参照領域Rと、5×5タップである重複領域OR’とを示している。
図6の(b)に示すように、重複領域OR’が、インデックスiおよびjを用いて(1≦i≦5、1≦j≦5)によって指定される場合には、予測フィルタ係数導出部143は、フィルタ参照領域Rにおける重複領域OR’に対する予測フィルタ係数p(i、j)(iは、1≦i≦5を満たす任意の整数、jは、1≦j≦5を満たす任意の整数)を、式(4)を用いて、フィルタ参照領域R’に対するフィルタ係数h’(i、j)から算出する。ここで、図6の(a)および(b)に示す例においては、式(4)の右辺の分母におけるΣは、具体的には、(1≦m≦5、1≦n≦5)を満たすインデックスm、nに関する和である。
また、図6の(b)に示すように、予測フィルタ係数導出部143は、フィルタ参照領域R上の領域であって、重複領域OR’含まれない領域に対する予測フィルタ係数p(i、j)を0に設定する。
式(4)、および、図6の(b)から明らかなように、予測フィルタ係数p(i、j)のフィルタ参照領域Rにおける総和は、Aに等しい。
一般に、フィルタ参照領域Rにおけるフィルタ係数の総和は、1に近い傾向がある。従って、符号化データ#1を生成する動画像符号化装置において、フィルタ参照領域Rにおける予測フィルタ係数の総和が1に近くなるように予測フィルタ係数を生成することによって、符号化データ#1に含まれるフィルタ係数残差#13dの符号量を削減することができる。また、動画像復号装置1は、上記のような構成をとることによって、フィルタ係数残差#13dの符号量の少ない符号化データ#1を復号することができる。
なお、本例においても、フィルタ参照領域Rの中心画素に対する予測フィルタ係数p_centerを、式(3)を用いて導出するような構成としてもよい。
また、上記の説明では、フィルタ参照領域R’が5×5タップであり、フィルタ参照領域Rが9×9タップである場合を例に挙げ説明を行ったが、本発明は、これに限定されるものではなく、一般にフィルタ参照領域R’が、M×Nタップであり、フィルタ参照領域RがM’×N’タップである場合に対して適用することができる。
また、上記の説明では、重複領域ORの中心画素とフィルタ参照領域Rの中心画素とが一致する場合を例にとり説明を行ったが、本発明は、フィルタ参照領域Rの中心画素と、重複領域ORの中心画素とが一致しない場合に対しても適用することができる。
続いて、N=Mである場合、すなわち、予測対象フレーム上のフィルタ参照領域Rのタップ数と、フレームNF上のフィルタ参照領域R’のタップ数とが等しい場合における、フィルタ係数予測部140の動作について説明する。
N=Mである場合における場合のフィルタ係数予測部140による、予測フィルタ係数#140の算出処理は、以下の(具体例1-3)の通りである。
(具体例1-3)
予測フィルタ係数導出部143は、フィルタ参照領域R’に含まれる各々のフィルタ係数h’(i、j)を式(4)によって正規化することによって、フィルタ参照領域Rに対する予測フィルタ係数p(i、j)を算出する。また、算出された予測フィルタ係数p(i、j)は、予測フィルタ係数#140として出力される。
予測フィルタ係数導出部143は、フィルタ参照領域R’に含まれる各々のフィルタ係数h’(i、j)を式(4)によって正規化することによって、フィルタ参照領域Rに対する予測フィルタ係数p(i、j)を算出する。また、算出された予測フィルタ係数p(i、j)は、予測フィルタ係数#140として出力される。
式(4)から明らかなように、フィルタ参照領域R’における予測フィルタ係数p(i、j)の総和は、1に近い値になる。なお、量子化されたフィルタ係数を用いる場合には、上述のように、式(4)の分子を、Aそのものではなく、量子化係数に応じた値とすればよい。
一般に、フィルタ参照領域Rにおけるフィルタ係数の総和は、1に近い傾向がある。従って、符号化データ#1を生成する動画像符号化装置において、フィルタ参照領域Rにおける予測フィルタ係数の総和が1に近くなるように予測フィルタ係数を生成することによって、符号化データ#1に含まれるフィルタ係数残差#13dの符号量を削減することができる。また、動画像復号装置1は、上記のような構成をとることによって、フィルタ係数残差#13dの符号量の少ない符号化データ#1を復号することができる。
なお、本例においても、フィルタ参照領域Rの中心画素に対する予測フィルタ係数p_centerを、式(3)を用いて導出するような構成としてもよい。
また、本例においては、フィルタ参照領域R’におけるフィルタ係数h’(i、j)の総和を1から減じたものの絶対値が、予め定められた値以上となる場合に、上記の動作を行うような構成としてもよい。
なお、以上のような各部を有する動画像復号装置1において、可変長復号部13、加算器101、および、フィルタ係数予測部140は、符号化データ#1に含まれるフィルタ係数残差#13dに基づいて、フィルタ係数#101を復号するフィルタ係数復号装置として捉えることができる。したがって、本実施形態に係る動画像復号装置1は、そのようなフィルタ係数復号装置を備え、デブロック画像#50に対して、フィルタ係数#101を用いたフィルタリングを行う動画像復号装置であると表現することもできる。
(動画像符号化装置2)
本実施形態に係る動画像符号化装置2の構成について図7~図10を参照して説明する。動画像符号化装置2は、その一部に、H.264/MPEG-4 AVC、および、KTAソフトウェアに採用されている技術を含む復号装置である。
本実施形態に係る動画像符号化装置2の構成について図7~図10を参照して説明する。動画像符号化装置2は、その一部に、H.264/MPEG-4 AVC、および、KTAソフトウェアに採用されている技術を含む復号装置である。
図7は、動画像符号化装置2の構成を示すブロック図である。図7に示すように、動画像符号化装置2は、変換・量子化部21、可変長符号化部22、逆量子化・逆変換部23、バッファメモリ24、イントラ予測画像生成部25、インター予測画像生成部26、予測方式制御部28、動きベクトル冗長性削減部29、加算器31、減算器32、デブロッキングフィルタ50、および、適応フィルタ100’を備えている。
動画像符号化装置2には、マクロブロックに分割された入力画像#10が入力される。動画像符号化装置2は、概略的に言えば、入力画像#10の符号化処理を行い、符号化データ#1を出力する装置である。
変換・量子化部21は、マクロブロックに分割された入力画像#10と、後述する予測方式制御部28から出力される予測画像#28aとの差分画像#32を、DCT変換により、周波数成分へ変換した後、当該周波数成分の量子化を行い、量子化予測残差データ#21を生成する。ここで、上記量子化とは、上記周波数成分を整数値に対応付ける演算のことである。また、上記DCT変換、および、量子化は、マクロブロックを分割したブロック単位で行われる。以下では、処理の対象となるマクロブロックを「対象マクロブロック」と呼び、処理の対象となるブロックを「対象ブロック」と呼ぶ。
逆量子化・逆変換部23は、量子化予測残差データ#21の復号を行い、予測残差#23を生成する。具体的には、逆量子化・逆変換部23は、量子化予測残差データ#21の逆量子化、すなわち、量子化予測残差データ#21を構成する整数値の周波数成分への対応付け、および、当該周波数成分の逆DCT変換、すなわち、当該周波数成分に基づいた対象マクロブロックの画素成分への逆変換を行い、予測残差#23を生成する。
加算器31は、予測残差#23と、予測画像#28aとを加算し、復号画像#31を生成する。生成された復号画像#31は、デブロッキングフィルタ50に供給される。
デブロッキングフィルタ50は、復号画像#31における当該ブロック境界、またはマクロブロック境界に対してデブロッキング処理を施す。デブロッキング処理が施された画像データは、デブロック画像#50として出力される。
適応フィルタ100’は、デブロック画像#50に対してフィルタリングを施し、出力画像データ#100’をバッファメモリ24に対して出力する。また、適応フィルタ100’は、フィルタリングに用いたフィルタ係数と、予測されたフィルタ係数との残差であるフィルタ係数残差#102を可変長符号化部22に対して出力する。
また、適応フィルタ100’は、フィルタリングの参照画素数を示すパラメータ(タップ数)、および、フィルタリングのオン/オフを指定するパラメータに関する情報であるフィルタパラメータ情報を可変長符号化部22に対して出力する。適応フィルタ100’の構成については、後述するため、ここでは説明を省略する。
イントラ予測画像生成部25は、バッファメモリ24に格納された出力画像データ#100’から局所復号画像#24a(対象マクロブロックと同じフレームの既復号領域)を抽出し、局所復号画像#24aに基づいてフレーム内予測を行い、イントラ予測画像#25を生成する。
インター予測画像生成部26は、入力画像#10上の対象ブロックに対し、既にフレーム全体が復号され、バッファメモリ24に格納された参照画像#24bを用いて、動きベクトル#27を算出し、割り付ける。算出された動きベクトル#27は、インター予測画像生成部26、動きベクトル冗長性削減部29に対して出力されると共に、バッファメモリ24に格納される。また、インター予測画像生成部26は、参照画像#24bに対し、ブロックごとに、動きベクトル#27に基づいた動き補償を行い、インター予測画像#26を生成する。
予測方式制御部28は、マクロブロック単位で、イントラ予測画像#25と、インター予測画像#26と、入力画像#10とを比較し、イントラ予測画像#25、または、インター予測画像#26のうち、何れか一方を選択し、予測画像#28aとして出力する。また、予測方式制御部28は、イントラ予測画像#25、または、インター予測画像#26のうち、何れを選択したのかを表す情報である予測モード#28bを出力する。予測画像#28aは減算器32に入力される。
予測モード#28bは、バッファメモリ24に格納されると共に、可変長符号化部22に入力される。
動きベクトル冗長性削減部29は、インター予測画像生成部26において上記対象ブロックに動きベクトル#27が割り付けられた後、他のブロックに割り付けられ、バッファメモリ24に格納された動きベクトル群#24cに基づいて予測ベクトルを算出する。また、動きベクトル冗長性削減部29は、当該予測ベクトルと、動きベクトル#27との差分をとり、差分動きベクトル#29を生成する。生成された差分動きベクトル#29は、可変長符号化部22に出力される。
可変長符号化部22は、量子化予測残差データ#21、差分動きベクトル#29、予測モード#28b、フィルタ係数残差#102、および、フィルタパラメータ情報に対して可変長符号化を行い、符号化データ#1を生成する。
減算器32は、対象マクロブロックに対し、入力画像#10と、予測画像#28aとの差分をとり、差分画像#32を出力する。
(適応フィルタ100’)
以下では、図8~図9を参照して、適応フィルタ100’の構成について説明する。図8は、適応フィルタ100’の構成を示すブロック図である。図8に示すように、適応フィルタ100’は、フィルタ処理部110’、フィルタパラメータ決定部120’、フィルタ係数導出部130’、フィルタ係数予測部140’、および、減算器102を備えている。
(適応フィルタ100’)
以下では、図8~図9を参照して、適応フィルタ100’の構成について説明する。図8は、適応フィルタ100’の構成を示すブロック図である。図8に示すように、適応フィルタ100’は、フィルタ処理部110’、フィルタパラメータ決定部120’、フィルタ係数導出部130’、フィルタ係数予測部140’、および、減算器102を備えている。
フィルタパラメータ決定部120’は、入力画像#10のサイド情報に基づいて、フィルタリングの参照画素数を示すパラメータ(タップ数)、および、フィルタリングのオン/オフ等を指定するパラメータ群(以下、フィルタパラメータ群と呼ぶ)を決定し、当該フィルタパラメータ群を含む情報であるフィルタパラメータ情報#120’を出力する。ここで、入力画像#10のサイド情報には、予測モード、動きベクトル、参照フレームを示す参照画像インデクス、および、量子化パラメータ、などが含まれる。
また、上記フィルタパラメータ群の決定方法は、本発明を限定するものではないが、例えば、フィルタパラメータ決定部120’は、入力画像#10を構成するブロックのブロックサイズ、または、入力画像#10を四分木(Quad-tree)により階層的に分割した場合の階層数などに応じて、上記フィルタパラメータ群を決定するような構成をとすることができる。
減算器102は、フィルタ係数#130’と、予測フィルタ係数#140’との差分をとることによって、フィルタ係数残差#102を生成し、出力する。
(フィルタ処理部110’)
フィルタ処理部110’は、デブロック画像#50に対して、フィルタ係数#130’を用いてフィルタリングを施すことによって、出力画像データ#100’を生成し、出力する。
フィルタ処理部110’は、デブロック画像#50に対して、フィルタ係数#130’を用いてフィルタリングを施すことによって、出力画像データ#100’を生成し、出力する。
フィルタ処理部110’におけるフィルタリング処理は、上述した動画像復号装置1におけるフィルタ処理部110におけるフィルタリング処理とほぼ同様である。
具体的には、フィルタ処理部110は、上記式(1)に示すように、出力画像データ#100’の座標(x’、y’)における画素値S0(x’、y’)の、フィルタ係数h(i、j)を用いた加重線形和に、オフセットを加算することによって算出する。ただし、フィルタ処理部110’においては、式(1)におけるフィルタ係数h(i、j)は、フィルタ係数#130’に対応しているものとする。
(フィルタ係数導出部130’)
フィルタ係数導出部130’は、フィルタパラメータ決定部120’から出力されたフィルタパラメータ情報#120’に基づき、入力画像#10とデブロック画像#50とを用いて、フィルタ係数#130’を導出する。導出されたフィルタ係数#130’は、フィルタ係数予測部140’、減算機102、および、フィルタ処理部110’に対して出力される。
フィルタ係数導出部130’は、フィルタパラメータ決定部120’から出力されたフィルタパラメータ情報#120’に基づき、入力画像#10とデブロック画像#50とを用いて、フィルタ係数#130’を導出する。導出されたフィルタ係数#130’は、フィルタ係数予測部140’、減算機102、および、フィルタ処理部110’に対して出力される。
フィルタ係数導出部130’は、フィルタ係数h(i、j)の値を、例えば、以下の式(5)によって与えられる、入力画像#10の各画素値と出力画像データ#100’の各画素値との二乗誤差E1を最小にするように導出する。
ここで、S(x、y)は、入力画像#10の座標(x、y)における画素値を表しており、SI(x、y)は、デブロック画像#50の座標(x、y)における画素値を表している。また、oはオフセットを表している。
このようにして導出されたフィルタ係数h(i、j)(1≦i≦M、1≦j≦N)は、フィルタ係数導出部130’から、フィルタ係数#130’として出力され、フィルタ処理部110’におけるフィルタリングに用いられる。
(フィルタ係数予測部140’)
フィルタ係数予測部140’は、動画像復号装置1の備えるフィルタ係数予測部140とほぼ同様の動作を行う。ただし、動画像符号化装置2においては、フィルタ係数予測部140’に供給されるフィルタ係数は、フィルタ係数#130’であり、フィルタ係数予測部140’が出力する予測フィルタ係数は、予測フィルタ係数#140’である。
フィルタ係数予測部140’は、動画像復号装置1の備えるフィルタ係数予測部140とほぼ同様の動作を行う。ただし、動画像符号化装置2においては、フィルタ係数予測部140’に供給されるフィルタ係数は、フィルタ係数#130’であり、フィルタ係数予測部140’が出力する予測フィルタ係数は、予測フィルタ係数#140’である。
図9は、フィルタ係数予測部140’の構成を示すブロック図である。図9に示すように、フィルタ係数予測部140’は、フィルタ係数格納部141’、参照フィルタ係数選択部142’、および、予測フィルタ係数導出部(予測値生成手段)143’を備えている。
フィルタ係数格納部141’は、動画像復号装置1におけるフィルタ係数格納部141とほぼ同様の動作を行う。ただし、フィルタ係数格納部141’に格納されているフィルタ係数には、符号化済みのフレームに対するフィルタリング処理においてすでに用いられたフィルタ係数が含まれる。また、フィルタ係数格納部141’には、予測対象フレームに関するサイド情報、および、予測対象フレームに関するフィルタパラメータ情報も格納される。
以下では、フィルタ係数格納部141’に格納されているサイド情報のうち、符号化済みのフレームに関するサイド情報をサイド情報#10s(D)と表し、予測対象フレームに関するサイド情報をサイド情報#10s(P)と表すことにする。
また、フィルタ係数格納部141’に格納されているフィルタパラメータ情報のうち、符号化済みのフレームに関するフィルタパラメータ情報をフィルタパラメータ情報#10p(D)と表し、予測対象フレームに関するフィルタパラメータ情報をフィルタパラメータ情報#10p(P)と表すことにする。
参照フィルタ係数選択部142’は、動画像復号装置1における参照フィルタ係数選択部142とほぼ同様に、サイド情報#10s(D)とサイド情報#10s(P)とを参照して、予測対象フレームのピクチャタイプと同じピクチャタイプのフレームであって、予測対象フレームとのフレーム間隔が最も小さいフレームNFを特定する。
続いて、参照フィルタ係数選択部142’は、予測対象フレーム上のフィルタ参照領域Rに対応する領域であって、フレームNF上のフィルタ参照領域R’に対するフィルタ係数のセットを、参照フィルタ係数セット#142’として、予測フィルタ係数導出部143’に出力する。
予測フィルタ係数導出部143’は、動画像復号装置1における予測フィルタ係数導出部143と同様に、フィルタパラメータ情報#10p(D)とフィルタパラメータ情報#10p(P)とを参照し、参照フィルタ係数セット#142’に基づいて、予測フィルタ係数#140’を導出する。
より具体的には、予測フィルタ係数導出部143’は、フィルタパラメータ情報#10p(D)を参照することによって得られるフィルタ参照領域R’のタップ数と、フィルタパラメータ情報#10p(P)を参照することによって得られるフィルタ参照領域Rのタップ数とを比較し、その大小関係に応じて選択される方法に従い、予測フィルタ係数#140’を導出する。
(予測フィルタ係数の算出処理の具体例)
以下では、予測フィルタ係数導出部143’による、予測フィルタ係数#140’の算出処理の具体例について説明する。
以下では、予測フィルタ係数導出部143’による、予測フィルタ係数#140’の算出処理の具体例について説明する。
なお、以下では、フィルタ参照領域R’のタップ数がM×Mタップ(Mは自然数)であり、フィルタ参照領域Rのタップ数がN×Nタップ(Nは自然数)であるとして説明を行う。
N<Mである場合における、予測フィルタ係数導出部143’による予測フィルタ係数#140の’算出処理は、以下の(具体例1-1’)の通りである。
(具体例1-1’)
本例では、フィルタ係数予測部140’は、(具体例1-1)において説明したフィルタ係数予測部140による予測フィルタ係数#140の算出処理とほぼ同様の動作を行う。
本例では、フィルタ係数予測部140’は、(具体例1-1)において説明したフィルタ係数予測部140による予測フィルタ係数#140の算出処理とほぼ同様の動作を行う。
予測フィルタ係数導出部143’は、まず、フィルタ参照領域R’に対するフィルタ係数h’(i、j)のセットから、フィルタ参照領域R’内の領域であってフィルタ参照領域Rと重複する重複領域ORに対するフィルタ係数h’(i、j)を抽出する。
続いて、予測フィルタ係数導出部143’は、重複領域ORに対するフィルタ係数h’(i、j)を式(2)によって正規化することによって、フィルタ参照領域Rに対する予測フィルタ係数p(i、j)を算出する。また、算出されたp(i、j)は、予測フィルタ係数140’として出力される。
(具体例1-1)において述べたように、式(2)を用いて算出された予測フィルタ係数p(i、j)のフィルタ参照領域Rにおける総和は、フィルタ係数h’(i、j)のフィルタ参照領域R’における総和に等しい。
すなわち、本例においては、予測フィルタ係数導出部143’は、フィルタ参照領域R’に対するフィルタ係数h’(i、j)のセットから重複領域ORに対するフィルタ係数を抽出し、フィルタ参照領域R’におけるフィルタ係数h’(i、j)の総和と、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)の総和が等しくなるように正規化することによって、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)を導出するものである、と表現することができる。
したがって、動画像符号化装置2は、本例の動作を行うことによって、フィルタ係数残差#102の符号量を削減することができる。
なお、予測フィルタ係数導出部143’は、式(3)を用いてフィルタ参照領域Rの中心画素に対する予測フィルタ係数p_centerを導出するような構成としてもよい。
一般に、フィルタ参照領域Rにおけるフィルタ係数の総和は、1に近い傾向がある。従って、動画像符号化装置2において、式(3)を用いて予測フィルタ係数を生成することによって、フィルタ係数残差#102の符号量を削減することができる。
また、予測フィルタ係数導出部143’は、式(2)の右辺の分子Σh’(m、n)を、Σh’(m、n)+dに置き換えた式を用いて、フィルタ参照領域Rに対する予測フィルタ係数p(i、j)を算出するような構成としてもよい。ここで、dは、予め定められた正または負の値を有するパラメータであり、その具体的な値は、フィルタの対象となる画像の特性に応じて決定される。例えば、パラメータdとして、フィルタの対象となる画像のシーケンスに応じて予め決定される値を用いることができる。また、パラメータdの具体的な値としては、その絶対値が、予め定められた閾値以下となるようなものを用いることが好ましい。
一般に、フィルタの対象となる画像の特性如何によっては、予測フィルタ係数p(i、j)のフィルタ参照領域Rにおける総和が、フィルタ係数h’(i、j)のフィルタ参照領域R’における総和から、所定の値だけ異なった値となるように、予測フィルタ係数p(i、j)を算出することによって、フィルタ係数残差#13dの符号量をより低減させることができる場合もある。上記の構成は、そのような場合に好適に適用することができる。
続いて、N>Mである場合における、フィルタ係数予測部140の’動作について説明する。
N>Mであるときのフィルタ係数予測部140’による、予測フィルタ係数#140’の算出処理は、以下の(具体例1-2’)の通りである。
(具体例1-2’)
本例では、予測フィルタ係数導出部143’は、(具体例1-2)において説明した予測フィルタ係数導出部143’による予測フィルタ係数#140の算出処理と同様の動作を行う。
本例では、予測フィルタ係数導出部143’は、(具体例1-2)において説明した予測フィルタ係数導出部143’による予測フィルタ係数#140の算出処理と同様の動作を行う。
予測フィルタ係数導出部143’は、まず、フィルタ参照領域R’に含まれる各々のフィルタ係数h’(i、j)に基づき、式(4)を用いて、フィルタ参照領域R上の領域であって、フィルタ参照領域R’に重複する領域(重複領域OR’)に対する予測フィルタ係数p(i、j)を算出する。また、算出された予測フィルタ係数p(i、j)は、予測フィルタ係数#140’として出力される。
式(4)から明らかなように、また、すでに説明したように、重複領域OR’における予測フィルタ係数p(i、j)の総和は、1に近い値になる。
一方で、予測フィルタ係数導出部143’は、フィルタ参照領域R上の領域であって重複領域OR’に含まれない領域に対する予測フィルタ係数p(i、j)を0に設定する。
したがって、本例においては、予測フィルタ係数導出部143’は、重複領域OR’における予測フィルタ係数p(i、j)の総和と1との差の絶対値が予め定められた閾値以下となるように、重複領域OR’における予測フィルタ係数p(i、j)を正規化し、フィルタ参照領域R上の領域であって重複領域OR’に含まれない領域に対する予測フィルタ係数p(i、j)を0に設定することによって、フィルタ参照領域Rにおける予測フィルタ係数p(i、j)を導出するものである、と表現することができる。
一般に、フィルタ参照領域Rにおけるフィルタ係数の総和は、1に近い傾向がある。動画像符号化装置1は、上記の動作を行うことによって、フィルタ係数残差#102の符号量を削減することができる。
なお、本例においても、フィルタ参照領域Rの中心画素に対する予測フィルタ係数p_centerを、式(3)を用いて導出するような構成としてもよい。
続いて、N=Mである場合における、フィルタ係数予測部140’の動作について説明する。
N=Mである場合のフィルタ係数予測部140’による、予測フィルタ係数#140’の算出処理は、以下の(具体例1-3’)の通りである。
(具体例1-3’)
本例では、予測フィルタ係数導出部143’は、(具体例1-3)において説明した予測フィルタ係数導出部143による予測フィルタ係数#140の算出処理と同様の動作を行う。
本例では、予測フィルタ係数導出部143’は、(具体例1-3)において説明した予測フィルタ係数導出部143による予測フィルタ係数#140の算出処理と同様の動作を行う。
予測フィルタ係数導出部143’は、フィルタ参照領域R’に含まれる各々のフィルタ係数h’(i、j)を式(4)によって正規化することによって、フィルタ参照領域Rに対する予測フィルタ係数p(i、j)を算出する。
式(4)から明らかなように、予測フィルタ係数p(i、j)のフィルタ参照領域Rにおける総和は、1に近い値になる。
一般に、フィルタ参照領域Rにおけるフィルタ係数の総和は、1に近い傾向がある。従って、動画像符号化装置2には、上記の動作を行うことによって、フィルタ係数残差#102の符号量を削減することができる。
また、本例においても、フィルタ参照領域Rの中心画素に対する予測フィルタ係数p_centerを、式(3)を用いて導出するような構成としてもよい。
なお、以上のような各部を有する動画像符号化装置2において、可変長符号化部22、減算器102、および、フィルタ係数予測部140’は、フィルタ係数導出部130’から供給されるフィルタ係数#130’と、フィルタ係数#130’に基づいて予測された予測フィルタ係数#140’との残差であるフィルタ係数残差#102を符号化するフィルタ係数符号化装置を構成していると捉えることができる。したがって、本実施形態に係る動画像符号化装置2は、そのようなフィルタ係数符号化装置を備えている動画像符号化装置であると表現することもできる。
(符号化データ#1のデータ構造)
以下では、動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1のデータ構造について、図16を参照して説明する。
以下では、動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1のデータ構造について、図16を参照して説明する。
図16は、動画像符号化装置2によって生成され、動画像復号装置1に参照される符号化データ#1のスライスごとのビットストリーム#BSを示す図である。図16の(a)に示すように、ビットストリーム#BSは、フィルタパラメータ情報FP、フィルタ係数残差情報RC、マクロブロック情報MB1~MBNを含んでいる。ここで、フィルタ係数残差情報RCは、動画像符号化装置2において生成されたフィルタ係数残差#102を含む情報である。マクロブロック情報MB1~MBNは、スライス内に存在するマクロブロックの復号に用いられる情報である。Nはスライス内に存在するマクロブロックの数を表している。なお、マクロブロック情報は、予測モード、動きベクトル、参照画像インデクス、量子化パラメータ、および、量子化予測残差データなどを含む。
図16の(b)は、フィルタパラメータ情報FPの構成の一例を示している。
図16の(b)に示すように、フィルタパラメータ情報FPは、フィルタリングの参照画素数を示す情報(タップ数情報)、および、フィルタリングのオン/オフを指定するオン/オフ指定情報を含む。
一方で、フィルタ係数残差情報RCには、(具体例1-1’)~(具体例1-3’)の何れかの方法によって生成された予測フィルタ係数#140’を用いて生成されたフィルタ係数残差#102が含まれる。
〔実施形態2〕
(動画像復号装置3)
本実施形態に係る動画像復号装置3の構成について図10~図12を参照して説明する。図10は、動画像復号装置3の構成を示すブロック図である。なお、図10では、図1において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。
(動画像復号装置3)
本実施形態に係る動画像復号装置3の構成について図10~図12を参照して説明する。図10は、動画像復号装置3の構成を示すブロック図である。なお、図10では、図1において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。
図10に示すように、動画像復号装置3は、可変長符号復号部51、動きベクトル復元部14、バッファメモリ15、インター予測画像生成部16、イントラ予測画像生成部17、予測方式決定部18、逆量子化・逆変換部19、加算器20、デブロッキングフィルタ50、および、適応フィルタ200を備えている。
動画像復号装置3は、符号化データ#5を受け、出力画像#6を出力する装置である。
可変長符号復号部51は、符号化データ#5を可変長復号し、差分動きベクトル#13a、サイド情報#13b、量子化予測残差データ#13c、フィルタ係数残差#13d、フィルタパラメータ情報#13e、および、フィルタ係数算出方法を示すフラグ#51を出力する。
適応フィルタ200は、符号化データ#5から復号されたフラグ#51が示すフィルタ係数算出手法に従って、フィルタ係数残差#13dに基づいてフィルタ係数を算出し、デブロック画像#50に対して当該フィルタ係数を用いたフィルタリングを行うことによって出力画像データ#200を生成する。出力画像データ#200は、バッファメモリ15に対して供給される。なお、適応フィルタ200におけるフィルタリング処理は、符号化データ#5から復号されたサイド情報#13b、および、フィルタパラメータ情報#13eに含まれるパラメータに基づいて行われる。
以下では、図11を参照して、適応フィルタ200の構成について説明する。
(適応フィルタ200)
図11は、適応フィルタ200の構成を示すブロック図である。なお、図11では、図2において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。図11に示すように、適応フィルタ200は、フィルタ処理部110、フィルタ係数予測部210、および、加算器202を備えている。
図11は、適応フィルタ200の構成を示すブロック図である。なお、図11では、図2において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。図11に示すように、適応フィルタ200は、フィルタ処理部110、フィルタ係数予測部210、および、加算器202を備えている。
加算器202は、符号化データ#5から復号されたフィルタ係数残差#13dとフィルタ係数予測部210より出力された予測フィルタ係数#210とを加算することによって、フィルタ係数#202を生成し、出力する。
フィルタ係数予測部210は、フィルタ係数算出方法を示すフラグ#51で示される方法に従い、フィルタ係数#202のうち、復号済みのフレームに対するフィルタリング処理においてすでに用いられたフィルタ係数に基づいて、予測フィルタ係数#210を算出する。予測フィルタ係数#210は加算器202に対して出力される。
図12は、フィルタ係数予測部210の構成を示すブロック図である。なお、図12では、図4において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。図12に示すように、フィルタ係数予測部210は、フィルタ係数格納部141、参照フィルタ係数選択部211、および、予測フィルタ係数導出部212を備えている。
フィルタ係数予測部210は、フラグ#51に応じて、(具体例1-1)~(具体例1-3)において説明した予測フィルタ係数#140と同様の予測フィルタ係数#210を出力するか、または、復号済みのフレームのフィルタリングに用いられたフィルタ係数を予測フィルタ係数#210として出力する。
以下では、フィルタ係数予測部210動作についてより具体的に説明する。
参照フィルタ係数選択部211は、まず、サイド情報#13b(D)とサイド情報#13b(P)とを参照して、復号済みのフレームのうち、予測対象フレームのピクチャタイプと同じピクチャタイプのフレームであって、予測対象フレームとのフレーム間隔が最も小さいフレーム(以下、フレームNF1と呼ぶ)を特定する。
続いて、参照フィルタ係数選択部211は、予測対象フレーム上のフィルタ参照領域Rに対応する領域であって、フレームNF1上のフィルタ参照領域R’に対するフィルタ係数のセットを、参照フィルタ係数セット#211aとして、予測フィルタ係数導出部212に出力する。
また、参照フィルタ係数選択部211は、サイド情報#13b(D)、サイド情報#13b(P)、フィルタパラメータ情報#13e(D)、および、フィルタパラメータ情報#13e(P)を参照して、予測対象フレームと同じピクチャタイプの復号済みフレームであって、フィルタ参照領域Rに対応するフィルタ参照領域のタップ数がフィルタ参照領域Rのタップ数と同じであるフレームのうち、予測対象フレームとのフレーム間隔が最も小さいフレーム(以下、フレームNF2と呼ぶ)を特定する。
以下では、フレームNF2上の領域であって、フィルタ参照領域Rに対応するフィルタ参照領域をフィルタ参照領域R’’と呼ぶことにする。
続いて、参照フィルタ係数選択部211は、フィルタ参照領域R’’をフィルタ参照領域とするフィルタリングに用いられたフィルタ係数のセットを、参照フィルタ係数セット#211bとして、予測フィルタ係数導出部212に出力する。
予測フィルタ係数導出部212は、例えば、フラグ#51の値が1である場合、フィルタパラメータ情報#13e(D)とフィルタパラメータ情報#13e(P)とを参照し、参照フィルタ係数セット#211aに基づいて、予測フィルタ係数#210を導出する。
ここで、予測フィルタ係数導出部212における予測フィルタ係数#210の算出方法としては、すでに説明した(具体例1-1)~(具体例1-3)の何れかを用いればよい。
一方で、例えば、フラグ#51の値が0である場合には、予測フィルタ係数導出部212は、参照フィルタ係数セット#211bに含まれるフィルタ係数を予測フィルタ係数#210として出力する。
なお、フィルタ係数予測部210は、フラグ#51を参照することなく、参照フィルタ係数セット#211aに基づいて、実施形態1の(具体例1-1)~(具体例1-3)の何れかに示した方法によって予測フィルタ係数#210を導出するか、または、予測フィルタ係数#211bに含まれる各々のフィルタ係数を予測フィルタ係数#210として出力するような構成としてもよい。
例えば、参照フィルタ係数セット#211aに含まれるフィルタ係数の総和と1との差の絶対値が予め定められた閾値thより小さい場合には、実施形態1の(具体例1-1)~(具体例1-3)の何れかに示した方法によって算出された予測フィルタ係数p(i、j)を予測フィルタ係数#210として出力し、そうでない場合には、予測フィルタ係数#211bに含まれる各々のフィルタ係数を予測フィルタ係数#210として出力するような構成としてもよい。
符号化データ#5を生成する動画像符号化装置であって、上記の構成に対応した構成を有する動画像符号化装置によれば、参照フィルタ係数の総和に応じて、フィルタ係数残差の符号量を効果的に削減しつつ、符号化データ#5を生成することができる。
また、上記の構成を有する動画像復号装置3は、そのようにして生成された符号化データ#5を適切に復号することができる。
(動画像符号化装置4)
本実施形態に係る動画像符号化装置4の構成について図13~図15を参照して説明する。図13は、動画像符号化装置4の構成を示すブロック図である。なお、図13では、図7において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。
本実施形態に係る動画像符号化装置4の構成について図13~図15を参照して説明する。図13は、動画像符号化装置4の構成を示すブロック図である。なお、図13では、図7において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。
図13に示すように、動画像符号化装置4は、変換・量子化部21、逆量子化・逆変換部23、バッファメモリ24、イントラ予測画像生成部25、インター予測画像生成部26、予測方式制御部28、動きベクトル冗長性削減部29、加算器31、減算器32、デブロッキングフィルタ50、可変長符号化部41、および、適応フィルタ200’を備えている。
動画像符号化装置4には、隣接する複数の画素から構成されるブロック画像に分割された入力画像#4が入力される。
動画像符号化装置4は、入力画像#4の符号化処理を行い、符号化データ#5を出力する。
可変長符号化部41は、量子化予測残差データ#21、差分動きベクトル#29、予測モード#28b、フィルタ係数の予測方法を示すフラグ#220、および、フィルタ係数残差#102に対して可変長符号化を行い、符号化データ#5を生成する。
適応フィルタ200’は、デブロック画像#50に対してフィルタリングを施すことによって出力画像データ#200’を生成し、バッファメモリ24に対して出力する。また、適応フィルタ200’は、フィルタリングに用いたフィルタ係数と、予測されたフィルタ係数との残差であるフィルタ係数残差#102を可変長符号化部41に対して出力する。また、適応フィルタ200’は、フィルタ係数の予測方法を示すフラグ#220を可変長符号化部41に対して出力する。
以下では、適応フィルタ200’の構成例について、説明する。
(適応フィルタ200’)
図14は、適応フィルタ200’の構成例を示すブロック図である。
図14は、適応フィルタ200’の構成例を示すブロック図である。
図14に示すように、本例においては、適応フィルタ200’は、フィルタ処理部110’、フィルタパラメータ決定部120’、フィルタ係数導出部130’、フィルタ係数予測部210’、減算器201、および、予測手段選択部220を備えている。なお、図14では、図8において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。
(フィルタ係数予測部210’)
図15は、フィルタ係数予測部210’の構成を示すブロック図である。なお、図15では、図9において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。図15に示すように、フィルタ係数予測部210’は、フィルタ係数格納部141’、参照フィルタ係数選択部211’および、予測フィルタ係数導出部212’を備えている。
図15は、フィルタ係数予測部210’の構成を示すブロック図である。なお、図15では、図9において示した各ブロックと同一のブロックに関しては、同一の参照符号を付し、その説明を省略する。図15に示すように、フィルタ係数予測部210’は、フィルタ係数格納部141’、参照フィルタ係数選択部211’および、予測フィルタ係数導出部212’を備えている。
参照フィルタ係数選択部211’は、動画像復号装置3における参照フィルタ係数選択部211とほぼ同様に、フィルタ係数格納部141’に格納されているサイド情報#10s(D)、サイド情報#10s(P)とを参照して、予測対象フレームのピクチャタイプと同じピクチャタイプのフレームであって、予測対象フレームとのフレーム間隔が最も小さいフレームNF1を特定する。
続いて、参照フィルタ係数選択部211’は、予測対象フレーム上のフィルタ参照領域Rに対応する領域であって、フレームNF1上のフィルタ参照領域R’に対するフィルタ係数のセットを、参照フィルタ係数セット#211a’として、予測フィルタ係数導出部212’に出力する。
また、参照フィルタ係数選択部211’は、フィルタ係数格納部141’に格納されているサイド情報#10s(D)、サイド情報#10s(P)、フィルタパラメータ情報#10p(D)、および、フィルタパラメータ情報#10p(P)を参照して、予測対象フレームと同じピクチャタイプのフレームであって、フィルタ参照領域Rに対応するフィルタ参照領域のタップ数がフィルタ参照領域Rのタップ数と同じであるフレームのうち、予測対象フレームとのフレーム間隔が最も小さいフレーム(以下、フレームNF2と呼ぶ)を特定する。
以下では、フレームNF2上の領域であって、フィルタ参照領域Rに対応するフィルタ参照領域をフィルタ参照領域R’’と呼ぶことにする。
続いて、参照フィルタ係数選択部211’は、フィルタ参照領域R’’をフィルタ参照領域とするフィルタリングに用いられたフィルタ係数のセットを、参照フィルタ係数セット#211b’として、予測フィルタ係数導出部212’に出力する。
予測フィルタ係数導出部212’は、動画像復号装置3における予測フィルタ係数導出部212と同様に、フィルタパラメータ情報#10p(D)とフィルタパラメータ情報#10p(P)とを参照し、参照フィルタ係数セット#211a’に基づいて、予測フィルタ係数#210’を導出する。
具体的には、予測フィルタ係数導出部212’は、(具体例1-1’)~(具体例1-3’)において説明した方法と同様の方法により、予測フィルタ係数#210’を導出する。
また、予測フィルタ係数#210’には、フレームNF2上のフィルタ対象領域R’’をフィルタ参照領域とするフィルタリングに用いられたフィルタ係数のセットも含まれる。
減算器201は、フィルタ係数#130’と、予測フィルタ係数#210’との差分をとることによって、フィルタ係数残差#201を生成し、予測手段選択部220に対して出力する。
より具体的には、減算器201は、(具体例1-1’)~(具体例1-3’)と同様の方法によって算出された予測フィルタ係数#210’の、フィルタ係数#130’との残差であるフィルタ係数残差#RC1を出力すると共に、フレームNF2上のフィルタ対象領域R’’をフィルタ参照領域とするフィルタリングに用いられたフィルタ係数の、フィルタ係数#130’との残差であるフィルタ係数残差#RC2を出力する。
(予測手段選択部220)
予測手段選択部220は、フィルタ係数残差#RC1と、フィルタ係数残差#RC2とを比較し、より小さいフィルタ係数残差をフィルタ係数残差#102として出力する。
予測手段選択部220は、フィルタ係数残差#RC1と、フィルタ係数残差#RC2とを比較し、より小さいフィルタ係数残差をフィルタ係数残差#102として出力する。
また、図示しないが、予測手段選択部220への入力をフィルタ係数残差の符号量とし、予測手段選択部220が両者の比較を行い、より小さい符号量に対応するフィルタ係数残差を、フィルタ係数残差#102として出力する構成としても良い。
また、予測手段選択部220は、フィルタ係数残差#RC1を出力する場合には、(具体例1-1’)~(具体例1-3’)の何れかの方法によって算出された予測フィルタ係数を用いたことを示すフラグ#220を出力し、フィルタ係数残差#RC2を出力する場合には、フレームNF2上のフィルタ対象領域R’’をフィルタ参照領域とするフィルタリングに用いられたフィルタ係数を予測フィルタ係数として用いたことを示すフラグ#220を出力する。
適応フィルタ200’は、上記の構成をとることによって、符号量のより少ないフィルタ係数残差#102を出力することができる。
また、上述した動画像復号装置3は、フラグ#220(フラグ#51に対応)を参照することによって、符号量のより少ないフィルタ係数残差#102を復号することができる。
なお、予測手段選択部220の構成は、上記の構成に限定されるものではなく、例えば、以下のような構成としてもよい。
すなわち、予測手段選択部220は、参照フィルタ係数セット#211a’に含まれるフィルタ係数の総和と1との差の絶対値を、予め定められた閾値thと比較し、当該総和が閾値thより小さい場合には、予測フィルタ係数#210’における(具体例1-1’)~(具体例1-3’)の何れかの方法によって算出されたフィルタ係数を用いて、フィルタ係数残差#RC1を算出し、算出されたフィルタ係数残差#RC1をフィルタ係数残差#102として出力する。また、予測手段選択部220は、参照フィルタ係数セット#211a’に含まれるフィルタ係数の総和と1との差の絶対値が、閾値th以上である場合には、参照フィルタ係数セット#211b’に含まれる各フィルタ係数を予測フィルタ係数に設定し、当該予測フィルタ係数を用いて、フィルタ計数残差#RC2を算出し、算出されたフィルタ係数残差#RC2をフィルタ係数残差#102として出力する。
このような構成をとることによって、フラグ#220を出力することなく、予測フィルタ係数残差#102を導出することができる。したがって、このような構成をとることによって、符号化データ#5の符号量を効果的に削減することができる。
(符号化データ#5のデータ構造)
以下では、動画像符号化装置4によって生成された符号化データ#5のデータ構造について説明する。
以下では、動画像符号化装置4によって生成された符号化データ#5のデータ構造について説明する。
符号化データ#5のデータ構造は、図16の(a)~(b)を用いてすでに説明した符号化データ#1のデータ構造とほぼ同様であるが、以下の点において異なる。
まず、符号化データ#5におけるフィルタパラメータ情報FPには、予測フィルタ係数が、(具体例1-1’)~(具体例1-3’)の何れかの方法によって算出されたものであるか否かを示すフラグが含まれる。
符号化データ#5を復号する動画像復号装置3は、当該フラグを参照することによって、動画像符号化装置4において用いられた方法と同じ方法を用いて予測フィルタ係数を導出することができる。したがって、符号化データ#5を復号する動画像復号装置3は、当該フラグを参照することによって、符号量のより少ないフィルタ係数残差#102を含む符号化データ#5を復号することができる。
(付記事項)
以上のように、本発明に係るフィルタ係数符号化装置は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段を備えており、上記予測値生成手段は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する、ことを特徴としている。
以上のように、本発明に係るフィルタ係数符号化装置は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段を備えており、上記予測値生成手段は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する、ことを特徴としている。
本発明に係る上記の構成によれば、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合であっても、対象フィルタのフィルタ係数の予測値の総和が、所定の値に近い値、または、上記参照フィルタの各フィルタ係数の総和に近い値になるように、予測値を正規化する。
一般に、量子化前のフィルタ係数の総和は、1に近いという傾向があるので、上記の構成によれば、符号化効率を高めることができる。
また、量子化後のフィルタ係数の総和は、量子化ステップの逆数に近いという傾向があるので、上記の構成によれば、符号化効率を高めることができる。
なお、上記所定の値は、(1)上記フィルタ係数が量子化されたものであるのか否か、および、(2)上記フィルタ係数が量子化されたものである場合には量子化ステップの大きさに応じて定めることができる(以下同様)。例えば、量子化前のフィルタ係数に対しては、上記所定の値として、1を用いればよい。また、量子化後のフィルタ係数に対しては、上記所定の値として、量子化ステップの逆数を用いればよい。より具体的には、量子化後のフィルタ係数に対しては、量子化ステップを1/Nstep(Nstep=2n、nは自然数)としたとき、上記所定の値として、Nstepを用いればよい。
また、上記の構成によれば、タップ数に関わらず、符号化対象フレームに時間的により近い符号化済みフレームを参照画像とし、参照フィルタのフィルタ係数を正規化したものを対象フィルタのフィルタ係数の予測値とすることができるので、従来の構成に比べて符号化効率をより高めることができる。
また、本発明に係るフィルタ係数符号化装置においては、上記予測値生成手段は、上記対象フィルタのタップ数が上記参照フィルタのタップ数より大きい場合に、上記対象フィルタのフィルタ係数のうち、上記参照画像と重複しない上記対象画像上の領域に属する画素の画素値に乗ぜられるフィルタ係数に対する予測値を0に設定する、ことが好ましい。
上記の構成によれば、上記予測値生成手段は、上記対象フィルタのタップ数が上記参照フィルタのタップ数より大きい場合に、上記対象フィルタのフィルタ係数のうち、上記参照画像と重複しない上記対象画像上の領域に属する画素の画素値に乗ぜられるフィルタ係数に対する予測値を0に設定することができるので、上記対象フィルタのタップ数が上記参照フィルタのタップ数より大きい場合であっても、符号化効率を高めることができる。
また、本発明に係るフィルタ係数符号化装置においては、上記予測値生成手段は、対象画像の中心画素の画素値に乗じるフィルタ係数に対する予測値を、他のフィルタ係数の総和を所定の値から減じることによって算出する、ことが好ましい。
一般に、量子化前のフィルタ係数の総和は、1に近いことが知られている。また、量子化後のフィルタ係数の総和は、量子化ステップの逆数に近いことが知られている。
上記の構成によれば、上記対象フィルタの各フィルタ係数に対する予測値の総和が、所定の値に近い値、または、上記参照フィルタの各フィルタ係数の総和に近い値になるように、各重み係数の値を設定した後、対象画像の中心画素の画素値に乗じるフィルタ係数に対する予測値を、他のフィルタ係数の総和を所定の値から減じることによって算出することができるので、符号化効率の高いフィルタ係数符号化装置を実現することができる。
また、本発明に係るフィルタ係数符号化装置は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、上記第1の予測値と上記第2の予測値とのうち、上記フィルタ係数との残差がより小さいものを上記予測値に設定する予測値設定手段と、を備えることを特徴としている。
上記の構成によれば、より符号量の少ない符号化データを生成することができる。
また、本発明に係るフィルタ係数符号化装置は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた第1の閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、を備え、上記参照フィルタの対応するフィルタ係数の総和と所定の値との差の絶対値が、予め定められた第2の閾値以下である場合には、上記対象フィルタの各フィルタ係数と、上記第1の予測値との差を符号化し、そうでない場合には、上記対象フィルタの各フィルタ係数と、上記第2の予測値との差を符号化することを特徴としている。
上記の構成によれば、参照フィルタのフィルタ係数の総和に応じて、より符号量の少ない符号化データを生成することができる。
また、本発明に係る動画像符号化装置は、上記フィルタ係数符号化装置を備え、局所復号画像に対して上記対象フィルタのフィルタ係数を用いたフィルタリングを行う、ことを特徴としている。
本発明に係る上記の動画像符号化装置によれば、上記フィルタ係数符号化装置と同様の効果を奏する。
また、本発明に係るフィルタ係数復号装置は、対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段を備えており、上記予測値生成手段は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する、ことを特徴としている。
KTAに採用されている従来の構成においては、予測フィルタ係数群として、予測フィルタ係数群のタップ数と同じタップ数のフィルタ係数群が用いられるが、この従来の構成においては、復号化対象フレームと、参照フィルタ係数群を用いたフィルタリングが適用された参照画像との時間的な間隔が大きくなるため、予測符号化を行っても期待されるほど符号化効率が上がらない、あるいは、予測符号化を行うとかえって符号化効率が低下するという問題が生じていた。
上記の構成に対応する構成を有するフィルタ係数符号化装置は、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合に対しても適用することができる。すなわち、タップ数に関わらず、符号化対象フレームに時間的により近い符号化済みフレームを参照画像とすることができる。さらに、上記の構成に対応する構成を有するフィルタ係数符号化装置によれば、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合であっても、対象フィルタのフィルタ係数の予測値の総和が、所定の値に近い値、または、上記参照フィルタの各フィルタ係数の総和に近い値になるように、予測値を正規化することができる。したがって、上記の構成に対応する構成を有するフィルタ係数符号化装置によれば、従来の構成に比べて符号化効率を高めることができる。
上記の構成を有するフィルタ係数復号装置は、そのような符号化効率の高い符号化データを復号することができる。
また、本発明に係るフィルタ係数復号装置においては、上記予測値生成手段は、上記対象フィルタのタップ数が上記参照フィルタのタップ数より大きい場合に、上記対象フィルタのフィルタ係数のうち、上記参照画像と重複しない上記対象画像上の領域に属する画素の画素値に乗ぜられるフィルタ係数に対する予測値を0に設定する、ことが好ましい。
上記の構成に対応する構成を有するフィルタ係数符号化装置によれば、上記予測値生成手段は、上記対象フィルタのタップ数が上記参照フィルタのタップ数より大きい場合であっても、符号化効率を高めることができる。
上記の構成によれば、そのような符号化効率の高い符号化データを復号することができる。
また、本発明に係るフィルタ係数復号装置においては、上記予測値生成手段は、対象画像の中心画素の画素値に乗じるフィルタ係数に対する予測値を、他のフィルタ係数の総和を所定の値から減じることによって算出する、ことが好ましい。
一般に、量子化前のフィルタ係数の総和は、1に近いことが知られている。また、量子化後のフィルタ係数の総和は、量子化ステップの逆数に近いことが知られている。
上記の構成に対応する構成を有するフィルタ係数符号化装置によれば、上記対象フィルタの各フィルタ係数に対する予測値の総和が、所定の値に近い値、または、上記参照フィルタの各フィルタ係数の総和に近い値になるように、各重み係数の値を設定した後、対象画像の中心画素の画素値に乗じるフィルタ係数に対する予測値を、他のフィルタ係数の総和を所定の値から減じることによって算出することができるので、符号化効率の高いフィルタ係数符号化装置を実現することができる。
上記の構成によれば、そのような符号化効率の高い符号化データを復号することができる。
また、本発明に係るフィルタ係数復号装置は、対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、上記符号化データに含まれるフラグを参照して、上記第1の予測値と上記第2の予測値とのうち何れか一方を上記予測値に設定する予測値設定手段と、を備えることを特徴としている。
上記の構成によれば、上記フラグを参照して、符号化効率のより高い符号化データを復号することができるという効果を奏する。
また、本発明に係るフィルタ係数復号装置は、対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた第1の閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、を備え、上記参照フィルタの対応するフィルタ係数の総和と所定の値との差の絶対値が、予め定められた第2の閾値以下である場合には、上記対象フィルタの各フィルタ係数を、上記フィルタ係数残差に上記第1の予測値を加算することによって復元し、そうでない場合には、上記対象フィルタの各フィルタ係数を、上記フィルタ係数残差に上記第2の予測値を加算することによって復元することを特徴としている。
上記の構成に対応する構成を有するフィルタ係数符号化装置によれば、参照フィルタのフィルタ係数の総和に応じて、より符号量の少ない符号化データを生成することができる。
上記の構成を有するフィルタ係数復号装置によれば、そのような符号量の少ない符号化データを復号することができる。
また、本発明に係る動画像復号装置は、上記フィルタ係数復号装置を備え、局所復号画像に対して上記対象フィルタのフィルタ係数を用いたフィルタリングを行う、ことを特徴としている。
上記の構成によれば、上記フィルタ係数復号装置と同様の効果を奏する。
また、本発明に係る符号化データのデータ構造は、対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差であるフィルタ係数残差を符号化することによって得られた符号化データのデータ構造であって、上記予測値は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と、参照画像に作用する参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように設定された重み係数を、上記参照フィルタの対応するフィルタ係数に乗じることによって生成されたものである、ことを特徴としている。
一般に、量子化前のフィルタ係数の総和は、1に近いことが知られている。したがって、例えば、フィルタ係数の予測値を、予測値の総和が1に近くなるように正規化することによって、符号化効率を向上させることができる。
また、量子化後のフィルタ係数の総和は、量子化ステップの逆数に近いことが知られている。したがって、例えば、フィルタ係数の予測値を、予測値の総和が量子化ステップの逆数に近くなるように正規化することによって、符号化効率を向上させることができる。
上記予測値は、参照フィルタの対応するフィルタ係数に重み係数を乗じることによって生成され、当該重み係数は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と、参照画像に作用する参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように設定されたものであるため、上記符号化データは、符号化効率の高い符号化データである。
また、KTAに採用されている従来の構成においては、予測フィルタ係数群として、予測フィルタ係数群のタップ数と同じタップ数のフィルタ係数群が用いられるが、この従来の構成においては、符号化/復号化対象フレームと、参照フィルタ係数群を用いたフィルタリングが適用された参照画像との時間的な間隔が大きくなるため、予測符号化を行っても期待されるほど符号化効率が上がらない、あるいは、予測符号化を行うとかえって符号化効率が低下するという問題が生じていた。
一方で、上記の構成を有する符号化データは、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合であっても生成することができる。さらに、上記の構成を有する符号化データは、対象フィルタのタップ数と、参照フィルタのタップ数が異なるような場合であっても、対象フィルタのフィルタ係数の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と、参照画像に作用する参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように予測値を生成する。
したがって、上記の構成を有する符号化データは、符号化効率の高い符号化データである。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明は、動画像を符号化し符号化データを生成する動画像符号化装置、そのような動画像符号化装置を用いて生成された符号化データを復号する動画像復号装置に好適に適用することができる。より具体的には、例えば、放送受信端末、および、HDDレコーダなどに好適に適用することができる。
1 動画像復号装置
100 適応フィルタ
110 フィルタ処理部
140 フィルタ係数予測部
141 フィルタ係数格納部
142 参照フィルタ係数選択部
143 予測フィルタ係数導出部(予測値生成手段)
2 動画像符号化装置
100’ 適応フィルタ
110’ フィルタ処理部
120’ フィルタパラメータ決定部
130’ フィルタ係数導出部
140’ フィルタ係数予測部
141’ フィルタ係数格納部
142’ 参照フィルタ係数選択部
143’ 予測フィルタ係数導出部(予測値生成手段)
100 適応フィルタ
110 フィルタ処理部
140 フィルタ係数予測部
141 フィルタ係数格納部
142 参照フィルタ係数選択部
143 予測フィルタ係数導出部(予測値生成手段)
2 動画像符号化装置
100’ 適応フィルタ
110’ フィルタ処理部
120’ フィルタパラメータ決定部
130’ フィルタ係数導出部
140’ フィルタ係数予測部
141’ フィルタ係数格納部
142’ 参照フィルタ係数選択部
143’ 予測フィルタ係数導出部(予測値生成手段)
Claims (13)
- 対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、
参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段を備えており、
上記予測値生成手段は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する、ことを特徴とするフィルタ係数符号化装置。 - 上記予測値生成手段は、上記対象フィルタのタップ数が上記参照フィルタのタップ数より大きい場合に、
上記対象フィルタのフィルタ係数のうち、上記参照画像と重複しない上記対象画像上の領域に属する画素の画素値に乗ぜられるフィルタ係数に対する予測値を0に設定する、
ことを特徴とする請求項1に記載のフィルタ係数符号化装置。 - 上記予測値生成手段は、対象画像の中心画素の画素値に乗じるフィルタ係数に対する予測値を、他のフィルタ係数の総和を所定の値から減じることによって算出する、
ことを特徴とする請求項1または2に記載のフィルタ係数符号化装置。 - 対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、
参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、
上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、
上記第1の予測値と上記第2の予測値とのうち、上記フィルタ係数との残差がより小さいものを上記予測値に設定する予測値設定手段と、
を備えていることを特徴とするフィルタ係数符号化装置。 - 対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差を符号化するフィルタ係数符号化装置において、
参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた第1の閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、
上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、
を備え、
上記参照フィルタの対応するフィルタ係数の総和と所定の値との差の絶対値が、予め定められた第2の閾値以下である場合には、上記対象フィルタの各フィルタ係数と、上記第1の予測値との差を符号化し、そうでない場合には、上記対象フィルタの各フィルタ係数と、上記第2の予測値との差を符号化する、
ことを特徴とするフィルタ係数符号化装置。 - 請求項1から5の何れか1項に記載のフィルタ係数符号化装置を備え、局所復号画像に対して上記対象フィルタのフィルタ係数を用いたフィルタリングを行う、
ことを特徴とする動画像符号化装置。 - 対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、
参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、上記予測値を生成する予測値生成手段を備えており、
上記予測値生成手段は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下になるように、各重み係数の値を設定する、ことを特徴とするフィルタ係数復号装置。 - 上記予測値生成手段は、上記対象フィルタのタップ数が上記参照フィルタのタップ数より大きい場合に、
上記対象フィルタのフィルタ係数のうち、上記参照画像と重複しない上記対象画像上の領域に属する画素の画素値に乗ぜられるフィルタ係数に対する予測値を0に設定する、
ことを特徴とする請求項7に記載のフィルタ係数復号装置。 - 上記予測値生成手段は、対象画像の中心画素の画素値に乗じるフィルタ係数に対する予測値を、他のフィルタ係数の総和を1から減じることによって算出する、
ことを特徴とする請求項7または8に記載のフィルタ係数復号装置。 - 対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、
参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、
上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、
上記符号化データに含まれるフラグを参照して、上記第1の予測値と上記第2の予測値とのうち何れか一方を上記予測値に設定する予測値設定手段と、
を備えていることを特徴とするフィルタ係数復号装置。 - 対象画像に作用する対象フィルタの各フィルタ係数を、符号化データを復号することにより得られたフィルタ係数残差に予測値を加算することによって復元するフィルタ係数復号装置において、
参照画像に作用する参照フィルタの対応するフィルタ係数に重み係数を乗じることによって、第1の予測値を生成する第1の予測値生成手段であって、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する第1の予測値の総和と上記参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた第1の閾値以下となるように、各重み係数の値を設定する第1の予測値設定手段と、
上記参照フィルタの対応するフィルタ係数を第2の予測値とする第2の予測値生成手段と、
を備え、
上記参照フィルタの対応するフィルタ係数の総和と所定の値との差の絶対値が、予め定められた第2の閾値以下である場合には、上記対象フィルタの各フィルタ係数を、上記フィルタ係数残差に上記第1の予測値を加算することによって復元し、そうでない場合には、上記対象フィルタの各フィルタ係数を、上記フィルタ係数残差に上記第2の予測値を加算することによって復元する、
ことを特徴とするフィルタ係数復号装置。 - 請求項7から11の何れか1項に記載のフィルタ係数復号装置を備え、局所復号画像に対して上記対象フィルタのフィルタ係数を用いたフィルタリングを行う、
ことを特徴とする動画像復号装置。 - 対象画像に作用する対象フィルタの各フィルタ係数と、該フィルタ係数に対する予測値との差であるフィルタ係数残差を符号化することによって得られた符号化データのデータ構造であって、
上記予測値は、上記対象フィルタの各フィルタ係数に対する予測値の総和と所定の値との差の絶対値、または、上記対象フィルタの各フィルタ係数に対する予測値の総和と、参照画像に作用する参照フィルタの各フィルタ係数の総和との差の絶対値が予め定められた閾値以下となるように設定された重み係数を、上記参照フィルタの対応するフィルタ係数に乗じることによって生成されたものである、
ことを特徴とする符号化データのデータ構造。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010043171 | 2010-02-26 | ||
| JP2010-043171 | 2010-02-26 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2011105230A1 true WO2011105230A1 (ja) | 2011-09-01 |
Family
ID=44506644
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2011/052921 Ceased WO2011105230A1 (ja) | 2010-02-26 | 2011-02-10 | フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2011105230A1 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012137890A1 (ja) * | 2011-04-05 | 2012-10-11 | シャープ株式会社 | 画像フィルタ装置、復号装置、符号化装置、および、データ構造 |
| WO2019198519A1 (ja) * | 2018-04-11 | 2019-10-17 | ソニー株式会社 | データ処理装置及びデータ処理方法 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08163408A (ja) * | 1994-12-02 | 1996-06-21 | Sony Corp | ノイズ検出回路、ノイズ除去回路及び輪郭強調回路 |
| JP2006135376A (ja) * | 2004-11-02 | 2006-05-25 | Toshiba Corp | 動画像符号化装置、動画像符号化方法、動画像復号化装置および動画像復号化方法 |
| JP2007288810A (ja) * | 2007-07-03 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラム,画像復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
| WO2010076856A1 (ja) * | 2009-01-05 | 2010-07-08 | 株式会社 東芝 | 動画像符号化方法及び動画像復号化方法 |
-
2011
- 2011-02-10 WO PCT/JP2011/052921 patent/WO2011105230A1/ja not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08163408A (ja) * | 1994-12-02 | 1996-06-21 | Sony Corp | ノイズ検出回路、ノイズ除去回路及び輪郭強調回路 |
| JP2006135376A (ja) * | 2004-11-02 | 2006-05-25 | Toshiba Corp | 動画像符号化装置、動画像符号化方法、動画像復号化装置および動画像復号化方法 |
| JP2007288810A (ja) * | 2007-07-03 | 2007-11-01 | Nippon Telegr & Teleph Corp <Ntt> | 画像符号化方法,画像復号方法,画像符号化装置,画像復号装置,画像符号化プログラム,画像復号プログラムおよびコンピュータ読み取り可能な記録媒体 |
| WO2010076856A1 (ja) * | 2009-01-05 | 2010-07-08 | 株式会社 東芝 | 動画像符号化方法及び動画像復号化方法 |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012137890A1 (ja) * | 2011-04-05 | 2012-10-11 | シャープ株式会社 | 画像フィルタ装置、復号装置、符号化装置、および、データ構造 |
| WO2019198519A1 (ja) * | 2018-04-11 | 2019-10-17 | ソニー株式会社 | データ処理装置及びデータ処理方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6335365B2 (ja) | 復号装置 | |
| JP5061179B2 (ja) | 照明変化補償動き予測符号化および復号化方法とその装置 | |
| CN102150429B (zh) | 用于使用构建的参考帧进行视频编码的系统及方法 | |
| JP5559139B2 (ja) | 映像の符号化、復号化の方法及び装置 | |
| US20130070845A1 (en) | Motion picture encoding apparatus and method thereof | |
| CN103975599B (zh) | 图像编码以及解码方法、装置、程序 | |
| KR20080073157A (ko) | 인터 예측 부호화, 복호화 방법 및 장치 | |
| KR20090095012A (ko) | 연속적인 움직임 추정을 이용한 영상 부호화, 복호화 방법및 장치 | |
| KR101375667B1 (ko) | 영상의 부호화, 복호화 방법 및 장치 | |
| KR20090087767A (ko) | 영상의 인트라 예측 부호화 방법 | |
| US11202082B2 (en) | Image processing apparatus and method | |
| CN114051727B (zh) | 编码装置、解码装置和计算机可读存储介质 | |
| RU2734616C1 (ru) | Способ декодирования видео с предсказанием и устройство декодирования видео с предсказанием | |
| JP4824705B2 (ja) | 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラムおよびそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
| WO2011105231A1 (ja) | フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造 | |
| WO2011105230A1 (ja) | フィルタ係数符号化装置、フィルタ係数復号装置、動画像符号化装置、動画像復号装置、および、データ構造 | |
| JP2016158282A (ja) | 動画像予測復号方法及び動画像予測復号装置 | |
| JP6875566B2 (ja) | 動画像予測符号化装置、動画像予測復号装置、動画像予測符号化方法、動画像予測復号方法及び動画像予測復号プログラム | |
| KR101802304B1 (ko) | 하다마드 변환을 이용한 부호화 방법 및 이러한 방법을 사용하는 장치 | |
| JP2016092494A (ja) | 符号化装置、符号化方法、及び、プログラム | |
| JP7449690B2 (ja) | インター予測装置、画像符号化装置、画像復号装置、及びプログラム | |
| JP7594364B2 (ja) | 符号化装置、復号装置、及びプログラム | |
| JP7444599B2 (ja) | イントラ予測装置、画像符号化装置、画像復号装置、及びプログラム | |
| KR20110042602A (ko) | 움직임 보상 프레임의 필터링을 이용한 영상 부호화/복호화 방법 및 장치 | |
| JP4561701B2 (ja) | 動画像符号化装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 11747194 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 11747194 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |