[go: up one dir, main page]

WO2012121352A1 - 動画像復号装置、動画像符号化装置、および、データ構造 - Google Patents

動画像復号装置、動画像符号化装置、および、データ構造 Download PDF

Info

Publication number
WO2012121352A1
WO2012121352A1 PCT/JP2012/056029 JP2012056029W WO2012121352A1 WO 2012121352 A1 WO2012121352 A1 WO 2012121352A1 JP 2012056029 W JP2012056029 W JP 2012056029W WO 2012121352 A1 WO2012121352 A1 WO 2012121352A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
information
flag
component
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2012/056029
Other languages
English (en)
French (fr)
Inventor
隆紀 山崎
知宏 猪飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of WO2012121352A1 publication Critical patent/WO2012121352A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present invention relates to an encoding device including an image filter device that performs image filtering, and a decoding device.
  • the present invention also relates to a data structure of encoded data decoded by such a decoding device.
  • a moving image encoding device that generates encoded data by encoding the moving image, and decoding by decoding the encoded data
  • a video decoding device (decoding device) that generates an image is used.
  • a specific moving picture encoding method for example, H.264 is used. H.264 / MPEG-4. There is AVC.
  • an input image is divided into one luminance component (luminance component Y) and two color difference components (color difference component Cr and color difference component Cb, respectively), and encoding / decoding processing is performed.
  • a predicted image is generated based on a locally decoded image obtained by encoding / decoding an input image, and difference data between the predicted image and the input image is encoded.
  • methods for generating a predicted image methods called inter-screen prediction (inter prediction) and intra-screen prediction (intra prediction) are known.
  • noise is reduced by performing filter processing using adaptively set filter coefficient groups on the decoded image or an image obtained by performing block noise reduction processing on the decoded image.
  • an adaptive loop filter Adaptive Loop Filter
  • adaptive filter that generates a decoded image.
  • the filter coefficient group used for the adaptive filter is adaptively determined so as to minimize the square error between the encoding target image and the decoded decoded image obtained by applying the adaptive filter to the decoded image. It has been done.
  • the presence / absence of filter processing and the filter coefficient group are independently determined for the luminance component and the color difference component. Which color difference component is subjected to filtering is determined by a flag.
  • the color difference component filter is turned off, if either the color difference component Cb or the color difference component Cr is filtered, the color difference component Cb or the color difference component Cr may be filtered.
  • the color difference component Cb and the color difference component Cr are processed by the same filter coefficient group.
  • the encoding device and decoding device provided with such an adaptive filter can improve prediction accuracy and encoding efficiency by generating a prediction image with reference to the filtered decoded image.
  • JCT-VC Joint Collaborative Team Video Coding
  • the same filter coefficient group has been used for adaptive filter processing applied to the color difference component Cr and the color difference component Cb of the encoding target image. Therefore, in the conventional technique, it is difficult to perform effective filter processing on the color difference component Cr and the color difference component Cb, and there is a problem that the encoding efficiency is not improved.
  • the present invention has been made on the basis of the knowledge obtained by the inventor in view of the above problems, and an object of the present invention is to provide an image filter that improves the encoding efficiency even when there are a plurality of color components.
  • An apparatus, and a moving picture decoding apparatus and a moving picture encoding apparatus provided with such an image filter apparatus are realized.
  • a video decoding device is a video decoding device that decodes an image composed of a plurality of color components, and specifies a color component to be filtered.
  • Color component designation information and filter information decoding means for decoding a filter coefficient group, and the filter coefficient group decoded by the filter information decoding means and the color component designation information, for each color component to be processed
  • filtering means for performing a filtering process.
  • the filter processing is performed on each color component to be processed using the filter coefficient group and the color component designation information, there are a plurality of color components. Even in this case, appropriate filter processing can be performed on each color component. Therefore, according to the moving image decoding apparatus, the encoding efficiency is improved.
  • the moving picture decoding apparatus is a moving picture decoding apparatus that decodes an image composed of a plurality of color components, and performs a filtering process on each of a plurality of unit areas constituting the image.
  • Filter information decoding means for decoding filter on / off information including one or more on / off flags for designating whether or not to perform, and a filter coefficient group, and a filter for color components for each unit region with reference to the filter on / off information
  • a filter means for performing processing is a moving picture decoding apparatus that decodes an image composed of a plurality of color components, and performs a filtering process on each of a plurality of unit areas constituting the image.
  • the image to be decoded may include a region where the encoding efficiency is improved without performing the filtering process.
  • the filter process is performed on the color component for each unit area with reference to the filter on / off information, the encoding efficiency is improved.
  • the moving image encoding apparatus is an encoding apparatus that encodes an image composed of a plurality of color components, and includes color component designation information and a filter for designating a color component to be filtered.
  • Filter coefficient group used for processing and filter information to be encoded as a filter parameter, the color component designation information and the filter coefficient group are determined for each color component, and the filter information determination unit
  • each color component to be processed is filtered using the filter coefficient group determined by the filter information determination unit, and the filter information is encoded. Therefore, encoding efficiency is improved.
  • the moving image encoding device is a moving image encoding device that encodes an input image composed of a plurality of color components, and in each of the plurality of unit regions constituting the input image, Filter on / off information for specifying whether to perform filter processing, filter coefficient group used for filter processing, filter information determining means for determining filter information to be encoded for each color component, the filter on / off information and filter coefficients
  • Filter on / off information for specifying whether to perform filter processing
  • filter coefficient group used for filter processing filter information determining means for determining filter information to be encoded for each color component, the filter on / off information and filter coefficients
  • the filter on / off information for each color component is included.
  • the image to be encoded may include a region where the encoding efficiency is improved when the filter processing is not performed.
  • the filtering process is performed for each unit region with reference to the filter on / off information and the filter coefficient group, so that the encoding efficiency is improved.
  • the data structure of the encoded data according to the present invention is a data structure of encoded data referred to by the video decoding device, and includes color component specifying information for specifying a color component to be filtered, and a filter
  • the moving picture decoding apparatus decodes the color component designation information and the filter coefficient group, and uses the decoded filter coefficient group and the color component designation information to be the processing target.
  • the filter processing is performed for each color component.
  • the encoded data configured as described above includes color component specifying information for specifying a color component to be subjected to filter processing, and a filter coefficient group.
  • a moving image decoding apparatus for decoding the encoded data includes: Since the color component designation information and the filter coefficient group are decoded and the filter processing is performed on each color component to be processed using the decoded filter coefficient group and the color component designation information, there are a plurality of color components. Even in this case, appropriate filter processing can be performed on each color component. Therefore, according to the encoded data, the encoding efficiency is improved.
  • the data structure of the encoded data according to the present invention is the data structure of the encoded data referred to by the moving image decoding apparatus, and is the filter process performed in each of a plurality of unit areas constituting the target image? Filter on / off information including one or more on / off flags for designating whether or not, and a filter coefficient group, the video decoding device decodes the filter on / off information and the filter coefficient group, and the filter on / off With reference to the information, a color component filtering process is performed for each unit area.
  • the decoding target image may include a region where the encoding efficiency is improved when the filtering process is not performed.
  • the encoded data configured as described above includes filter on / off information including one or more on / off flags for designating whether or not to perform filter processing in each of a plurality of unit regions constituting the target image, and a filter coefficient group.
  • the moving picture decoding apparatus that decodes the encoded data decodes the filter on / off information and the filter coefficient group, and refers to the filter on / off information to perform color component filtering for each unit region. Encoding efficiency is improved.
  • the moving picture decoding apparatus is a moving picture decoding apparatus that decodes encoded data obtained by encoding a target picture composed of a plurality of color components, and a plurality of units constituting the target picture.
  • Filter information decoding means for decoding filter on / off information including one or more on / off flags that specify whether or not to perform filter processing in each of the areas, and a decoded image in each unit area using the decoded filter on / off information
  • a filter means for performing filter processing wherein the filter means performs filter processing independently for each of the color components.
  • the moving image decoding apparatus configured as described above, independent filter processing for each color component using filter on / off information including one or more on / off flags for designating whether or not to perform filter processing for each unit region. Therefore, even when there are a plurality of color components, it is possible to appropriately switch on / off the filter processing for each color component. Therefore, according to the moving image decoding apparatus, the encoding efficiency is improved.
  • the moving picture decoding apparatus is a moving picture decoding apparatus that decodes an image composed of a plurality of color components, and color component designation information that designates a color component to be filtered.
  • filter information decoding means for decoding the filter coefficient group, and the filter coefficient group decoded by the filter information decoding means and the color component designation information are used to perform filter processing on each color component to be processed. Filter means.
  • the filter processing is performed on each color component to be processed using the filter coefficient group and the color component designation information, even when there are a plurality of color components, Appropriate filter processing can be performed for each color component. Therefore, according to the moving image decoding apparatus, the encoding efficiency is improved.
  • FIG. 1 shows the data structure of the encoding data produced
  • A shows the configuration of the picture layer of the encoded data
  • (b) shows the configuration of the slice layer included in the picture layer
  • (c) shows the LCU layer included in the slice layer.
  • D shows the configuration of the leaf CU included in the CU layer
  • (e) shows the configuration of the inter prediction information for the leaf CU
  • ( f) shows the configuration of the intra prediction information for the leaf CU
  • (g) shows the configuration of the filter parameter included in the slice header.
  • (Ii) shows the configuration of the color difference filter information when the first color difference component is specified by sw_flag when the color difference filter mode alf_chroma_idc is 4. It is a figure which shows each syntax contained in the color difference filter information of the coding data which concerns on 1st Embodiment. The case where the color difference filter mode alf_chroma_idc is 4 and the first color difference component is designated in advance is shown. It is a block diagram which shows the structure of the moving image decoding apparatus which concerns on 1st Embodiment. It is a block diagram which shows the structure of the adaptive filter with which the moving image decoding apparatus which concerns on 1st Embodiment is provided.
  • (A) shows a process of deriving the filter coefficient group HCr and the filter coefficient group HCb from the filter coefficient group coeff_Cb and the filter coefficient group coeff_Cr included in the filter coefficient information when the color difference filter mode alf_chroma_idc is 1 or 2.
  • (B) shows the configuration and processing for deriving the filter coefficient group HCr and the filter coefficient group HCb from the filter coefficient group coeff_chroma included in the filter coefficient information when the color difference filter mode alf_chroma_idc is 3.
  • (A) is a block diagram of a color difference adaptive filter coefficient deriving unit when the color difference filter mode alf_chroma_idc is 4 and the first color difference component is designated in advance as the color difference component Cr.
  • (B) shows the configuration and processing of the color difference adaptive filter coefficient deriving unit when the color difference filter mode alf_chroma_idc is 4 and the first color difference component is designated in advance as the color difference component Cb. It is a figure for demonstrating the color difference adaptive filter coefficient deriving part with which the adaptive filter which concerns on 1st Embodiment is provided.
  • the configuration and processing of the color difference adaptive filter coefficient derivation unit when the color difference filter mode alf_chroma_idc is 4 and the first color difference component C1 is specified by the assignment flag sw_flag are shown. It is a figure for demonstrating the switch part with which the color difference adaptive filter part which concerns on 1st Embodiment is provided, Comprising: It is a table
  • (A) is a target unit region UR, a filter reference region R that is a set of pixels referred to in order to calculate a pixel value of a filter target pixel in the target unit region UR, and a filter reference region for each filter target pixel.
  • FIG. 7B is a diagram illustrating filter coefficients assigned to each pixel included in the filter reference region R. It is a block diagram which shows the structure of the moving image encoder which concerns on 1st Embodiment. It is a block diagram which shows the structure of the adaptive filter with which the moving image encoder which concerns on 1st Embodiment is provided.
  • FIG. 1 It is a block diagram which shows the structure of the color difference filter information determination part with which the adaptive filter which concerns on 1st Embodiment is provided. It is a figure which shows the data structure of the filter on / off information of the coding data which concerns on 2nd Embodiment. (A) to (d) show the configuration of the filter on / off information for control patterns 1 to 4. It is a figure which shows each syntax contained in the filter parameter of the control pattern 1 of the coding data which concerns on 2nd Embodiment. It is a figure which shows each syntax contained in the filter parameter of the control pattern 2 of the coding data which concerns on 2nd Embodiment.
  • FIG. 1 It is a block diagram which shows the structure of the filter parameter determination part with which the adaptive filter which concerns on 2nd Embodiment is provided. It is a figure which shows each syntax contained in the color difference filter information of the coding data which concerns on 1st Embodiment, and the case where the color difference filter mode alf_chroma_idc is 4, and the 1st color difference component is designated by the allocation flag sw_flag Show. It is a figure for demonstrating the adaptive filter process when applying the on-off flag of the area unit which concerns on 2nd Embodiment.
  • (A) is a figure which shows the example of a division
  • (b) is the object area
  • (A) is a figure which shows ON / OFF of the filter process of the color difference component Cr and color difference component Cb designated by 1st filter mode alf_chroma_idc1.
  • (B) is a figure which shows the filter coefficient group in the filter process of the color difference component Cr designated by 2nd filter mode alf_chroma_idc2, and the color difference component Cb. It is the figure shown about the structure of the transmitter which mounts the moving image encoder which concerns on embodiment, and the receiver which mounts the moving image decoder which concerns on embodiment.
  • (A) shows a transmitting apparatus equipped with a moving picture coding apparatus, and (b) shows a receiving apparatus equipped with a moving picture decoding apparatus. It is the figure shown about the structure of the recording device carrying the moving image encoder which concerns on embodiment, and the reproducing
  • (A) shows a recording apparatus equipped with a moving picture coding apparatus, and (b) shows a reproduction apparatus equipped with a moving picture decoding apparatus.
  • the decoding apparatus decodes a moving image from encoded data. Therefore, hereinafter, this is referred to as “moving image decoding apparatus”.
  • the encoding device according to the present embodiment generates encoded data by encoding a moving image. Therefore, in the following, this is referred to as a “video encoding device”.
  • the scope of application of the first embodiment of the present invention is not limited to this. That is, as will be apparent from the following description, the features of the present invention can be realized without assuming a plurality of frames. That is, the present invention can be applied to a general decoding apparatus and a general encoding apparatus regardless of whether the target is a moving image or a still image.
  • the encoded data # 1 Prior to the description of the video decoding device 1 according to the present embodiment, the configuration of the encoded data # 1 generated by the video encoding device 2 according to the present embodiment and decoded by the video decoding device 1 will be described with reference to FIG. Will be described with reference to FIG.
  • the encoded data # 1 has a hierarchical structure including a sequence layer, a GOP (Group Of Pictures) layer, a picture layer, a slice layer, and a maximum coding unit (LCU) layer.
  • GOP Group Of Pictures
  • FIG. 1 shows a hierarchical structure below the picture layer in the encoded data # 1.
  • FIGS. 1A to 1F show a picture layer P, a slice layer S, an LCU layer LCU, a leaf CU included in the LCU (denoted as CUL in FIG. 1D), and inter prediction (inter-screen prediction). It is a figure which shows the structure of inter prediction information PI_Inter which is the prediction information PI about a partition, and intra prediction information PI_Intra which is the prediction information PI about an intra prediction (prediction in a screen) partition.
  • PI_Inter is the prediction information PI about a partition
  • intra prediction information PI_Intra which is the prediction information PI about an intra prediction (prediction in a screen) partition.
  • the picture layer P is a set of data that is referenced by the video decoding device 1 in order to decode a target picture that is a processing target picture. As shown in FIG. 1A, the picture layer P includes a picture header PH and slice layers S1 to SNs (Ns is the total number of slice layers included in the picture layer P).
  • the picture header PH includes a coding parameter group referred to by the video decoding device 1 in order to determine a decoding method of the target picture.
  • the encoding mode information (entropy_coding_mode_flag) indicating the variable length encoding mode used in encoding by the moving image encoding device 2 is an example of an encoding parameter included in the picture header PH.
  • Each slice layer S included in the picture layer P is a set of data referred to by the video decoding device 1 in order to decode a target slice that is a slice to be processed.
  • the slice layer S includes a slice header SH and LCU layers LCU1 to LCUNc (Nc is the total number of LCUs included in the slice S).
  • the slice header SH includes a coding parameter group that the moving image decoding apparatus 1 refers to in order to determine a decoding method of the target slice.
  • Slice type designation information (slice_type) for designating a slice type is an example of an encoding parameter included in the slice header SH.
  • I slice that uses only intra prediction at the time of encoding (2) P slice that uses unidirectional prediction or intra prediction at the time of encoding, (3) B-slice using unidirectional prediction, bidirectional prediction, or intra prediction at the time of encoding may be used.
  • the slice header SH includes a filter parameter FP that is referred to by an adaptive filter included in the video decoding device 1.
  • the configuration of the filter parameter FP will be described later and will not be described here.
  • Each LCU layer LCU included in the slice layer S is a set of data that the video decoding device 1 refers to in order to decode the target LCU that is the processing target LCU.
  • the LCU layer LCU is composed of a plurality of coding units (CU: Coding Units) obtained by hierarchically dividing the LCU into a quadtree.
  • the LCU layer LCU is a coding unit corresponding to the highest level in a hierarchical structure that recursively includes a plurality of CUs.
  • each CU included in the LCU layer LCU has a hierarchical structure that recursively includes a CU header CUH and a plurality of CUs obtained by dividing the CU into quadtrees. is doing.
  • a node of a CU having a recursive structure may be referred to as a coding tree.
  • each CU excluding the LCU is half the size of the CU to which the CU directly belongs (that is, the CU one layer higher than the CU), and the size that each CU can take is encoded data # 1.
  • a CU that is not further divided is called a leaf CU.
  • the CU header CUH includes a coding parameter referred to by the video decoding device 1 in order to determine a decoding method of the target CU. Specifically, as shown in FIG. 1C, a CU division flag SP_CU for specifying whether or not the target CU is further divided into four subordinate CUs is included. When the CU division flag SP_CU is 0, that is, when the CU is not further divided, the CU is a leaf CU.
  • CU leaf A CU (CU leaf) that is not further divided is handled as a prediction unit (PU: Prediction Unit) and a transform unit (TU: Transform Unit).
  • PU Prediction Unit
  • TU Transform Unit
  • the leaf CU (denoted as CUL in FIG. 1 (d)) includes (1) PU information PUI that is referred to when the moving image decoding apparatus 1 generates a predicted image, and (2) The TU information TUI that is referred to when the residual data is decoded by the moving picture decoding apparatus 1 is included.
  • the skip flag SKIP is a flag indicating whether or not the skip mode is applied to the target PU.
  • the value of the skip flag SKIP is 1, that is, when the skip mode is applied to the target leaf, PU information PUI and TU information TUI in the leaf CU are omitted. Note that the skip flag SKIP is omitted for the I slice.
  • the PU information PUI includes a skip flag SKIP, prediction type information PT, and prediction information PI as shown in FIG.
  • the prediction type information PT is information that specifies whether intra prediction or inter prediction is used as a predicted image generation method for the target leaf CU (target PU).
  • the prediction information PI includes intra prediction information PI_Intra or inter prediction information PI_Inter depending on which prediction method is specified by the prediction type information PT.
  • a PU to which intra prediction is applied is also referred to as an intra PU
  • a PU to which inter prediction is applied is also referred to as an inter PU.
  • the PU information PUI includes information specifying the shape and size of each partition included in the target PU and the position in the target PU.
  • the partition is one or a plurality of non-overlapping areas constituting the target leaf CU, and the generation of the predicted image is performed in units of partitions.
  • the TU information TUI specifies a quantization parameter difference ⁇ qp (tu_qp_delta) that specifies the magnitude of the quantization step, and a division pattern for each block of the target leaf CU (target TU).
  • TU partition information SP_TU and quantized prediction residuals QD1 to QDNT are included.
  • the quantization parameter difference ⁇ qp is a difference qp ⁇ qp ′ between the quantization parameter qp in the target TU and the quantization parameter qp ′ in the TU encoded immediately before the TU.
  • TU partition information SP_TU is information that specifies the shape and size of each block included in the target TU and the position in the target TU.
  • Each TU can be, for example, a size from 64 ⁇ 64 pixels to 2 ⁇ 2 pixels.
  • the block is one or a plurality of non-overlapping areas constituting the target leaf CU, and the encoding and decoding of the prediction residual is performed in units of blocks.
  • Each quantized prediction residual QD is encoded data generated by the moving image encoding apparatus 2 performing the following processes 1 to 3 on a target block that is a processing target block.
  • Process 1 DCT transform (Discrete Cosine Transform) is performed on the prediction residual obtained by subtracting the prediction image from the encoding target image.
  • Process 2 The DCT coefficient obtained in Process 1 is quantized.
  • Process 3 The DCT coefficient quantized in Process 2 is variable length encoded.
  • the inter prediction information PI_Inter includes a coding parameter referred to when the video decoding device 1 generates an inter prediction image by inter prediction. As shown in FIG. 1 (e), the inter prediction information PI_Inter includes inter PU partition information SP_Inter that specifies a partition pattern for each partition of the target PU, and inter prediction parameters PP_Inter1 to PP_InterNe (Ne for each partition). The total number of inter prediction partitions included in the target PU).
  • the inter-PU partition information SP_Inter is information for designating the shape and size of each inter prediction partition included in the target PU (inter PU) and the position in the target PU.
  • the inter PU is composed of 4 symmetric splittings of 2N ⁇ 2N pixels, 2N ⁇ N pixels, N ⁇ 2N pixels, and N ⁇ N pixels, and 2N ⁇ nU pixels, 2N ⁇ nD pixels, nL ⁇ 2N With a pixel and four asymmetric splittings of nR ⁇ 2N pixels, it can be divided into a total of 8 partitions.
  • the specific value of N is defined by the size of the CU to which the PU belongs, and the specific values of nU, nD, nL, and nR are determined according to the value of N.
  • an inter PU of 128 ⁇ 128 pixels is 128 ⁇ 128 pixels, 128 ⁇ 64 pixels, 64 ⁇ 128 pixels, 64 ⁇ 64 pixels, 128 ⁇ 32 pixels, 128 ⁇ 96 pixels, 32 ⁇ 128 pixels, and 96 ⁇ It is possible to divide into 128-pixel inter prediction partitions.
  • the inter prediction parameter PP_Inter includes a reference image index RI, an estimated motion vector index PMVI, and a motion vector residual MVD.
  • the motion vector residual MVD is encoded data generated by the moving image encoding device 2 executing the following processes 4 to 6.
  • Process 4 Select an encoded / decoded locally decoded image (more precisely, an image obtained by performing deblocking processing and adaptive filtering on the encoded / decoded local decoded image)
  • the motion vector mv for the target partition is derived with reference to the selected encoded / decoded local decoded image (hereinafter also referred to as “reference image”).
  • Process 5 An estimation method is selected, and an estimated value (hereinafter also referred to as “estimated motion vector”) pmv of the motion vector mv assigned to the target partition is derived using the selected estimation method.
  • Process 6 The motion vector residual MVD obtained by subtracting the estimated motion vector pmv derived in Process 5 from the motion vector mv derived in Process 4 is encoded.
  • the reference image index RI designates the locally decoded image (reference image) that has been encoded / decoded selected in the process 4.
  • the estimated motion vector index PMVI described above is the estimation method selected in the process 5. Is specified.
  • the estimation methods that can be selected in the processing 5 include: (1) a locally decoded image being encoded / decoded (more precisely, a region that has already been decoded in a locally decoded image being encoded / decoded).
  • a median of a motion vector allocated to a partition adjacent to the target partition hereinafter also referred to as “adjacent partition” is used as an estimated motion vector pmv.
  • a motion vector assigned to a partition (often referred to as a “collocated partition”) occupying the same position as the target partition is used as an estimated motion vector pmv, etc. Is mentioned.
  • the prediction parameter PP related to the partition for which unidirectional prediction is performed includes one reference image index RI, estimated motion vector index PMVI, and one motion vector residual MVD.
  • the prediction parameters PP related to the partition performing bi-directional prediction include two reference image indexes RI1 and RI2, two estimated motion vector indexes PMVI1 and PMVI2, and two motion vector residuals MVD1. And MVD2.
  • the intra prediction information PI_Intra includes a coding parameter referred to when the video decoding device 1 generates an intra predicted image by intra prediction.
  • the intra prediction information PI_Intra includes intra PU partition information SP_Intra that specifies a partition pattern for the target PU (intra PU) into each partition, and intra prediction parameters PP_Intra1 to PP_IntraNa for each partition.
  • Na is the total number of intra prediction partitions included in the target PU).
  • the intra-PU partition information SP_Intra is information that specifies the shape and size of each intra-predicted partition included in the target PU, and the position in the target PU.
  • the intra PU split information SP_Intra includes an intra split flag (intra_split_flag) that specifies whether or not the target PU is split into partitions. If the intra partition flag is 1, the target PU is divided symmetrically into four partitions. If the intra partition flag is 0, the target PU is not divided and the target PU itself is one partition.
  • N 2 n , n is an arbitrary integer of 1 or more.
  • a 128 ⁇ 128 pixel intra PU can be divided into 128 ⁇ 128 pixel and 64 ⁇ 64 pixel intra prediction partitions.
  • the intra prediction parameter PP_Intra includes an estimation flag MPM and a residual prediction mode index RIPM as shown in FIG.
  • the intra prediction parameter PP_Intra is a parameter for designating an intra prediction method (prediction mode) for each partition.
  • the estimation flag MPM is a flag indicating whether or not the prediction mode estimated based on the prediction mode assigned to the peripheral partition of the target partition to be processed and the prediction mode for the target partition are the same. is there.
  • examples of partitions around the target partition include a partition adjacent to the upper side of the target partition and a partition adjacent to the left side of the target partition.
  • the residual prediction mode index RIPM is an index included in the intra prediction parameter PP_Intra when the estimated prediction mode and the prediction mode for the target partition are different, and is an index for designating a prediction mode assigned to the target partition. It is.
  • the slice header SH includes the filter parameter FP that is referred to by the adaptive filter included in the video decoding device 1.
  • FIG. 1G shows the data structure of the filter parameter FP.
  • the filter parameter FP includes filter on / off information, luminance filter information, and color difference filter information.
  • the filter on / off information includes (1) area designation information for designating a divided area included in the target slice, and (2) on / off information for designating on / off of the filter process for each divided area.
  • the luminance filter information includes luminance filter coefficient information
  • the chrominance filter information includes chrominance filter mode alf_chroma_idc and chrominance filter coefficient information for switching whether or not to perform filter processing on the chrominance component.
  • the color difference filter coefficient information includes the number of color difference component taps alf_length_chroma_minus5_div2 and a color difference filter coefficient group.
  • the filter coefficient group includes (1) filter coefficients a 0 to a NT-1 (NT is the total number of filter coefficients included in the filter coefficient group), and (2) offset o.
  • luminance filter information and the color difference filter information may have the following configuration.
  • Luminance filter information includes color component designation information, filter on / off information for luminance components, and filter coefficient groups for luminance components.
  • Color difference filter information includes color component designation information, filter on / off information for color difference components, and filter coefficient groups for color difference components.
  • the filter information may include independent filter on / off information for the luminance component and the color difference component.
  • the luminance component can be encoded in units of CU
  • the color difference component can be encoded in units of LCU.
  • FIG. 2 shows a data structure of color difference filter coefficient information for each alf_chroma_idc.
  • alf_chroma_idc When alf_chroma_idc is 0, the color difference filter coefficient information is omitted as shown in FIG.
  • the color difference filter coefficient information When alf_chroma_idc is 1, as shown in FIG. 2B, the color difference filter coefficient information includes alf_length_chroma_minus5_div2 and a filter coefficient group alf_coeff_Cr of the color difference component Cr.
  • alf_chroma_idc is 2, as shown in FIG. 2C, the color difference filter coefficient information includes alf_length_chroma_minus5_div2 and a filter coefficient group alf_coeff_Cb of the color difference component Cb.
  • the color difference filter coefficient information includes alf_length_chroma_minus5_div2 and a filter coefficient group alf_coeff_chroma.
  • the chrominance filter coefficient information includes alf_chroma_idc, an independent filter coefficient group alf_coeff_C1 and a dependent filter coefficient group alf_coeff_C2 for the chrominance component.
  • one of the two color difference components is expressed as a first color difference component C1
  • the other is expressed as a second color difference component C2.
  • the filter coefficient group coeff_C1 is a filter coefficient group for deriving the color difference component C1
  • the filter coefficient group alf_coeff_C2 is a difference filter coefficient group for deriving the color difference component C2.
  • the color difference filter mode alf_chroma_idc has a role as color component designation information for designating a color component to be filtered as described above.
  • FIG. 2 (e) shows, as another configuration when alf_chroma_idc is 4, a configuration in which the chrominance filter coefficient information includes a flag sw_flag that specifies a chrominance component corresponding to the first chrominance component C1.
  • FIG. 3 is a diagram showing syntax included in the color difference filter information of the encoded data # 1 according to the present embodiment.
  • the color difference filter information of the encoded data # 1 according to the present embodiment includes (1) syntax (color difference filter mode) alf_chroma_idc that specifies whether or not to perform filter processing on each color difference component , (2) syntax alf_length_chroma_minus5_div2 for specifying the filter length of the color difference adaptive filter, and (3) syntax for specifying the filter coefficient group.
  • the syntax for specifying the filter coefficient group is alf_coeff_Cr [i] when alf_chroma_idc is 1, alf_coeff_Cb [i] when alf_chroma_idc is 2, alf_coeff_chroma [i] when alf_chroma_idc is 3, and alf_chroma_idc is 4.
  • alf_coeff_C1 [i] and alf_coeff_C2 [i] are included.
  • FIG. 25 is a diagram illustrating a syntax of a configuration including a flag sw_flag. In this configuration, when alf_chroma_idc is 4, sw_flag is included.
  • the moving picture decoding apparatus 1 includes H.264 as a part thereof. H.264 / MPEG-4. It is a decoding device including a technique adopted in a test model HM of AVC, VCEG (Video Coding Expert Group), and HEVC (High Efficiency Video Coding) proposed as a successor codec.
  • FIG. 4 is a block diagram showing a configuration of the moving picture decoding apparatus 1.
  • the moving image decoding apparatus 1 includes a variable length code decoding unit 11, a motion vector restoration unit 12, an inverse quantization / inverse conversion unit 13, an adder 14, a buffer memory 15, and an inter prediction image generation unit 16. , An intra prediction image generation unit 17, a prediction method determination unit 18, a deblocking filter 19, and an adaptive filter 30.
  • the moving picture decoding apparatus 1 is an apparatus for generating moving picture # 2 by decoding encoded data # 1.
  • variable-length code decoding unit 11 decodes the prediction parameter PP for each partition from the encoded data # 1. That is, for the inter prediction partition, the reference image index RI, the estimated motion vector index PMVI, and the motion vector residual MVD are decoded from the encoded data # 1, and these are supplied to the motion vector restoration unit 12. On the other hand, with respect to the intra prediction partition, (1) size designation information for designating the size of the partition and (2) prediction index designation information for designating the prediction index are decoded from the encoded data # 1, and this is decoded into the intra prediction image. This is supplied to the generation unit 17.
  • variable-length code decoding unit 11 decodes the quantization prediction residual QD for each block and the quantization parameter difference ⁇ qp for the macroblock including the block from the encoded data # 1, and dequantizes them. This is supplied to the inverse conversion unit 13. In addition, the variable length code decoding unit 11 decodes the filter parameter FP from the encoded data # 1 and supplies it to the adaptive filter 30.
  • the motion vector restoration unit 12 restores the motion vector mv related to each inter prediction partition from the motion vector residual MVD related to that partition and the restored motion vector mv ′ related to another partition. Specifically, (1) the estimated motion vector pmv is derived from the restored motion vector mv ′ according to the estimation method specified by the estimated motion vector index PMVI, and (2) the derived estimated motion vector pmv and the motion vector remaining are derived. The motion vector mv is obtained by adding the difference MVD. Note that the motion vector restoration unit 12 can read the restored motion vector mv ′ relating to another partition from the buffer memory 15. The motion vector restoration unit 12 supplies the restored motion vector mv together with the corresponding reference image index RI to the inter predicted image generation unit 16.
  • generation part 16 produces
  • the inter prediction image generation unit 16 uses the motion vector mv supplied from the motion vector restoration unit 12 to perform filtered decoding specified by the reference image index RI that is also supplied from the motion vector restoration unit 12.
  • a motion compensated image mc is generated from the image P_FL ′.
  • the filtered decoded image P_FL ′ is obtained by performing deblocking processing by the deblocking filter 19 and filtering processing by the adaptive filter 30 on the decoded image that has already been decoded for the entire frame.
  • the inter predicted image generation unit 16 can read out the pixel value of each pixel constituting the filtered decoded image P_FL ′ from the buffer memory 15.
  • the motion compensation image mc generated by the inter prediction image generation unit 16 is supplied to the prediction method determination unit 18 as an inter prediction image Pred_Inter.
  • the intra predicted image generation unit 17 generates a predicted image Pred_Intra related to each intra prediction partition. Specifically, first, the intra predicted image generation unit 17 specifies the prediction mode based on the intra prediction parameter PP_Intra supplied from the variable length code decoding unit 11. Next, the intra predicted image generation unit 17 assigns the identified prediction mode to the target partition, for example, in raster scan order.
  • the intra prediction image generation unit 17 specifies a prediction mode based on the intra prediction parameter PP_Intra as follows. (1) The estimation flag MPM is decoded, and the estimation flag MPM indicates that the prediction mode for the target partition to be processed is the same as the prediction mode assigned to the peripheral partition of the target partition. If it is, the prediction mode assigned to the partition around the target partition is assigned to the target partition. (2) On the other hand, if the estimation flag MPM indicates that the prediction mode for the target partition to be processed is not the same as the prediction mode assigned to a partition around the target partition, the remaining The prediction mode index RIPM is decoded, and the prediction mode indicated by the residual prediction mode index RIPM is assigned to the target partition.
  • the intra predicted image generation unit 17 generates a predicted image Pred_Intra from the (local) decoded image P by intra prediction according to the prediction method indicated by the prediction mode assigned to the target partition.
  • the intra predicted image Pred_Intra generated by the intra predicted image generation unit 17 is supplied to the prediction method determination unit 18.
  • the intra predicted image generation unit 17 may be configured to generate a predicted image Pred_Intra from the filtered decoded image P_FL by intra prediction.
  • the prediction method determination unit 18 determines whether each partition is an inter prediction partition that should perform inter prediction or an intra prediction partition that should perform intra prediction, based on the prediction type information PT for the PU to which each partition belongs. To do. When each partition is an inter prediction partition to be subjected to inter prediction, the prediction method determination unit 18 supplies the inter prediction image Pred_Inter generated by the inter prediction image generation unit 16 to the adder 14 as a prediction image Pred. Supply. On the other hand, when each partition is an intra prediction partition to be subjected to intra prediction, the prediction method determination unit 18 supplies the intra prediction image Pred_Intra generated by the intra prediction image generation unit 17 to the adder 14 as the prediction image Pred. Supply.
  • the inverse quantization / inverse transform unit 13 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transform on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 14.
  • the inverse quantization / inverse transform unit 13 derives the quantization step QP from the quantization parameter difference ⁇ qp supplied from the variable length code decoding unit 11.
  • the inverse quantization / inverse transform unit 13 derives the quantization parameter qp by adding the quantization parameter difference ⁇ qp to the quantization parameter qp ′ for the TU that has been inversely quantized / inversely DCT transformed immediately before.
  • the generation of the prediction residual D by the inverse quantization / inverse transform unit 13 is performed in units of blocks obtained by dividing TUs or TUs.
  • the adder 14 generates the decoded image P by adding the prediction image Pred supplied from the prediction method determination unit 18 and the prediction residual D supplied from the inverse quantization / inverse conversion unit 13.
  • the generated decoded image P is stored in the buffer memory 15.
  • Deblocking filter 19 When the difference between the pixel values of pixels adjacent to each other via a block boundary or partition boundary in the decoded image P is smaller than a predetermined threshold, the deblocking filter 19 By performing a deblocking process on the partition boundary, the block boundary or an image near the partition boundary is smoothed. The image subjected to the deblocking process by the deblocking filter 19 is output to the adaptive filter 30 as a deblocked decoded image P_DB.
  • the adaptive filter 30 performs adaptive filter processing on the luminance component Y, the chrominance component Cr, and the chrominance component Cb that form the deblocked decoded image P_DB, and generates a filtered decoded image P_FL.
  • luminance component Y the luminance component Y
  • chrominance component Cr the chrominance component Cb constituting the deblocked decoded image P_DB
  • luminance component Y also referred to as “component Cr”
  • color difference component Cb the luminance component Y
  • FIG. 5 is a block diagram of the adaptive filter 30.
  • the adaptive filter 30 includes a color difference adaptive filter information decoding unit 31, a color difference adaptive filter unit 32, and a luminance adaptive filter unit 33.
  • the color difference adaptive filter information decoding unit 31 decodes alf_chroma_idc from the filter parameter FP, and further decodes the number of taps, the filter coefficient group HCr, and the filter coefficient group HCb according to the value of alf_chroma_idc.
  • the filter coefficient group HCr and the filter coefficient group HCb are filter coefficient groups for adaptive filter processing applied to the color difference component Cr and the color difference component Cb.
  • the color difference adaptive filter information decoding unit 31 includes a color difference adaptive filter coefficient deriving unit 311.
  • the filter coefficient group HCb and the filter coefficient group HCr derived by the color difference adaptive filter coefficient deriving unit 311 are supplied to the color difference adaptive filter unit 32.
  • Color difference adaptive filter coefficient deriving unit 3111 The color difference adaptive filter coefficient deriving unit 311 will be described with reference to FIGS. The operation of the color difference adaptive filter coefficient deriving unit 311 is switched according to the value of alf_chroma_idc.
  • the color difference adaptive filter coefficient deriving unit 311 derives the tap number tap_chroma of the filter and the number of filter coefficients AlfNumCoeffChroma from alf_length_chroma_minus5_div2 by the following formula.
  • alf_chroma_idc 0, the filter coefficient group HCr and the filter coefficient group HCb are not derived.
  • HCr [i] alf_coeff_Cr [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • alf_coeff_Cr [i] is simply expressed as “coeff_Cr” (the same applies to coeff_Cb and alf_coeff_chroma).
  • HCb [i] alf_coeff_Cb [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • the filter coefficient group HCr and the filter coefficient group HCb are derived.
  • the filter coefficient group alf_coeff_chroma decoded from the filter parameter FP is assigned to the filter coefficient group HCr and the filter coefficient group HCb according to the following expression.
  • HCr [i] alf_coeff_chroma [i]
  • HCb [i] alf_coeff_chroma [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • the filter coefficient prediction processing unit 3111 included in the color difference adaptive filter coefficient deriving unit 311 subtracts the independent filter coefficient group alf_coeff_C1 [i] and the dependent filter coefficient group alf_coeff_C2 [i] for each element, A filter coefficient group HC2 of the second color difference component C2 is derived.
  • HC1 [i] alf_coeff_C1 [i]
  • HC2 [i] alf_coeff_C1 [i] -alf_coeff_C2 [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • the derived filter coefficient group HC1 and filter coefficient group HC2 are assigned to the filter coefficient group HCr and the filter coefficient group HCb according to the correspondence relationship between the first color difference component C1 and the second color difference component C2.
  • the moving picture coding apparatus 2 described later has a difference between the filter coefficient HC2 [i] of the filter coefficient group of the second color difference component C2 and the filter coefficient HC1 [i] of the filter coefficient group of the first color difference component C1.
  • the value of the dependent filter coefficient group alf_coeff_C2 [i] is determined by the following equation.
  • alf_coeff_C2 [i] HC1 [i] -HC2 [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • the filter coefficient prediction processing unit 3111 adds the independent filter coefficient group alf_coeff_C1 [i] and the dependent filter coefficient group alf_coeff_C2 [i] for each element, as shown in the following expression, to thereby generate the second color difference component C2
  • the filter coefficient group HC2 may be derived.
  • HC2 [i] alf_coeff_C1 [i] + alf_coeff_C2 [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • the moving picture encoding apparatus 2 to be described later calculates a difference value between the two filter coefficient groups by the following formula to determine a dependent filter coefficient group alf_coeff_C2 [i].
  • alf_coeff_C2 [i] HC2 [i] -HC1 [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • the color difference adaptive filter coefficient deriving unit 311 assigns a filter coefficient group HCr and a filter coefficient group HCb according to the following equations.
  • HCr [i] HC1 [i]
  • HCb [i] HC2 [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • the color difference adaptive filter coefficient deriving unit 311 may use the first color difference component C1 as the color difference component Cb.
  • the filter coefficient group HCr and the filter coefficient group HCb are assigned by the following equations.
  • HCb [i] HC1 [i]
  • HCr [i] HC2 [i]
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • the color difference filter coefficient assignment unit 3112 assigns the filter coefficient group HC1 and the filter coefficient group HC2.
  • the color difference filter coefficient assigning unit 3112 assigns the filter coefficient group HC1 and the filter coefficient group HC2 according to the value of sw_flag.
  • sw_flag When sw_flag is 0, the color difference filter coefficient assigning unit 3112 assigns the filter coefficient group HC1 to the filter coefficient group HCr, and assigns the filter coefficient group HC2 to the filter coefficient group HCb.
  • sw_flag When sw_flag is 1, the color difference filter coefficient assignment unit 3112 assigns the filter coefficient group HC1 to the filter coefficient group HCb, and assigns the filter coefficient group HC2 to the filter coefficient group HCr.
  • the color difference adaptive filter unit 32 performs adaptive filter processing on the color difference component Cr and the color difference component Cb of the deblocked decoded image P_DB, and the color difference component Cr and the color difference of the filtered decoded image P_FL. Component Cb is generated. Further, the color difference component Cr and the color difference component Cb of the generated filtered decoded image P_FL are stored in the buffer memory 15.
  • the color difference adaptive filter unit 32 includes a switch unit 321, a Cr filter processing unit 322, and a Cb filter processing unit 323.
  • the switch unit 321 includes a switch unit 321a and a switch unit 321b.
  • the switch unit 321 switches whether to perform adaptive filter processing on the color difference component Cr and the color difference component Cb of the deblocked decoded image P_DB. If the switch unit 321a is on, the switch unit 321a supplies the color difference component Cr of the deblocked decoded image P_DB to the Cr filter processing unit 322. If the switch unit 321b is on, the switch unit 321b supplies the color difference component Cb of the deblocked decoded image P_DB to the Cb filter processing unit 323.
  • FIG. 9 is a diagram illustrating a correspondence table between the color difference filter mode alf_chroma_idc and the on / off states of the switches 321a and 321b.
  • alf_chroma_idc When alf_chroma_idc is 0, filter processing for the color difference component Cr and the color difference component Cb is not performed.
  • alf_chroma_idc When alf_chroma_idc is 1, filter processing is performed on the color difference component Cr.
  • alf_chroma_idc When alf_chroma_idc is 2, filter processing is performed on the color difference component Cb.
  • alf_chroma_idc When alf_chroma_idc is 3 or 4, filter processing is performed on both the color difference component Cr and the color difference component Cb.
  • the switch unit 321a is turned on when alf_chroma_idc is 1, 3, or 4.
  • the color difference component Cr of the deblocked decoded image P_DB is supplied to the Cr filter processing unit 322.
  • the switch unit 321a is off, the color difference component Cr of the deblocked decoded image P_DB is output as the color difference component Cr of the filtered decoded image P_FL.
  • the switch unit 321b is turned on when alf_chroma_idc is 2, 3, or 4.
  • the switch unit 321b is on, the color difference component Cb of the deblocked decoded image P_DB is supplied to the Cb filter processing unit 323.
  • the switch unit 321b is off, the color difference component Cb of the deblocked decoded image P_DB is output as the color difference component Cb of the filtered decoded image P_FL.
  • the Cr filter processing unit 322, the Cb filter processing unit 323, and the luminance adaptive filter unit 33 perform adaptive filter processing as follows.
  • the pixel value of the filter target pixel is represented as SF (x ′, y ′), and the pixel values in or around the target macroblock in the deblocked decoded image P_DB (hereinafter also referred to as “pre-filter image”)
  • pre-filter image When expressed as S (x, y), the filter processing units (Cr filter processing unit 322, Cb filter processing unit 323, and luminance adaptive filter unit 33) express the pixel value SF (x ′, y ′) as follows: Calculated by equation (1).
  • the coordinates (x, y) may be the same coordinates as the coordinates (x ′, y ′), or may be different coordinates as long as they have a one-to-one correspondence.
  • AI (i, j) represents a filter coefficient to be multiplied by the pixel value S (x + i, y + j) of the pre-filter image, and corresponds to the filter coefficient included in the luminance filter information or the color difference filter information of the filter parameter FP. is doing.
  • OI represents an offset included in the filter coefficient group I.
  • R represents an area referred to in the filter processing (hereinafter also referred to as “filter reference area R”), and is set according to the position of the filter target pixel.
  • the filter reference range (also referred to as “filter reference range RA”) is defined as the union of the filter reference regions R for each filter target pixel.
  • the filter reference range RA can also be expressed as a set of pixels required for calculating all pixel values of the filtered image in the target unit region.
  • FIG. 10A shows the filter reference region R and the filter reference range RA when the target unit region UR is 8 ⁇ 8 pixels and the filter reference region is 5 ⁇ 5 taps.
  • the hatched pixels indicate the filter target pixels S (x ′, y ′).
  • FIG. 10B shows an example of how to assign the filter coefficient to each pixel included in the filter reference region R. Also in FIG. 10B, the hatched pixels indicate the filter target pixels S (x ′, y ′). As shown in FIG. 10B, each filter coefficient can be assigned to each pixel included in the filter reference region R so as to have a rotational symmetry of 180 degrees.
  • the present embodiment is not limited to this, and the assignment of each filter coefficient to each pixel value may not have rotational symmetry.
  • the filter reference region R may be a rhombus region constituted by pixels whose city distance from the filter target pixel is Ncb or less in units of pixels, or regions having other shapes. Good.
  • the method of assigning the filter coefficient to each pixel included in the filter reference region R and the shape of the filter reference region R may be appropriately set according to the configuration of the moving picture encoding device that generates the encoded data # 1. Good.
  • the Cr filter processing unit 322 illustrated in FIG. 5 uses the filter coefficient group HCr supplied from the color difference adaptive filter coefficient deriving unit 311 for the color difference component Cr of the deblocked decoded image P_DB supplied from the switch unit 321. An adaptive filter process is performed to generate a color difference component Cr of the filtered decoded image P_FL.
  • the Cb filter processing unit 323 illustrated in FIG. 5 uses the filter coefficient group HCb supplied from the color difference adaptive filter coefficient deriving unit 311 for the color difference component Cb of the deblocked decoded image P_DB supplied from the switch unit 321.
  • An adaptive filter process is performed to generate a color difference component Cb of the filtered decoded image P_FL.
  • the luminance adaptive filter unit 33 illustrated in FIG. 5 performs adaptive filter processing on the luminance component Y of the deblocked decoded image P_DB using luminance filter information supplied from the filter parameter FP, and performs the filtered decoded image P_FL. Luminance component Y is generated.
  • the moving picture encoding apparatus 2 includes H.264 as a part thereof. H.264 / MPEG-4. It is an encoding device including a technique adopted in a test model HM of AVC, VCEG (Video Coding Expert Group), and HEVC (High Efficiency Video Coding) proposed as a successor codec.
  • FIG. 11 is a block diagram showing a configuration of the moving picture coding apparatus 2.
  • the moving image encoding device 2 includes a transform / quantization unit 21, a variable length code encoding unit 22, an inverse quantization / inverse transform unit 23, a buffer memory 24, an intra-predicted image generation unit 25,
  • the inter prediction image generation unit 26, the motion vector detection unit 27, the prediction scheme control unit 28, the motion vector redundancy deletion unit 29, an adder 41, a subtractor 42, a deblocking filter 43, and an adaptive filter 44 are provided.
  • the moving image encoding device 2 is a device that generates encoded data # 1 by encoding moving image # 10 (encoding target image).
  • the transform / quantization unit 21 performs (1) DCT transform (Discrete Cosine Transform) on the prediction residual D obtained by subtracting the predicted image Pred from the encoding target image, and (2) DCT coefficients obtained by the DCT transform. (3) The quantized prediction residual QD obtained by the quantization is supplied to the variable-length code encoding unit 22 and the inverse quantization / inverse transform unit 23.
  • the transform / quantization unit 21 selects (1) a quantization step QP used for quantization for each TU, and (2) sets a quantization parameter difference ⁇ qp indicating the magnitude of the selected quantization step QP.
  • the variable length code encoding unit 22 is supplied, and (3) the selected quantization step QP is supplied to the inverse quantization / inverse transform unit 23.
  • the difference value obtained by subtracting the value of.
  • variable length code encoder 22 includes (1) a quantized prediction residual QD and ⁇ qp supplied from the transform / quantization unit 21, and (2) a quantization parameter PP supplied from a prediction scheme control unit 28 described later, (3) The encoded parameter # 1 is generated by variable-length encoding the filter parameter FP supplied from the adaptive filter 44 described later.
  • the inverse quantization / inverse transform unit 23 (1) inversely quantizes the quantized prediction residual QD, (2) performs inverse DCT (Discrete Cosine Transform) transformation on the DCT coefficient obtained by the inverse quantization, and (3) The prediction residual D obtained by the inverse DCT transform is supplied to the adder 41.
  • the quantization step QP supplied from the transform / quantization unit 21 is used.
  • the prediction residual D output from the inverse quantization / inverse transform unit 23 is obtained by adding a quantization error to the prediction residual D input to the transform / quantization unit 21. Common names are used for this purpose.
  • the intra predicted image generation unit 25 generates a predicted image Pred_Intra related to each partition. Specifically, (1) a prediction mode used for intra prediction is selected for each partition, and (2) a prediction image Pred_Intra is generated from the decoded image P using the selected prediction mode. The intra predicted image generation unit 25 supplies the generated intra predicted image Pred_Intra to the prediction method control unit 28.
  • the intra prediction image generation unit 25 identifies the prediction index PI for each partition from the prediction mode selected for each partition and the size of each partition, and specifies a prediction index indicating the prediction index PI for each partition. Information is supplied to the prediction method control unit 28.
  • the motion vector detection unit 27 detects a motion vector mv regarding each partition. Specifically, (1) the filtered decoded image P_FL ′ to be used as a reference image is selected, and (2) the target partition is searched by searching for the region that best approximates the target partition in the selected filtered decoded image P_FL ′. Detects a motion vector mv.
  • the filtered decoded image P_FL ′ is obtained by performing deblocking processing by the deblocking filter 43 and adaptive filtering processing by the adaptive filter 44 on the decoded image that has already been decoded.
  • the motion vector detection unit 27 can read out the pixel value of each pixel constituting the filtered decoded image P_FL ′ from the buffer memory 24.
  • the motion vector detection unit 27 supplies the detected motion vector mv to the inter predicted image generation unit 26 and the motion vector redundancy deletion unit 29 together with the reference image index RI that specifies the filtered decoded image P_FL ′ used as the reference image. To do. Note that for a partition that performs bi-directional prediction (weighted prediction), the motion vector detection unit 27 selects two filtered decoded images P_FL1 ′ and P_FL2 ′ as reference images.
  • the motion vector detection unit 27 uses the motion vector mv1 and mv2 corresponding to each of the two filtered decoded images P_FL1 ′ and P_FL2 ′, and the reference image indexes RI1 and RI2 as the inter prediction image generation unit 26 and the motion vector. This is supplied to the redundancy deletion unit 29.
  • generation part 26 produces
  • inter prediction image Pred_Inter inter prediction image Pred_Inter
  • the inter prediction image generation unit 26 uses (1) motion compensation from the filtered decoded image P_FL1 ′ specified by the reference image index RI1 using the motion vector mv1. An image mc1 is generated, (2) a motion compensated image mc2 is generated from the filtered reference image P_FL2 ′ specified by the reference image index RI2 using the motion vector mv2, and (3) the motion compensated image mc1 and the motion compensated image An inter prediction image Pred_Inter is generated by adding an offset value to the weighted average with mc2.
  • the prediction scheme control unit 28 compares the intra predicted image Pred_Intra and the inter predicted image Pred_Inter with the encoding target image, and selects whether to perform intra prediction or inter prediction. When the intra prediction is selected, the prediction scheme control unit 28 supplies the intra prediction image Pred_Intra as the prediction image Pred to the adder 41 and the subtractor 42 and also predicts the prediction index PI supplied from the intra prediction image generation unit 25.
  • the parameter PP is supplied to the variable length code encoder 22.
  • the prediction scheme control unit 28 supplies the inter prediction image Pred_Inter as the prediction image Pred to the adder 41 and the subtractor 42 and the reference image index supplied from the inter prediction image generation unit 26.
  • RI and an estimated motion vector index PMVI and a motion vector residual MVD supplied from a motion vector redundancy deleting unit 29 (described later) are supplied to the variable length code encoding unit 22 as prediction parameters PP.
  • the prediction residual D is generated by the subtractor 42 by subtracting the prediction image Pred selected by the prediction method control unit 28 from the encoding target image.
  • the prediction residual D generated by the subtractor 42 is DCT transformed / quantized by the transform / quantization unit 21 as described above.
  • the adder 41 by adding the prediction image Pred selected by the prediction method control unit 28 to the prediction residual D generated by the inverse quantization / inverse conversion unit 23, the adder 41 generates a local decoded image P. Generated.
  • the local decoded image P generated by the adder 41 is stored in the buffer memory 24 as a filtered decoded image P_FL after passing through the deblocking filter 43 and the adaptive filter 44. This filtered decoded image P_FL is used as a reference image in inter prediction.
  • the motion vector redundancy deletion unit 29 deletes redundancy in the motion vector mv detected by the motion vector detection unit 27. Specifically, (1) an estimation method used for estimating the motion vector mv is selected, (2) an estimated motion vector pmv is derived according to the selected estimation method, and (3) the estimated motion vector pmv is subtracted from the motion vector mv. As a result, a motion vector residual MVD is generated. The motion vector redundancy deletion unit 29 supplies the generated motion vector residual MVD to the prediction method control unit 28 together with the estimated motion vector index PMVI indicating the selected estimation method.
  • the deblocking filter 43 determines the block boundary in the decoded image P when the difference between the pixel values of pixels adjacent to each other via the block boundary in the decoded image P or the macroblock boundary is smaller than a predetermined threshold value, or By performing deblocking processing on the macroblock boundary, an image near the block boundary or the macroblock boundary is smoothed.
  • the image subjected to the deblocking process by the deblocking filter 43 is output to the adaptive filter 44 as a deblocked decoded image P_DB.
  • FIG. 12 is a block diagram showing the configuration of the adaptive filter 44.
  • the adaptive filter 44 includes a color difference adaptive filter unit 441 and a luminance adaptive filter unit 444.
  • the adaptive filter 44 generates a filtered decoded image P_FL by performing an adaptive filter process on the deblocked decoded image P_DB supplied from the deblocking filter 43.
  • the filtered decoded image P_FL that has been filtered by the adaptive filter 44 is stored in the buffer memory 24.
  • the adaptive filter 44 generates a filter parameter FP and supplies it to the variable length code encoding unit 22.
  • the color difference adaptive filter unit 441 includes a color difference filter information determination unit 442 and an adaptive filter unit 443.
  • the color difference adaptive filter unit 441 uses the color difference component Cr and the color difference component Cb of the deblocked decoded image P_DB and the color difference component Cr and color difference component Cb of the moving image # 10 to obtain the color difference filter information and the filtered decoded image P_FL.
  • a color difference component Cr and a color difference component Cb are generated.
  • the color difference filter information determination unit 442 includes a color difference filter coefficient calculation unit 4421 and a color difference filter coefficient determination unit 4422.
  • the color difference filter information determination unit 442 determines the color difference filter information and supplies it to the adaptive filter unit 443 and the variable length code encoding unit 22.
  • the color difference filter coefficient calculation unit 4421 calculates a filter coefficient group so that the square error between the color difference component of the deblocked decoded image P_DB and the color difference component of the encoding target image (moving image # 10) is minimized. .
  • the color difference filter coefficient calculation unit 4421 includes a common filter coefficient calculation unit (not shown).
  • the common filter coefficient calculation unit is a means used in common for the luminance component and the color difference component, and a square error between the deblocked decoded image and the encoding target image in the designated color component and the designated region.
  • the filter coefficient group is calculated so that is minimized.
  • calculating the filter coefficient group so that the square error is minimized can also be expressed as “calculating the filter coefficient group so that the square error is smaller” (hereinafter, referred to as “calculate the filter coefficient group”). The same).
  • the filter coefficient calculation unit 4421 can specify the luminance component Y, the color difference component Cb, the color difference component Cr, and both the color difference component Cb and the color difference component Cr, and each square error has the following (2), (3), (4), and (5).
  • S (x, y), SCb (x, y), and SCr (x, y) are pixels whose coordinates are (x, y) among the pixels included in the deblocked decoded image P_DB.
  • the pixel values of the luminance component Y, the color difference component Cb, and the color difference component Cr are represented.
  • ST (x, y), STCb (x, y), and STCr (x, y) are the pixels included in the encoding target image. Of these, the pixel values of the luminance component Y, the color difference component Cb, and the color difference component Cr of the pixel having coordinates (x, y) are represented.
  • the filter coefficient calculation unit 4421 performs the following three calculations.
  • (Calculation 1) The filter coefficient groups aI (i, j) and oI obtained by minimizing the expression (3) are inversely quantized to obtain alf_coeff_Cr.
  • (Calculation 2) The filter coefficient groups aI (i, j) and oI obtained by minimizing the equation (4) are inversely quantized to obtain alf_coeff_Cb.
  • the filter coefficient groups aI (i, j) and oI obtained by minimizing the expression (5) are inversely quantized to obtain alf_coeff_chroma.
  • the inverse quantization process is performed according to the quantization bit depth filter_bitdepth of the filter coefficient.
  • the reciprocal 1 ⁇ filter_bitdepth of the quantization step determined from the quantization bit depth is applied, and this is performed according to the following equation (6).
  • coeff represents one of alf_coeff_Cr, alf_coeff_Cb, and alf_coeff_chroma
  • i represents a subscript of the filter coefficient a shown in FIG. k1 and k2 are determined so that the positional relationship with i corresponds.
  • the color difference filter coefficient determination unit 4422 receives the filter coefficient group alf_coeff_Cr, the filter coefficient group alf_coeff_Cb, and the filter coefficient group alf_coeff_chroma from the color difference filter coefficient calculation unit 4421.
  • the chrominance filter coefficient determination unit 4422 obtains each encoding cost in each mode of alf_chroma_idc by the following processing 1 to processing 5, and obtains the optimum alf_chroma_idc by processing 6.
  • the chrominance filter coefficient determination unit 4422 calculates each encoding cost by calculating the square error obtained by comparing the image obtained by the adaptive filter processing of each mode and the encoding target image, and the filter coefficient used in each mode. By using the rate distortion cost calculated from the code amount of the group, it is derived as follows.
  • the encoding cost 2 of mode 2 is calculated from the square error when the adaptive filter processing is applied to only the color difference component Cb using the filter coefficient group alf_coeff_Cb and the code amount of the filter coefficient group of the color difference component Cb Ask.
  • the coding cost 3 of mode 3 is calculated from the square error when adaptive filter processing is applied to the color difference component Cr and the color difference component Cb using the filter coefficient group alf_coeff_chroma and the code amount of the filter coefficient group alf_coeff_chroma. Ask.
  • alf_chroma_idc K.
  • the chrominance filter coefficient determination unit 4422 performs the following processing 7, processing 8, and processing 9 instead of processing 5 and processing 6 to obtain optimal alf_chroma_idc and sw_flag.
  • the adaptive filter unit 443 illustrated in FIG. 12 performs adaptive filter processing on the color difference component Cr and the color difference component Cb of the deblocked decoded image P_DB using the color difference filter information supplied from the color difference filter information determination unit 442. Then, the color difference component Cr and the color difference component Cb of the filtered decoded image P_FL are generated. Since the process of the adaptive filter unit 443 is the same as the process of the color difference adaptive filter unit 32 described above, the description thereof is omitted here.
  • the luminance adaptive filter unit 444 illustrated in FIG. 12 uses the luminance filter information calculated from the moving image # 10 and the luminance component Y of the deblocked decoded image P_DB, to the luminance component Y of the deblocked decoded image P_DB. Apply adaptive filtering.
  • the luminance adaptive filter unit 444 generates a luminance component Y, filter on / off information, and luminance filter information of the filtered decoded image P_FL. Note that the process of the luminance adaptive filter unit 444 is the same as the process of the luminance adaptive filter unit 33 described above, and thus the description thereof is omitted here.
  • different filter coefficient groups can be used for the filter coefficient group of the color difference component Cr and the filter coefficient group of the color difference component Cb. Therefore, when a common filter coefficient group is used between the color difference components. In comparison, the image quality of the color difference component can be improved.
  • one filter coefficient is compared with the other filter coefficient.
  • the code amount of the filter coefficient can be reduced.
  • the code amount of the filter coefficient can be further reduced by appropriately selecting the independent filter coefficient group that is the color difference component that is not encoded as the difference value.
  • the difference value between the filter coefficient group HCb of the chrominance component Cb and the filter coefficient group HCr of the chrominance component Cr does not change even if either filter coefficient group is encoded as a component that is not a difference value. That is, even if the difference value is calculated by HCb [i] ⁇ HCr [i] or the difference value is calculated by HCr [i] ⁇ HCb [i], the absolute values are equal only by reversing the sign. For this reason, when a difference value is encoded, both code amounts are equal.
  • the filter coefficient group HCr of the chrominance component Cr and the filter coefficient group HCb of the chrominance component Cb are generally different in value, so depending on which of them is encoded as an independent filter coefficient group, The total code amount composed of independent filter coefficient groups is different. Accordingly, the filter coefficient group of the color difference component with a small code amount is stored in the filter coefficient group of the first color difference component C1, and the other color difference component is set as the second color difference component C2. From the difference value between the color difference components, By decoding them, the amount of codes can be reduced. In fact, according to the knowledge obtained by the inventor through experiments, the code amount of the filter coefficient group HCr and the filter coefficient group HCb may differ by a factor of two. Therefore, the code amount can be reduced by specifying a component that is not a difference value using sw_flag. Is possible.
  • the method of deriving the filter coefficient group HC2 from the dependent filter coefficient group alf_coeff_C2 when alf_chroma_idc is 4 is not limited to the above description.
  • all the filter coefficients of the filter coefficient group HC2 are derived from the difference between alf_coeff_C2 and alf_coeff_C1, but some filter coefficients are derived from the difference between alf_coeff_C2 and alf_coeff_C1, and the other filter coefficients are alf_coeff_C2.
  • the structure derived from the above may be used. That is, a configuration may be adopted in which some filter coefficients of the filter coefficient group HC2 are encoded as difference values, and other filter coefficients are encoded with values that are not difference values (non-difference values).
  • a filter coefficient other than the offset is a difference value and to encode the offset using a non-difference value.
  • AlfNumCoeffChroma-1 is an offset
  • the calculation method of the filter coefficient group HC2 is expressed by the following equation (7).
  • i is an integer from 0 to AlfNumCoeffChroma-1.
  • a differential encoding flag indicating whether the offset component is encoded as a difference value or non-difference value is included in the encoded data # 1, and the moving image decoding apparatus decodes the flag Depending on the value, the decoding method of the filter coefficient may be changed. This is due to the inventor's knowledge that generally there is often no correlation between offsets of different color difference components. When there is no correlation, the absolute value of the difference value may increase by taking the difference value between the offsets.
  • the filter coefficients of the filter coefficient group including the offset are encoded such that a value close to 0 is expressed by a short code length by using the concentration to 0. In such an encoding method, a difference value that increases the absolute value leads to an increase in the code amount. Therefore, it is appropriate not to use the difference value for the offset.
  • the code amount can be reduced not only when the offsets of different filter coefficient groups are not approximated but also when they are approximated. For this reason, the method using the differential encoding flag indicating whether or not to take the difference value of the offset is not only used for encoding the filter coefficient between the chrominance components, but generally, other filter coefficients are already decoded. It is possible to use this when decoding using a difference value from the filter coefficient. For example, it can be used when decoding a filter coefficient to be decoded from a previous slice that has already been decoded, a decoded filter coefficient of the current slice, or the like.
  • the color space handled in the first embodiment is not limited to the YUV space, but can be extended to other color spaces, for example, RGB, CMYK, and XYZ.
  • a flag (which is a flag corresponding to alf_chroma_idc and more generally referred to as a filter mode) indicating which component is subjected to filtering processing in at least two color components included in the color space. Decrypt. This also means that it can be expanded to filter processing between YU, YV, and YUV without being limited to filtering between UVs in the YUV space.
  • a specific color component is a component to be encoded as an independent filter coefficient group, and filter coefficients of other color components are encoded as a dependent filter coefficient group.
  • the code amount of the filter coefficient can be reduced.
  • a flag corresponding to sw_flag
  • the color difference filter mode alf_chroma_idc has a function indicating the following two pieces of information, but can be encoded as two pieces of information that play the following functions 1 and 2.
  • (Function 1) A function indicating whether or not to perform filter processing on each color component in at least two color components to be filtered by the adaptive filter 30.
  • (Function 2) A function indicating whether a common filter coefficient group is used for each color component or an individually derived filter coefficient group is used when there are two color components to be filtered by the adaptive filter 30 .
  • FIG. 29 shows the syntax of filter parameters when the first filter mode alf_chroma_idc1 and the second filter mode alf_chroma_idc2 are used instead of the color difference filter mode alf_chroma_idc.
  • the first filter mode alf_chroma_idc1 takes any value from 0 to 3
  • the second filter mode alf_chroma_idc2 takes 0 or 1.
  • the first filter mode alf_chroma_idc1 indicates whether or not to perform filter processing on each color component of the color difference component Cr and the color difference component Cb, and plays the role of the function 1 described above.
  • the second filter mode alf_chroma_idc2 indicates whether to use a shared filter coefficient group between two color difference components or to use individually derived filter coefficient groups, and plays the role of the function 2 described above.
  • the color difference adaptive filter coefficient deriving unit 311 does not decode the filter coefficient group when the first filter mode alf_chroma_idc1 is 0.
  • the filter coefficient group HCr is decoded from alf_coeff_Cr.
  • the filter coefficient group HCb is decoded from alf_coeff_Cb.
  • the second filter mode alf_chroma_idc2 is further decoded.
  • the filter coefficient group HCr and the filter coefficient group HCb are decoded from alf_coeff_chroma.
  • the filter coefficient group HCr and the filter coefficient group HCb are decoded from the independent filter coefficient group alf_coeff_C1 and the dependent filter coefficient group alf_coeff_C2.
  • FIG. 30A shows the relationship between the first filter mode alf_chroma_idc1 and the value of the color difference component Cr and the presence / absence of filter processing of the color difference component Cb.
  • FIG. 30B shows the relationship between the second filter mode alf_chroma_idc2 and the filter coefficient group included in the encoded data # 1.
  • the second filter mode alf_chroma_idc2 is 0, one common filter coefficient group _alf_coeff_chroma is included in the encoded data # 1, and the corresponding filter coefficient group is used for the filter processing of the color difference component Cr and the color difference component Cb.
  • the two filter coefficient groups alf_coeff_Cr and the filter coefficient group alf_coeff_Cb are included in the encoded data # 1, and the corresponding filter coefficient group is used for the filter processing of each color difference component.
  • FIG. 14 to 24, 26, and 27 a second embodiment of the present invention will be described with reference to FIGS. 14 to 24, 26, and 27.
  • FIG. The adaptive filter according to the present embodiment encodes an on / off flag that specifies on / off of the filter process for each of the coding units up to a predetermined division depth.
  • This embodiment is characterized in that the code amount of the on / off flag is reduced by using a common on / off flag among a plurality of color components.
  • one of the control patterns 2 to 4 out of the following four control patterns is used as the configuration.
  • Control pattern 1 On / off control is performed in units of areas for the luminance component Y using a set of on / off flags. In this case, the color difference component does not perform on / off control in units of regions.
  • Control pattern 2 On / off control of each color component is performed using a set of on / off flags common to the luminance component Y, the color difference component Cb, and the color difference component Cr.
  • Control Pattern 3 Using two sets of on / off flags, on / off control of the luminance component Y is performed with one set of on / off flags, and common on / off control is performed with the color difference component Cr and the color difference component Cb using another set of on / off flags. I do.
  • Control pattern 4 Independent on / off control is performed for each of the luminance component Y, the color difference component Cb, and the color difference component Cr by using three sets of on / off flags.
  • the scope of application of the second embodiment of the present invention is not limited to this. That is, as will be apparent from the following description, the features of the present invention can be realized without assuming a plurality of frames. That is, the present invention can be applied to a general decoding apparatus and a general encoding apparatus regardless of whether the target is a moving image or a still image.
  • FIG. 14 is a diagram showing the data structure of the filter on / off information included in the filter parameter FP of the encoded data # 3.
  • FIGS. 15 to 18 show the filter parameter FP (denoted as alf_param) of the encoded data # 3. It is a figure which shows each syntax contained.
  • FIGS. 15 to 18 are diagrams showing syntaxes included in the filter parameter FP in the control patterns 1 to 4 respectively.
  • the filter parameter FP of the encoded data # 3 includes (1) syntax adaptive_loop_filter_flag that specifies whether or not to perform adaptive filter processing on the target slice, and (2) adaptive filter.
  • syntax adaptive_loop_filter_flag that specifies whether or not to perform adaptive filter processing on the target slice
  • adaptive filter Syntax alf_cu_control_flag that specifies whether or not processing on / off is controlled for each coding unit, (3) Syntax that specifies the maximum division depth from the maximum coding unit for a coding unit that is subject to on / off control. (Hierarchy designation information) alf_cu_control_max_depth, (4) The syntax alf_length_cu_control_info for designating the number of coding units to be subjected to on / off control is included in common to all control patterns.
  • the coding unit to be subjected to on / off control is an LCU (a CU obtained by dividing the LCU as a root 0 times), and when the maximum division depth alf_cu_control_max_depth is greater than 0, the on / off control is performed.
  • the coding unit to be the target is a CU (coding tree) divided up to the maximum division depth.
  • control pattern 1 As shown in FIG. 15, an on / off flag alf_cu_flag is included in the filter parameter FP for each coding unit to be subjected to on / off control.
  • the filter parameter FP includes an on / off flag alf_cu_flag for adaptive filter processing and a flag alf_cu_control_flag_chroma for designating whether the on / off flag alf_cu_flag is applied to the color difference adaptive filter.
  • the on / off flag alf_cu_flag_luma related to the adaptive filter of the luminance component Y and the on / off flag alf_cu_flag_chroma related to the adaptive filter of the color difference component Cr and the color difference component Cb are included in the filter parameter FP.
  • the on / off flags relating to the adaptive filter of the luminance component Y, the chrominance component Cr, and the chrominance component Cb, alf_cu_flag_luma, alf_cu_flag_cr, and alf_cu_flag_cb are included in the filter parameter FP.
  • i in FIGS. 15 to 18 is an index of an on / off flag used for control of adaptive filter processing, and is an integer from 0 to NumAlfCuFlag-1.
  • NumAlfCuFlag is the total number of on / off flags for performing adaptive filter processing, and is determined by the hierarchy designation information alf_cu_control_max_depth and the CU structure.
  • NumAlfCuFlag can be explicitly encoded in the encoded data instead of determining the NumAlfCuFlag from the hierarchy designation information alf_cu_control_max_depth and the CU structure.
  • FIG. 19 is a block diagram showing a configuration of the moving picture decoding apparatus 3.
  • the video decoding device 3 includes an adaptive filter 50 instead of the adaptive filter 30 included in the video decoding device 1.
  • the filter parameter FP included in the encoded data # 3 is supplied to the adaptive filter 50.
  • description is abbreviate
  • FIG. 20 is a block diagram showing the configuration of the adaptive filter 50. As illustrated in FIG. 20, the adaptive filter 50 includes an adaptive filter information restoration unit 51, a color difference adaptive filter unit 52, and a luminance adaptive filter unit 53.
  • the adaptive filter information restoration unit 51 decodes the filter parameter FP. As shown in FIG. 20, the adaptive filter information restoration unit 51 includes an on / off information restoration unit 511 and a filter information restoration unit 512.
  • the on / off information restoration unit 511 decodes the on / off flags AlfFilterFlagY, AlfFilterFlagCb, and AlfFilterFlagCr of the luminance component Y, the chrominance component Cr, and the chrominance component Cb from the filter on / off information included in the filter parameter FP.
  • FIG. 26 (a) shows an example of division of the coding unit for the luminance component Y in the maximum coding unit LCU when the value of alf_cu_control_max_depth is 2, along with a branch diagram showing a hierarchical structure.
  • the adaptive filter 50 can identify all coding units by an index assigned in the raster scan order.
  • FIG. 26B shows the correspondence between the filter processing control for the divided region shown in FIG. 26A and the on / off flag AlfFilterFlagY [i].
  • the on / off flag AlfFilterFlagY [i] for the coding unit including the target unit region is 0, it is specified that adaptive filter processing is not performed on the coding unit.
  • AlfFilterFlagY [i] for the coding unit including the target unit region
  • AlfFilterFlagCr and AlfFilterFlagCb specify whether or not to perform adaptive filter processing for the coding unit for the color difference component Cr and the color difference component Cb.
  • the correspondence relationship between the on / off flag in each encoded data # 3 and the on / off flag used for control in the case of control pattern 1 to control pattern 4 is shown in the table of FIG.
  • the on / off flags AlfFilterFlagY, AlfFilterFlagCr, AlfFilterFlagCb used for control and the on / off flags alf_cu_flag, alf_cu_flag_luma, alf_cu_flag_chroma, alf_cu_flag_cr, and alf_cu_flag_cb will be described.
  • AlfFilterFlagY, AlfFilterFlagCr, and AlfFilterFlagCb mean on / off flags used for adaptive filter control for the luminance component Y, the chrominance component Cr, and the chrominance component Cb, and are alf_cu_flag, alf_cu_flag_luma, alf_cu_flag_chroma, alf_cu_f_flag_c, Means an on / off flag in the encoded data # 3.
  • alf_cu_flag is stored in AlfFilterFlagY, and a value of 1 is stored in AlfFilterFlagCb and AlfFilterFlagCr.
  • alf_cu_control_flag_chroma is a flag for selecting whether the decoded on / off flag alf_cu_flag is used as an on / off flag for the luminance component Y or an on / off flag common to the luminance component Y, the color difference component Cr, and the color difference component Cb.
  • alf_cu_control_flag_chroma when alf_cu_control_flag_chroma is true, alf_cu_flag is decoded and stored in AlfFilterFlagY, AlfFilterFlagCb, and AlfFilterFlagCr.
  • alf_cu_control_flag_chroma when alf_cu_control_flag_chroma is false, alf_cu_flag is decoded and stored in AlfFilterFlagY. 1 is always stored in AlfFilterFlagCb and AlfFilterFlagCr.
  • alf_cu_flag_luma is stored in AlfFilterFlagY
  • alf_cu_flag_chroma is stored in AlfFilterFlagCb and AlfFilterFlagCr.
  • alf_cu_flag_luma, alf_cu_flag_cb, and alf_cu_flag_cr are decoded.
  • alf_cu_flag_luma, alf_cu_flag_cb, and alf_cu_flag_cr are stored in AlfFilterFlagY, AlfFilterFlagCb, and AlfFilterFlagCr, respectively.
  • the filter information restoration unit 512 uses the luminance filter information and the chrominance filter information included in the filter parameter FP, and the adaptive filter coefficient group HY of the luminance component Y, the adaptive filter coefficient group HCr of the chrominance component Cr, and the adaptive filter coefficient of the chrominance component Cb. Decode the group HCb.
  • the filter coefficient group HY is supplied to the luminance adaptive filter unit 53, and the filter coefficient group HCr and the filter coefficient group HCb are supplied to the color difference adaptive filter unit 52.
  • the color difference adaptive filter unit 52 refers to the on / off flag AlfFilterFlagCr and the on / off flag AlfFilterFlagCb, performs adaptive filter processing on the color difference component Cr and the color difference component Cb of the deblocked decoded image P_DB, and outputs the filtered decoded image P_FL.
  • a color difference component Cr and a color difference component Cb are generated. Further, the color difference component Cr and the color difference component Cb of the generated filtered decoded image P_FL are stored in the buffer memory 15.
  • the color difference adaptive filter unit 52 includes a switch unit 521a, a switch unit 521b, a Cr filter processing unit 522, and a Cb filter processing unit 523.
  • the switch unit 521a supplies the color difference component Cr of the deblocked decoded image P_DB to the Cr filter processing unit 522 when the on / off flag AlfFilterFlagCr is on. When OFF, the color difference component Cr of the deblocked decoded image P_DB is output as the color difference component Cr of the filtered decoded image P_FL.
  • the switch unit 521b supplies the color difference component Cb of the deblocked decoded image P_DB to the Cb filter processing unit 523 when the on / off flag AlfFilterFlagCb is on. When OFF, the color difference component Cb of the deblocked decoded image P_DB is output as the color difference component Cb of the filtered decoded image P_FL.
  • the Cr filter processing unit 522 performs adaptive filter processing using the filter coefficient group HCr supplied from the filter information restoration unit 512 on the color difference component Cr of the deblocked decoded image P_DB supplied from the switch unit 521a. Thus, the color difference component Cr of the filtered decoded image P_FL is generated.
  • the Cb filter processing unit 523 performs adaptive filter processing using the filter coefficient group HCb supplied from the filter information restoration unit 512 on the color difference component Cb of the deblocked decoded image P_DB supplied from the switch unit 521b. Thus, the color difference component Cb of the filtered decoded image P_FL is generated.
  • the luminance adaptive filter unit 53 refers to the on / off flag AlfFilterFlagY, performs adaptive filter processing on the luminance component Y of the deblocked decoded image P_DB, and generates the luminance component Y of the filtered decoded image P_FL. Further, the luminance component Y of the generated filtered decoded image P_FL is stored in the buffer memory 15.
  • the luminance adaptive filter unit 53 includes a switch unit 531 and a Y filter processing unit 532.
  • the switch unit 531 supplies the luminance component Y of the deblocked decoded image P_DB to the Y filter processing unit 532 when the on / off flag AlfFilterFlagY is on. When OFF, the luminance component Y of the deblocked decoded image P_DB is output as the luminance component Y of the filtered decoded image P_FL.
  • the Y filter processing unit 532 performs adaptive filter processing using the filter coefficient group HY supplied from the filter information restoration unit 512 on the luminance component Y of the deblocked decoded image P_DB supplied from the switch unit 531. Thus, the luminance component Y of the filtered decoded image P_FL is generated.
  • the video decoding device 3 may be configured to be able to select any of a plurality of control patterns.
  • the flag alf_cu_control_mode for selecting the control pattern is included in the filter parameter, and the moving picture decoding apparatus uses a control mode corresponding to the decoded alf_cu_control_mode.
  • alf_cu_control_mode takes a value of 1 to 4, and control patterns 1 to 4 are selected for each value.
  • FIG. 27 shows the syntax of the filter parameter at this time.
  • alf_cu_control_flag_chroma the configuration that uses the on / off flag for the luminance component and the configuration that uses the common on / off flag for the luminance component and the color difference component are switched.
  • control pattern 1 and control pattern 2 the former is controlled The same switching is possible by treating the pattern 1 and the latter with the control pattern 2.
  • control pattern 1 or control pattern 3 can be selected using flag alf_cu_control_mode for selecting a control pattern. That is, it is possible to select whether to use an on / off flag only for the luminance component Y or to use an independent on / off flag for the luminance component Y and the two color difference components.
  • alf_cu_control_mode 1
  • alf_cu_control_mode 3
  • control pattern 3 is selected.
  • the filter parameter syntax at this time is shown in FIG.
  • the video encoding device 4 (Moving picture encoding device 4)
  • the video encoding device 4 according to the present embodiment will be described with reference to FIGS.
  • the same parts as those already described in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • FIG. 22 is a block diagram showing a configuration of the video encoding device 4 according to the present embodiment.
  • the moving image encoding device 4 includes an adaptive filter 60 instead of the adaptive filter 44 included in the moving image encoding device 2 according to the first embodiment.
  • the other configuration of the video encoding device 4 is the same as the configuration of the video encoding device 2 according to the first embodiment, and a description thereof will be omitted.
  • the adaptive filter 60 generates a filtered decoded image P_FL by performing an adaptive filter process on the deblocked decoded image P_DB.
  • the generated filtered decoded image P_FL is stored in the buffer memory 24.
  • the adaptive filter 60 also supplies various types of adaptive filter information used for the filter processing to the variable length code encoding unit 22 as filter parameters FP.
  • the variable length code encoding unit 22 encodes the filter parameter FP as a part of the encoded data # 3.
  • FIG. 23 is a block diagram showing the configuration of the adaptive filter 60.
  • the adaptive filter 60 includes a filter parameter determination unit 61 and an adaptive filter unit 62.
  • the filter parameter determination unit 61 determines luminance filter information, color difference filter information, and filter on / off information, and supplies the information to the adaptive filter unit 62 and the variable length code encoding unit 22. As illustrated in FIG. 24, the filter parameter determination unit 61 includes an on / off information determination unit 611 and a filter information determination unit 612.
  • the filter information determination unit 612 determines luminance filter information and color difference filter information from the deblocked decoded image P_DB and the moving image # 10. A filter coefficient group is calculated so that the square error between the deblocked decoded image P_DB and the encoding target image (moving image # 10) is minimized. Luminance filter information and chrominance filter information are determined based on an encoding cost that can be calculated by comparing an image subjected to adaptive filter processing and an encoding target image.
  • the on / off information determination unit 611 determines an on / off flag using the filter coefficient group determined by the filter information determination unit 612. When the control pattern is 1, the on / off information determination unit 611 determines an on / off flag alf_cu_flag applied to the adaptive filter processing of the luminance component Y. When the control pattern is 2, the on / off information determination unit 611 determines an on / off flag alf_cu_flag for adaptive filter processing and a flag alf_cu_control_flag_chroma for designating whether to apply the on / off flag alf_cu_flag to the color difference adaptive filter.
  • the on / off information determination unit 611 determines the on / off flag alf_cu_flag_luma of the luminance component Y and the on / off flag alf_cu_flag_chroma of the color difference component Cr and the color difference component Cb. In the case of the control pattern 4, the on / off information determination unit 611 determines the on / off flags alf_cu_flag_luma, alf_cu_flag_cr, and alf_cu_flag_cb applied to the adaptive filter processing of each of the luminance component Y, the color difference component Cr, and the color difference component Cb.
  • the on / off flag is compared with the case where the filter processing is performed using the filter coefficient group determined by the filter information determination unit 612 and the case where the filter processing is not performed. It is determined to be on when the square error with the image to be encoded is small, and off in other cases.
  • alf_cu_flag_chroma is set to 1 when the square error becomes small. In other cases, it is determined to be 0.
  • the square error between the encoding target image and the filtered decoded image in the color difference component Cb, and the square error between the encoding target image and the filtered decoded image in the color difference component Cr Is determined to be on when it is smaller than the sum of square errors between the encoding target image and the decoded image before the filter, and it is determined to be off otherwise.
  • an optimal on / off flag may be determined by simultaneously handling a plurality of components.
  • the square error between the encoding target image and the filtered decoded image in the luminance component Y, and 2 of the encoding target image and the filtered decoded image in the color difference component Cb and the color difference component Cr It is determined to be ON when the sum of the square error is smaller than the sum of the square errors of the encoding target image and the decoded image before the filter, and OFF otherwise.
  • control by the common on / off flag alf_cu_flag and the luminance component Y by alf_cu_flag_luma is performed in CU units of coding units, but the control by the chrominance component on / off flag alf_cu_flag_chroma, alf_cu_flag_cr, and alf_cu_flag_cb is performed by the maximum coding unit. Is performed in units of LCU. If the encoding unit of the on / off flag is reduced, the image quality after filtering can be improved, but the code amount of the on / off flag is increased. The encoding unit of the on / off flag needs to be determined appropriately.
  • the resolution of the color difference component is smaller than the resolution of the luminance component, so the effect of improving the image quality obtained using the adaptive filter is also small.
  • the color difference on / off flag is encoded using the same unit as the luminance, the on / off flag becomes relatively large, which is not appropriate in terms of encoding efficiency. For this reason, it is appropriate to control the color difference in units larger than the luminance control.
  • the decoding process can be performed in units of LCUs, it is appropriate to encode the on / off flag in units of LCUs or less. For this reason, in this embodiment, the LCU unit is used as the unit of the color difference on / off flag, thereby reducing the number of on / off flags and improving the coding efficiency as a whole.
  • the adaptive filter unit 62 performs an adaptive filter process using the filter parameter FP from the filter parameter determination unit 61 on the deblocked decoded image P_DB to generate a filtered decoded image P_FL.
  • the adaptive filter processing of the luminance component Y is the same as the luminance adaptive filter unit 33
  • the adaptive filter processing of the color difference component Cr and the color difference component Cb is the same as the color difference adaptive filter unit 32. The description is omitted here.
  • the on / off control of the adaptive filter processing of the coding unit can be commonly performed in two or more components of the luminance component Y, the color difference component Cr, and the color difference component Cb.
  • the code amount of the on / off flag can be reduced by using a common on / off flag in the adaptive filter processing of the luminance component Y and the adaptive filter processing of the color difference component.
  • the code amount of the on / off flag can be reduced by using a common on / off flag in a plurality of color difference component adaptive filters.
  • the color difference component Cr and the color difference component Cb have a lower resolution than the luminance component Y, even if the on / off control of the color difference component is performed in LCU units in a wider range than the CU unit, the influence on image quality degradation is small. Further, when the on / off control of the color difference component Cr and the color difference component Cb is performed in units of LCUs, the total number of on / off flags used for the color difference component Cr and the color difference component Cb can be reduced, so that the code amount can be reduced.
  • the above-described moving image encoding apparatuses 2 and 4 and moving image decoding apparatuses 1 and 3 can be mounted and used in various apparatuses that perform transmission, reception, recording, and reproduction of moving images.
  • the moving image may be a natural moving image captured by a camera or the like, or may be an artificial moving image (including CG and GUI) generated by a computer or the like.
  • the above-described moving image encoding device 2 and moving image decoding device 1 can be used for transmission and reception of moving images.
  • FIG. 31 is a block diagram illustrating a configuration of a transmission device PROD_A in which the moving image encoding device 2 is mounted.
  • the transmission device PROD_A modulates a carrier wave with an encoding unit PROD_A1 that obtains encoded data by encoding a moving image and the encoded data obtained by the encoding unit PROD_A1.
  • a modulation unit PROD_A2 that obtains a modulation signal and a transmission unit PROD_A3 that transmits the modulation signal obtained by the modulation unit PROD_A2 are provided.
  • the moving image encoding apparatus 2 described above is used as the encoding unit PROD_A1.
  • the transmission device PROD_A is a camera PROD_A4 that captures a moving image, a recording medium PROD_A5 that records the moving image, an input terminal PROD_A6 that inputs the moving image from the outside, as a supply source of the moving image input to the encoding unit PROD_A1.
  • An image processing unit A7 that generates or processes an image may be further provided.
  • FIG. 31A illustrates a configuration in which the transmission apparatus PROD_A includes all of these, but a part of the configuration may be omitted.
  • the recording medium PROD_A5 may be a recording of a non-encoded moving image, or a recording of a moving image encoded by a recording encoding scheme different from the transmission encoding scheme. It may be a thing. In the latter case, a decoding unit (not shown) for decoding the encoded data read from the recording medium PROD_A5 according to the recording encoding method may be interposed between the recording medium PROD_A5 and the encoding unit PROD_A1.
  • FIG. 31 is a block diagram illustrating a configuration of the receiving device PROD_B in which the moving image decoding device 1 is mounted.
  • the reception device PROD_B includes a reception unit PROD_B1 that receives a modulation signal, a demodulation unit PROD_B2 that obtains encoded data by demodulating the modulation signal received by the reception unit PROD_B1, and a demodulation A decoding unit PROD_B3 that obtains a moving image by decoding the encoded data obtained by the unit PROD_B2.
  • the moving picture decoding apparatus 1 described above is used as the decoding unit PROD_B3.
  • the receiving device PROD_B has a display PROD_B4 for displaying a moving image, a recording medium PROD_B5 for recording the moving image, and an output terminal for outputting the moving image to the outside as a supply destination of the moving image output by the decoding unit PROD_B3.
  • PROD_B6 may be further provided.
  • FIG. 31B a configuration in which all of these are provided in the receiving device PROD_B is illustrated, but a part may be omitted.
  • the recording medium PROD_B5 may be used for recording a non-encoded moving image, or may be encoded using a recording encoding method different from the transmission encoding method. May be. In the latter case, an encoding unit (not shown) for encoding the moving image acquired from the decoding unit PROD_B3 according to the recording encoding method may be interposed between the decoding unit PROD_B3 and the recording medium PROD_B5.
  • the transmission medium for transmitting the modulation signal may be wireless or wired.
  • the transmission mode for transmitting the modulated signal may be broadcasting (here, a transmission mode in which the transmission destination is not specified in advance) or communication (here, transmission in which the transmission destination is specified in advance). Refers to the embodiment). That is, the transmission of the modulation signal may be realized by any of wireless broadcasting, wired broadcasting, wireless communication, and wired communication.
  • a terrestrial digital broadcast broadcasting station (broadcasting equipment or the like) / receiving station (such as a television receiver) is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by wireless broadcasting.
  • a broadcasting station (such as broadcasting equipment) / receiving station (such as a television receiver) of cable television broadcasting is an example of a transmitting device PROD_A / receiving device PROD_B that transmits and receives a modulated signal by cable broadcasting.
  • a server workstation etc.
  • Client television receiver, personal computer, smart phone etc.
  • VOD Video On Demand
  • video sharing service using the Internet is a transmitting device for transmitting and receiving modulated signals by communication.
  • PROD_A / reception device PROD_B usually, either a wireless or wired transmission medium is used in a LAN, and a wired transmission medium is used in a WAN.
  • the personal computer includes a desktop PC, a laptop PC, and a tablet PC.
  • the smartphone also includes a multi-function mobile phone terminal.
  • the video sharing service client has a function of encoding a moving image captured by the camera and uploading it to the server. That is, the client of the video sharing service functions as both the transmission device PROD_A and the reception device PROD_B.
  • the above-described moving image encoding device 2 and moving image decoding device 1 can be used for recording and reproduction of moving images.
  • FIG. 32A is a block diagram showing a configuration of a recording apparatus PROD_C in which the above-described moving picture encoding apparatus 2 is mounted.
  • the recording device PROD_C includes an encoding unit PROD_C1 that obtains encoded data by encoding a moving image, and the encoded data obtained by the encoding unit PROD_C1 on the recording medium PROD_M.
  • the moving image encoding apparatus 2 described above is used as the encoding unit PROD_C1.
  • the recording medium PROD_M may be of a type built in the recording device PROD_C, such as (1) HDD (Hard Disk Drive) or SSD (Solid State Drive), or (2) SD memory. It may be of the type connected to the recording device PROD_C, such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disc) or BD (Blu-ray Disc: registration) Or a drive device (not shown) built in the recording device PROD_C.
  • HDD Hard Disk Drive
  • SSD Solid State Drive
  • SD memory such as a card or USB (Universal Serial Bus) flash memory, or (3) DVD (Digital Versatile Disc) or BD (Blu-ray Disc: registration) Or a drive device (not shown) built in the recording device PROD_C.
  • the recording device PROD_C is a camera PROD_C3 that captures moving images as a supply source of moving images to be input to the encoding unit PROD_C1, an input terminal PROD_C4 for inputting moving images from the outside, and reception for receiving moving images.
  • the unit PROD_C5 and an image processing unit C6 that generates or processes an image may be further provided.
  • FIG. 32A illustrates a configuration in which the recording apparatus PROD_C includes all of these, but a part of the configuration may be omitted.
  • the receiving unit PROD_C5 may receive a non-encoded moving image, or may receive encoded data encoded by a transmission encoding scheme different from the recording encoding scheme. You may do. In the latter case, a transmission decoding unit (not shown) that decodes encoded data encoded by the transmission encoding method may be interposed between the reception unit PROD_C5 and the encoding unit PROD_C1.
  • Examples of such a recording device PROD_C include a DVD recorder, a BD recorder, and an HDD (Hard Disk Drive) recorder (in this case, the input terminal PROD_C4 or the receiving unit PROD_C5 is a main supply source of moving images).
  • a camcorder in this case, the camera PROD_C3 is a main source of moving images
  • a personal computer in this case, the receiving unit PROD_C5 or the image processing unit C6 is a main source of moving images
  • a smartphone in this case In this case, the camera PROD_C3 or the receiving unit PROD_C5 is a main supply source of moving images
  • the camera PROD_C3 or the receiving unit PROD_C5 is a main supply source of moving images
  • FIG. 32 is a block showing a configuration of a playback device PROD_D in which the above-described video decoding device 1 is mounted.
  • the playback device PROD_D reads a moving image by decoding a read unit PROD_D1 that reads encoded data written on the recording medium PROD_M and a coded data read by the read unit PROD_D1. And a decoding unit PROD_D2 to be obtained.
  • the moving picture decoding apparatus 1 described above is used as the decoding unit PROD_D2.
  • the recording medium PROD_M may be of the type built into the playback device PROD_D, such as (1) HDD or SSD, or (2) such as an SD memory card or USB flash memory, It may be of a type connected to the playback device PROD_D, or (3) may be loaded into a drive device (not shown) built in the playback device PROD_D, such as DVD or BD. Good.
  • the playback device PROD_D has a display PROD_D3 that displays a moving image, an output terminal PROD_D4 that outputs the moving image to the outside, and a transmission unit that transmits the moving image as a supply destination of the moving image output by the decoding unit PROD_D2.
  • PROD_D5 may be further provided.
  • FIG. 32B illustrates a configuration in which the playback apparatus PROD_D includes all of these, but some of them may be omitted.
  • the transmission unit PROD_D5 may transmit an unencoded moving image, or transmits encoded data encoded by a transmission encoding method different from the recording encoding method. You may do. In the latter case, it is preferable to interpose an encoding unit (not shown) that encodes a moving image with an encoding method for transmission between the decoding unit PROD_D2 and the transmission unit PROD_D5.
  • Examples of such a playback device PROD_D include a DVD player, a BD player, and an HDD player (in this case, an output terminal PROD_D4 to which a television receiver or the like is connected is a main supply destination of moving images).
  • a television receiver in this case, the display PROD_D3 is a main supply destination of moving images
  • a digital signage also referred to as an electronic signboard or an electronic bulletin board
  • the display PROD_D3 or the transmission unit PROD_D5 is the main supply of moving images.
  • Desktop PC (in this case, the output terminal PROD_D4 or the transmission unit PROD_D5 is the main video image supply destination), laptop or tablet PC (in this case, the display PROD_D3 or the transmission unit PROD_D5 is a moving image)
  • a smartphone which is a main image supply destination
  • a smartphone in this case, the display PROD_D3 or the transmission unit PROD_D5 is a main moving image supply destination
  • the like are also examples of such a playback device PROD_D.
  • Each block of the above-described moving image decoding apparatuses 1 and 3 and moving image encoding apparatuses 2 and 4 may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or CPU (Central Processing Unit) may be used for software implementation.
  • IC chip integrated circuit
  • CPU Central Processing Unit
  • each device includes a CPU that executes instructions of a program that realizes each function, a ROM (Read (Memory) that stores the program, a RAM (Random Memory) that expands the program, the program, and various types
  • a storage device such as a memory for storing data is provided.
  • An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of each of the above devices, which is software that realizes the above-described functions, is recorded so as to be readable by a computer. This can also be achieved by supplying to each of the above devices and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).
  • Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R.
  • IC cards including memory cards
  • semiconductor memories such as mask ROM / EPROM / EEPROM / flash ROM, or PLD (Programmable logic device) or FPGA (Field Programmable Gate Array) Logic circuits can be used.
  • each of the above devices may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited as long as it can transmit the program code.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network (Virtual Private Network), telephone line network, mobile communication network, satellite communication network, etc. can be used.
  • the transmission medium constituting the communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by wireless such as High Data Rate, NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, and terrestrial digital network.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line, infrared rays such as IrDA and remote control, Bluetooth (registered trademark), IEEE 802.11 wireless, HDR ( It can also be used by wireless such as High Data Rate, NFC (Near Field Communication), DLNA (Digital Living Network Alliance), mobile phone network, satellite line, and terrestrial digital network.
  • wired lines such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL (Asymmetric Digital Subscriber Line) line,
  • the moving picture decoding apparatus is a moving picture decoding apparatus that decodes an image composed of a plurality of color components, and color component designation information that designates a color component to be filtered.
  • filter information decoding means for decoding the filter coefficient group, and the filter coefficient group decoded by the filter information decoding means and the color component designation information are used to perform filter processing on each color component to be processed. And filtering means.
  • the filter processing is performed on each color component to be processed using the filter coefficient group and the color component designation information, there are a plurality of color components. Even in this case, appropriate filter processing can be performed on each color component. Therefore, according to the moving image decoding apparatus, the encoding efficiency is improved.
  • the filter information decoding unit includes at least one filter coefficient included in a filter coefficient group of a certain color component, a filter coefficient included in a filter coefficient group of another color component that has already been decoded, Decoding is preferably performed as an addition value or a subtraction value with a value decoded from the encoded data.
  • the filter information decoding means includes at least one filter coefficient included in a filter coefficient group of a certain color component, a filter coefficient included in a filter coefficient group of another color component that has already been decoded, Since decoding is performed as an addition value or a subtraction value with a value decoded from the encoded data, the code amount of the filter coefficient group can be reduced. Therefore, according to said structure, the further improvement of encoding efficiency can be aimed at.
  • the filter information decoding means decodes a plurality of filter coefficient groups used for filter processing for a plurality of color components, and the plurality of filter coefficient groups include filter coefficient groups of other color components that have already been decoded.
  • One independent filter coefficient group that is decoded without using one and one or more dependent filter coefficient groups that are decoded using filter coefficient groups of other color components that have already been decoded.
  • the means decodes an assignment flag indicating a color component to be filtered using the independent filter coefficient group, and the filter means performs a filter process using the filter coefficient group derived with reference to the assignment flag. It is preferable.
  • the inventor can further improve the encoding efficiency by appropriately selecting an independent filter coefficient group to be decoded without using a filter coefficient group of another color component that has already been decoded from the plurality of filter coefficient groups.
  • the knowledge that it can plan was acquired.
  • the assignment flag indicating the color component to be filtered is decoded using the independent filter coefficient group, and the filter process is performed using the filter coefficient group derived with reference to the assignment flag. Further improvement in coding efficiency can be achieved.
  • the moving picture decoding apparatus is a moving picture decoding apparatus that decodes an image composed of a plurality of color components, and performs a filtering process on each of a plurality of unit areas constituting the image.
  • Filter information decoding means for decoding filter on / off information including one or more on / off flags for designating whether or not to perform, and a filter coefficient group, and a filter for color components for each unit region with reference to the filter on / off information
  • a filter means for performing processing is a moving picture decoding apparatus that decodes an image composed of a plurality of color components, and performs a filtering process on each of a plurality of unit areas constituting the image.
  • the image to be decoded may include a region where the encoding efficiency is improved without performing the filtering process.
  • the filter process is performed on the color component for each unit area with reference to the filter on / off information, the encoding efficiency is improved.
  • the moving image decoding apparatus refers to one on / off flag included in the filter on / off information, and determines on / off in a unit region existing at the same position for two or more color components of the image, It is preferable to control the filtering process for the two or more color components in common.
  • the two or more color components of the image are determined to be on / off in the unit region existing at the same position, thereby Since filter processing for two or more color components is controlled in common, it is possible to reduce the amount of filter processing as well as the amount of code.
  • the filter information decoding unit specifies whether an on / off flag included in the filter on / off information is referred to as an on / off flag of a specific color component or a common on / off flag for a plurality of color components.
  • the selection flag to be decoded is decoded.
  • the coding efficiency is improved by referring to the on / off flag as being related to a specific color component depending on the image characteristics of the image to be decoded, and the on / off flag is divided into a plurality of color components. In some cases, the coding efficiency may be improved by referring to them as common.
  • the selection specifying whether the on / off flag included in the filter on / off information is referred to as an on / off flag of a specific color component or a common on / off flag for a plurality of color components Since the flag is decoded, the encoding efficiency can be improved even when the decoding target image has various image characteristics.
  • the color component includes at least a luminance component and a color difference component
  • the filter information decoding unit refers to one on / off flag included in the filter on / off information as an on / off flag of the luminance component as the selection flag. It is preferable to decode a flag that specifies whether the luminance component and the color difference component are referred to as a common on / off flag.
  • the coding efficiency is improved by referring to the on / off flag as the on / off flag of the luminance component depending on the image characteristics of the image to be decoded, and the on / off flag is used as the luminance component and the color difference component.
  • the coding efficiency may be improved by referring to the common on / off flag.
  • the selection flag one on / off flag included in the filter on / off information is referred to as a luminance component on / off flag, or as a common on / off flag between the luminance component and the color difference component. Since the flag designating whether to be referred to is decoded, even if the decoding target image has various image characteristics, the encoding efficiency can be improved.
  • the filter information decoding means includes a first control pattern using an on / off flag only for the luminance component, a second control pattern using an on / off flag common to the luminance component and the color difference component, and an on / off flag common to the plurality of color difference components.
  • a selection mode indicating at least one of a third control pattern using a luminance component and a fourth control pattern using an independent on / off flag for a luminance component and a plurality of color difference components, and the selection mode further comprises a first control When the pattern or the second control pattern is indicated, one on / off flag is decoded. When the selection mode indicates the third control pattern, two on / off flags are decoded, and the selection mode is the fourth control. When indicating a pattern, it is preferable to decode the three on / off flags.
  • the first control pattern using the on / off flag only for the luminance component the second control pattern using the common on / off flag for the luminance component and the color difference component, and the common on / off flag for the plurality of color difference components are used.
  • the third control pattern a selection mode indicating at least one of the fourth control patterns using an independent on / off flag for the luminance component and the plurality of color difference components is decoded, and the selection mode is the first control pattern or
  • the second control pattern is indicated, one on / off flag is decoded, and when the selection mode indicates the third control pattern, two on / off flags are decoded, and the selection mode indicates the fourth control pattern.
  • the encoding efficiency can be improved even if the decoding target image has various image characteristics. Rukoto can.
  • the moving picture coding apparatus is a moving picture coding apparatus for coding an image composed of a plurality of color components, and color component designation information for designating a color component to be filtered.
  • a filter coefficient group used for filter processing, and filter information to be encoded as a filter parameter, the filter information determination unit determining the color component designation information and the filter coefficient group for each color component, and the filter information determination unit Filter means for performing filter processing on each of the color components to be processed using the filter coefficient group determined by the above, and variable length encoding means for encoding the filter information determined by the filter information determination means. It is characterized by.
  • each color component to be processed is filtered using the filter coefficient group determined by the filter information determination unit, and the filter information is encoded. Therefore, encoding efficiency is improved.
  • the filter information determination unit includes at least one element of the filter information, a filter coefficient of one filter coefficient group determined by the filter information determination unit, and a filter coefficient of a filter coefficient group of other color components. It is preferable to determine by the difference.
  • At least one element of the filter information is a difference between a filter coefficient of one filter coefficient group determined by the filter information determination unit and a filter coefficient of a filter coefficient group of another color component. Therefore, the amount of codes can be reduced. Therefore, according to said structure, the further improvement of encoding efficiency can be aimed at.
  • the filter information determination means includes one independent filter coefficient group that is encoded without using filter coefficient groups of other color components, and a filter coefficient group that is encoded using filter coefficient groups of other color components; It is preferable that an allocation flag indicating a color component to be filtered is determined using the independent filter coefficient group, and the variable length encoding unit encodes the allocation flag.
  • the inventor intends to further improve the encoding efficiency by appropriately selecting one independent filter coefficient group to be encoded without using filter coefficient groups of other color components from the plurality of filter coefficient groups. The knowledge that it can be obtained.
  • the said filter information determination means is encoded using one independent filter coefficient group encoded without using the filter coefficient group of another color component, and the filter coefficient group of another color component.
  • the allocation flag indicating the color component to be filtered using the independent filter coefficient group, and the variable length encoding means encodes the allocation flag, so that the encoding efficiency can be further improved. Can be improved.
  • the moving image encoding device is a moving image encoding device that encodes an input image composed of a plurality of color components, and in each of the plurality of unit regions constituting the input image, Filter on / off information for specifying whether to perform filter processing, filter coefficient group used for filter processing, filter information determining means for determining filter information to be encoded for each color component, the filter on / off information and filter coefficients
  • Filter on / off information for specifying whether to perform filter processing
  • filter coefficient group used for filter processing filter information determining means for determining filter information to be encoded for each color component, the filter on / off information and filter coefficients
  • the image to be encoded may include a region where the encoding efficiency is improved when the filter processing is not performed.
  • the filtering process is performed for each unit region with reference to the filter on / off information and the filter coefficient group, so that the encoding efficiency is improved.
  • the moving image encoding device preferably includes a filter information determining unit that determines a common on / off flag for designating on / off in a unit region existing at the same position for two or more color components of the input image. .
  • the image to be encoded since the common on / off flag for designating on / off in the unit region existing at the same position is determined for two or more color components of the input image, the image to be encoded has various image characteristics. Even if it has, it can aim at the improvement of encoding efficiency.
  • the filter information determination means selects whether to refer to the already-encoded filter on / off information as an on / off flag of a specific color component or as an on / off flag common to a plurality of color components. Preferably, a selection flag is determined.
  • the on / off flag is referred to as relating to a specific color component, the encoding efficiency is improved, and the on / off flag is set to a plurality of colors. In some cases, encoding efficiency is improved by referring to the common component.
  • the filter on / off information is referred to as an on / off flag of a specific color component, or a selection flag for selecting whether to refer to an on / off flag common to a plurality of color components is determined. Even if the image to be encoded has various image characteristics, the encoding efficiency can be improved.
  • the color component includes at least a luminance component and a color difference component
  • the filter information determination unit refers to the already decoded filter on / off information as an on / off flag of the luminance component, or It is preferable to determine a flag for selecting whether to refer to a common on / off flag in the color difference component.
  • the coding efficiency is improved by referring to the on / off flag as the on / off flag of the luminance component, depending on the image characteristics of the image to be encoded, and the on / off flag is compared with the luminance component and the color difference.
  • the coding efficiency is improved by referring to a common on / off flag for the component.
  • the filter on / off information is referred to as a luminance component on / off flag or a flag for selecting whether to refer to a luminance component and a color difference component as a common on / off flag, the encoding is performed. Even when the target image has various image characteristics, the encoding efficiency can be improved.
  • the filter information determination means includes a first control pattern that uses an on / off flag only for the luminance component, a second control pattern that uses an on / off flag common to the luminance component and the color difference component, and a common on / off for a plurality of color difference components.
  • a selection mode indicating at least one of a third control pattern using a flag and a fourth control pattern using an independent on / off flag independent of the luminance component and the plurality of color difference components is determined.
  • the control pattern or the second control pattern is indicated, one on / off flag is determined.
  • the selection mode indicates the third control pattern, two on / off flags are determined, and the selection mode is the fourth control pattern. It is preferable to determine three on / off flags.
  • the first control pattern using the on / off flag only for the luminance component the second control pattern using the common on / off flag for the luminance component and the chrominance component, and the common on / off flag for the plurality of chrominance components.
  • a selection mode indicating at least one of a third control pattern to be used, a fourth control pattern using an independent on / off flag independent of the luminance component and the plurality of color difference components is determined, and the selection mode is the first control pattern.
  • one ON / OFF flag is determined when the second control pattern is indicated, two ON / OFF flags are determined when the selection mode indicates the third control pattern, and the selection mode indicates the fourth control pattern. In this case, since three on / off flags are determined, the encoding efficiency is improved even when the image to be encoded has various image characteristics. Door can be.
  • the data structure of the encoded data according to the present invention is a data structure of encoded data referred to by the video decoding device, and includes color component specifying information for specifying a color component to be filtered, and a filter
  • the moving picture decoding apparatus decodes the color component designation information and the filter coefficient group, and uses the decoded filter coefficient group and the color component designation information to be the processing target.
  • the filter processing is performed for each color component.
  • the encoded data configured as described above includes color component specifying information for specifying a color component to be subjected to filter processing, and a filter coefficient group.
  • a moving image decoding apparatus for decoding the encoded data includes: Since the color component designation information and the filter coefficient group are decoded and the filter processing is performed on each color component to be processed using the decoded filter coefficient group and the color component designation information, there are a plurality of color components. Even in this case, appropriate filter processing can be performed on each color component. Therefore, according to the encoded data, the encoding efficiency is improved.
  • the data structure of the encoded data according to the present invention is the data structure of the encoded data referred to by the moving image decoding apparatus, and is the filter process performed in each of a plurality of unit areas constituting the target image? Filter on / off information including one or more on / off flags for designating whether or not, and a filter coefficient group, the video decoding device decodes the filter on / off information and the filter coefficient group, and the filter on / off With reference to the information, a color component filtering process is performed for each unit area.
  • the decoding target image may include a region where the encoding efficiency is improved when the filtering process is not performed.
  • the encoded data configured as described above includes filter on / off information including one or more on / off flags for designating whether or not to perform filter processing in each of a plurality of unit regions constituting the target image, and a filter coefficient group.
  • the moving picture decoding apparatus that decodes the encoded data decodes the filter on / off information and the filter coefficient group, and refers to the filter on / off information to perform color component filtering for each unit region. Encoding efficiency is improved.
  • the moving picture decoding apparatus is a moving picture decoding apparatus that decodes encoded data obtained by encoding a target picture composed of a plurality of color components, and a plurality of units constituting the target picture.
  • Filter information decoding means for decoding filter on / off information including one or more on / off flags that specify whether or not to perform filter processing in each of the areas, and a decoded image in each unit area using the decoded filter on / off information
  • a filter means for performing filter processing wherein the filter means performs filter processing independently for each of the color components.
  • the moving image decoding apparatus configured as described above, independent filter processing for each color component using filter on / off information including one or more on / off flags for designating whether or not to perform filter processing for each unit region. Therefore, even when there are a plurality of color components, it is possible to appropriately switch on / off the filter processing for each color component. Therefore, according to the moving image decoding apparatus, the encoding efficiency is improved.
  • the size of the unit area is different for each color component.
  • the coding efficiency is improved by making the size of the unit area, which is an on / off unit of the filter processing, different depending on the color component. According to said structure, since the magnitude
  • the color component preferably includes at least a luminance component and a color difference component.
  • the above configuration it is possible to improve the encoding efficiency of the target image including at least the luminance component and the color difference component for at least the luminance component and the color difference component.
  • the unit region for the color difference component is a maximum coding unit
  • the unit region for the luminance component is a coding unit constituting the maximum coding unit. Is preferred.
  • the encoding efficiency is improved by taking the size of the unit area for the color difference component larger than the size of the unit area for the luminance component.
  • the unit region for the color difference component is a maximum coding unit
  • the unit region for the luminance component is a coding unit constituting the maximum coding unit. Efficiency.
  • the filter unit uses the filter on / off information used in the filter processing on the luminance component.
  • the coding efficiency may be improved by reducing the code amount of the filter on / off information depending on the image characteristics of the target image.
  • the filter unit uses the filter on / off information used in the filtering process on the luminance component. Increase can be suppressed. Therefore, according to the above configuration, the encoding efficiency can be improved.
  • the filter means uses the filter on / off information different from the filter on / off information used in the filter processing on the luminance component. Is preferred.
  • the encoding efficiency may be improved by performing finer on / off processing.
  • the filter means when the filter processing is performed on the color difference component, uses the filter on / off information different from the filter on / off information used in the filter processing on the luminance component. It is possible to improve the conversion efficiency.
  • the filter means uses the filter on / off information only for the luminance component.
  • encoding efficiency may be improved by switching filter processing using the filter on / off information only for the luminance component.
  • the filter means since the filter means uses the filter on / off information only for the luminance component, it is possible to improve the encoding efficiency.
  • a moving image decoding apparatus for decoding an image having a plurality of color components, information for specifying a color component to be filtered, and filter information decoding means for decoding a filter coefficient group;
  • Moving image decoding comprising: filter means for performing filter processing on each color component to be processed using the filter coefficient group decoded by the filter information decoding means and information designating the color component apparatus.
  • the filter information decoding means adds at least one filter coefficient of a filter coefficient group of a certain color component to a filter coefficient of a filter coefficient group of another color component that has already been decoded and a value decoded from encoded data Alternatively, decoding is performed using a subtraction value.
  • the filter information decoding means decodes a filter coefficient group used for filter processing for a plurality of color components, and decodes without using a filter coefficient group of another color component that has already been decoded, and an already decoded One or more subordinate filter coefficient groups to be decoded using the filter coefficient groups of the other color components, the assignment flag indicating the color component to be filtered using the independent filter coefficient group, and the filter The means performs a filtering process using a filter coefficient group derived according to the allocation flag.
  • a moving image decoding apparatus for decoding an input image having a plurality of color components, Filter information decoding means for decoding filter on / off information including one or more on / off flags for designating whether or not to perform filter processing in each of a plurality of unit regions constituting the input image, and a filter coefficient group;
  • a moving picture decoding apparatus comprising: a filter unit that performs filter processing of a color component for each unit region with reference to the filter on / off information.
  • the filter information decoding means decodes a selection flag for selecting whether an on / off flag included in the filter on / off information is used as an on / off flag for a specific color component or as a common on / off flag for a plurality of color components. 5. It is characterized by this.
  • the color component is composed of at least a luminance component and a color difference component, Whether the filter information decoding unit uses, as the selection flag, one filter on / off flag included in the filter on / off information as an on / off flag of a luminance component or an on / off flag common to a luminance component and a color difference component 5. Decoding a flag for selecting The moving picture decoding apparatus described in 1.
  • the filter information decoding means is a control pattern 1 that uses an on / off flag only for a luminance component, a control pattern 2 that uses a common on / off flag for a luminance component and a color difference component, or a control that uses a common on / off flag for a plurality of color difference components.
  • a selection mode indicating at least one of pattern 3 or control pattern 4 using an independent on / off flag with a luminance component and a plurality of color difference components is decoded, and 1 when the selection mode indicates control pattern 1 or control pattern 2
  • One on-off flag is decoded, two on-off flags are decoded when the selection mode indicates a control pattern 2, and three on-off flags are decoded when the selection mode indicates a control pattern 4. 6).
  • the moving picture decoding apparatus described in 1.
  • An encoding device that encodes an image having a plurality of color components, Information specifying a color component to be subjected to filter processing, determining a filter coefficient group used for the filter processing, filter information determining means for determining filter information to be encoded as a filter parameter,
  • a moving image comprising: filter means for performing filter processing on each color component to be processed using the filter coefficient group determined by the filter information determination means; and variable length encoding means for encoding the filter information.
  • the filter information determining means determines at least one element of filter information based on a difference value between a filter coefficient of one determined filter coefficient group and a filter coefficient of another color component filter coefficient group.
  • the filter information determining means determines one independent filter coefficient group to be encoded without using filter coefficient groups of other color components, and a filter coefficient group to be encoded using filter coefficient groups of other color components. Further, an allocation flag indicating a color component to be filtered is determined using an independent filter coefficient group, and the variable-length encoding means encodes the allocation flag.
  • a moving image encoding device for encoding an input image having a plurality of color components, In each of a plurality of unit areas constituting the input image, filter on / off information for specifying whether or not to perform filter processing, filter information determination means for determining filter information to be encoded with filter coefficient groups used for filter processing, Filter means for performing filter processing for each unit region with reference to the filter on / off information and a filter coefficient group, and variable length coding means for encoding a filter parameter including the filter on / off information and filter information.
  • filter on / off information for specifying whether or not to perform filter processing
  • filter information determination means for determining filter information to be encoded with filter coefficient groups used for filter processing
  • Filter means for performing filter processing for each unit region with reference to the filter on / off information and a filter coefficient group
  • variable length coding means for encoding a filter parameter including the filter on / off information and filter information.
  • the moving image encoding device is a moving image encoding device that encodes an image having two or more color components, and determines whether the unit area existing at the same position of the two or more color components is on or off. 12. It comprises filter information determining means for determining the on / off flag.
  • the filter information determining means determines a selection flag for selecting whether to use the already encoded filter on / off information as an on / off flag for a specific color component or as a common on / off flag for a plurality of color components. 13. It is characterized by The moving image encoding apparatus described in 1.
  • the color component is composed of at least a luminance component and a color difference component
  • the filter information determination means determines a flag for selecting whether the already-decoded filter on / off information is used as a luminance component on / off flag or a common on / off flag for a luminance component and a color difference component.
  • Features 14 The moving image encoding apparatus described in 1.
  • the filter information determining means is a control pattern 1 that uses an on / off flag only for a luminance component, a control pattern 2 that uses a common on / off flag for a luminance component and a color difference component, or a control that uses a common on / off flag for a plurality of color difference components.
  • a selection mode indicating at least one of pattern 3 or a control pattern 4 using an independent on / off flag that is independent of a luminance component and a plurality of color difference components is determined, and 1 when the selection mode indicates control pattern 1 or control pattern 2
  • One on / off flag is determined, two on / off flags are determined when the selection mode indicates the control pattern 2, and three on / off flags are determined when the selection mode indicates the control pattern 4. .
  • Moving image decoding comprising: filter means for performing filter processing on each color component to be processed using the filter coefficient group decoded by the filter information decoding means and information designating the color component A data structure of encoded data used for filtering processing of an image having a plurality of color components, which is referred to by the apparatus, and includes information specifying the color components used by the filter means and a filter coefficient group A data structure of encoded data characterized by the above.
  • Filter information decoding means for decoding filter on / off information including one or more on / off flags for designating whether or not to perform filter processing in each of a plurality of unit regions constituting the input image, and a filter coefficient group; Filtering processing of an image having a plurality of color components, which is referred to by a moving image decoding apparatus, comprising: filter means for performing filtering processing of color components for each unit region with reference to the filter on / off information A data structure of encoded data used in the above-mentioned, which includes filter on / off information and a filter coefficient group used by the filter means.
  • the moving picture decoding apparatus and moving picture encoding apparatus according to the present invention can be suitably used as a moving picture decoding apparatus and a moving picture encoding apparatus that include an image filter device that performs image filtering.
  • the data structure according to the present invention can be suitably used as the data structure of encoded data referred to by the video decoding device.
  • Video decoding device DESCRIPTION OF SYMBOLS 11 Variable length code decoding part 12 Motion vector decompression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

適応フィルタ(30)は、色差成分Crに適応的フィルタ処理を施すCrフィルタ処理部(322)と、色差成分Cbに適応的フィルタ処理を施すCbフィルタ処理部(323)から構成される色差適応フィルタ部(32)と、色差成分の適応的フィルタ処理に用いるフィルタ係数情報を復号する色差適応フィルタ情報復号部(31)とを備えている。

Description

動画像復号装置、動画像符号化装置、および、データ構造
 本発明は、画像のフィルタリングを行う画像フィルタ装置を備えている符号化装置、および、復号装置に関する。また、そのような復号装置によって復号される符号化データのデータ構造に関する。
 動画像を効率的に伝送または記録するために、動画像を符号化することによって符号化データを生成する動画像符号化装置(符号化装置)、および、当該符号化データを復号することによって復号画像を生成する動画像復号装置(復号装置)が用いられている。具体的な動画像符号化方式としては、例えば、H.264/MPEG-4.AVCがある。
 この符号化方式においては、入力画像を1つの輝度成分(輝度成分Y)および2つの色差成分(それぞれ色差成分Cr、色差成分Cb)に分割して符号化/復号処理が行われる。
 通常、入力画像を符号化/復号することによって得られる局所復号画像に基づいて予測画像が生成され、当該予測画像と入力画像との差分データが符号化される。また、予測画像の生成方法としては、画面間予測(インター予測)、および、画面内予測(イントラ予測)と呼ばれる方法が知られている。
 また、復号画像、または、復号画像に対してブロックノイズ低減処理を施して得られる画像に対して、適応的に設定されたフィルタ係数群を用いたフィルタ処理を施すことによって、ノイズが低減された復号画像を生成する適応的ループフィルタ(Adaptive Loop Filter)(以下単に「適応フィルタ」とも呼ぶ)と呼ばれる技術がある(非特許文献1参照)。上記適応フィルタに用いられるフィルタ係数群は、符号化対象画像と、復号画像とに対して上記適応フィルタを施して得られるフィルタ済復号画像との2乗誤差を最小にするように適応的に決定されたものである。
 適応フィルタにおいても、輝度成分と色差成分とに対してフィルタ処理の有無およびフィルタ係数群が独立に決定される。どの色差成分にフィルタ処理が施されるかはフラグによって決定される。色差成分のフィルタをオフとする場合、色差成分Cb及び色差成分Crの何れかにフィルタ処理が施される場合、色差成分Cb及び色差成分Crの両方にフィルタ処理が施される場合がある。色差成分Cb及び色差成分Crの両方にフィルタ処理が施される場合、色差成分Cbと色差成分Crとは同一のフィルタ係数群によって処理される。
 このような適応フィルタを備えた符号化装置および復号装置は、フィルタ済復号画像を参照して予測画像を生成することにより、予測精度および符号化効率の向上を図ることができる。
「JCTVCA-A121」,Joint Collaborative Team on Video Coding(JCT-VC) of ITU-T SG16 WP3 and ISO/IEC JTC1/SC29/WG11,1st Mee-ting:Dresden,DE,04/2010
 しかしながら、従来、符号化対象画像の色差成分Crおよび色差成分Cbに施す適応的フィルタ処理には、同一のフィルタ係数群が用いられていた。そのため、従来の技術では、色差成分Crおよび色差成分Cbに対して効果的なフィルタ処理を行うことが難しく、符号化効率が向上しないという問題があった。
 本発明は、上記の問題に鑑み、発明者によって得られた知見に基づいてなされたものであり、その目的は、色成分が複数存在する場合であっても、符号化効率を向上させる画像フィルタ装置、並びに、そのような画像フィルタ装置を備える動画像復号装置および動画像符号化装置を実現することにある。
 上記の課題を解決するために、本発明に係る動画像復号装置は、複数の色成分から構成される画像を復号する動画像復号装置であって、フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を復号するフィルタ情報復号手段と、前記フィルタ情報復号手段により復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うフィルタ手段とを備えることを特徴としている。
 上記のように構成された動画像復号装置によれば、前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うので、色成分が複数存在する場合であっても、各色成分に対して適切なフィルタ処理を行うことができる。したがって、上記動画像復号装置によれば、符号化効率が向上する。
 また、本発明に係る動画像復号装置は、複数の色成分から構成される画像を復号する動画像復号装置であって、前記画像を構成する複数の単位領域の各々に対して、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを復号するフィルタ情報復号手段と、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分に対するフィルタ処理を行うフィルタ手段とを備えることを特徴としている。
 発明者の知見によれば、復号対象の画像には、フィルタ処理を施さないほうが符号化効率が向上する領域が含まれ得る。上記のように構成された動画像復号装置によれば、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分に対するフィルタ処理を行うので、符号化効率が向上する。
 また、本発明に係る動画像符号化装置は、複数の色成分から構成される画像を符号化する符号化装置であって、フィルタ処理の対象となる色成分を指定する色成分指定情報、フィルタ処理に用いるフィルタ係数群、及び、フィルタパラメータとして符号化するフィルタ情報であって、当該色成分指定情報及びフィルタ係数群を色成分毎に決定するフィルタ情報決定手段と、前記フィルタ情報決定手段により決定されたフィルタ係数群を用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段と、前記フィルタ情報決定手段により決定されたフィルタ情報を符号化する可変長符号化手段とを備えることを特徴としている。
 上記のように構成された動画像符号化装置によれば、前記フィルタ情報決定手段により決定されたフィルタ係数群を用いて処理対象となる前記各色成分にフィルタ処理を行うと共に、前記フィルタ情報を符号化するので、符号化効率が向上する。
 また、本発明に係る動画像符号化装置は、複数の色成分から構成される入力画像を符号化する動画像符号化装置であって、前記入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するフィルタオンオフ情報と、フィルタ処理に用いるフィルタ係数群と、符号化するフィルタ情報とを色成分毎に決定するフィルタ情報決定手段と、前記フィルタオンオフ情報とフィルタ係数群とを参照して前記単位領域ごとにフィルタ処理を行うフィルタ手段と、前記フィルタオンオフ情報とフィルタ情報とを含むフィルタパラメータを符号化する可変長符号化手段とを備え、前記フィルタ情報には、色成分毎の前記フィルタオンオフ情報が含まれていることを特徴としている。
 発明者の知見によれば、符号化対象の画像には、フィルタ処理を施さないほうが符号化効率が向上する領域が含まれ得る。上記のように構成された動画像復号装置によれば、前記フィルタオンオフ情報とフィルタ係数群とを参照して前記単位領域ごとにフィルタ処理を行うので、符号化効率が向上する。
 また、本発明に係る符号化データのデータ構造は、動画像復号装置によって参照される符号化データのデータ構造であって、フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を含んでおり、前記動画像復号装置は、前記色成分指定情報及びフィルタ係数群を復号し、復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うことを特徴としている。
 上記のように構成された符号化データは、フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を含んでおり、当該符号化データを復号する動画像復号装置は、前記色成分指定情報及びフィルタ係数群を復号し、復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うので、色成分が複数存在する場合であっても、各色成分に対して適切なフィルタ処理を行うことができる。したがって、符号化データによれば、符号化効率が向上する。
 また、本発明に係る符号化データのデータ構造は、動画像復号装置によって参照される符号化データのデータ構造であって、対象画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを含んでおり、前記動画像復号装置は、前記フィルタオンオフ情報と、フィルタ係数群とを復号し、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うことを特徴としている。
 発明者の知見によれば、復号対象の画像には、フィルタ処理を施さないほうが符号化効率が向上する領域が含まれ得る。上記のように構成された符号化データは、対象画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを含んでおり、
 当該符号化データを復号する動画像復号装置は、前記フィルタオンオフ情報と、フィルタ係数群とを復号し、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うので、符号化効率が向上する。
 また、本発明に係る動画像復号装置は、複数の色成分から構成される対象画像を符号化して得られる符号化データを復号する動画像復号装置であって、対象画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1以上含むフィルタオンオフ情報を復号するフィルタ情報復号手段と、復号された前記フィルタオンオフ情報を用いて、各単位領域における復号画像にフィルタ処理を行うフィルタ手段とを備え、前記フィルタ手段は、前記色成分毎に独立してフィルタ処理を行うことを特徴としている。
 上記のように構成された動画像復号装置によれば、各単位領域についてフィルタ処理を行うか否かを指定するオンオフフラグを1以上含むフィルタオンオフ情報を用いて、色成分毎に独立したフィルタ処理を行うので、色成分が複数存在する場合であっても、各色成分に対して適切にフィルタ処理のオンオフを切り替えることができる。したがって、上記動画像復号装置によれば、符号化効率が向上する。
 以上のように、本発明に係る動画像復号装置は、複数の色成分から構成される画像を復号する動画像復号装置であって、フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を復号するフィルタ情報復号手段と、前記フィルタ情報復号手段により復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うフィルタ手段とを備えている。
 上記動画像復号装置によれば、前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うので、色成分が複数存在する場合であっても、各色成分に対して適切なフィルタ処理を行うことができる。したがって、上記動画像復号装置によれば、符号化効率が向上する。
本発明の一実施形態に係る動画像符号化装置によって生成され、本発明の一実施形態に係る動画像復号装置によって参照される符号化データのデータ構造を示す図である。(a)は、符号化データのピクチャレイヤの構成を示しており、(b)は、ピクチャレイヤに含まれるスライスレイヤの構成を示しており、(c)は、スライスレイヤに含まれるLCUレイヤを構成する各CUの構成を示しており、(d)は、CUレイヤに含まれるリーフCUの構成を示しており、(e)は、リーフCUについてのインター予測情報の構成を示しており、(f)は、リーフCUについてのイントラ予測情報の構成を示しており、(g)は、スライスヘッダに含まれるフィルタパラメータの構成を示している。 本発明の一実施形態に係る動画像符号化装置によって生成され、本発明の一実施形態に係る動画像復号装置によって参照される符号化データに含まれる色差フィルタ情報のデータ構造を示す図である。(a)~(e)は、色差フィルタモードalf_chroma_idcが0~4のときの色差フィルタ情報の構成を示している。(e)の(i)は、色差フィルタモードalf_chroma_idcが4のときの予め第1色差成分が指定されている場合の色差フィルタ情報の構成を示している。(ii)は、色差フィルタモードalf_chroma_idcが4のときのsw_flagによって第1色差成分が指定される場合の色差フィルタ情報の構成を示している。 第1の実施形態に係る符号化データの色差フィルタ情報に含まれる各シンタックスを示す図である。色差フィルタモードalf_chroma_idcが4であり、かつ、第1色差成分が予め指定されている場合を示す。 第1の実施形態に係る動画像復号装置の構成を示すブロック図である。 第1の実施形態に係る動画像復号装置の備える適応フィルタの構成を示すブロック図である。 第1の実施形態に係る適応フィルタの備える色差適応フィルタ係数導出部を説明するための図である。(a)は、色差フィルタモードalf_chroma_idcが1または2のときのフィルタ係数情報に含まれるフィルタ係数群coeff_Cbおよびフィルタ係数群coeff_Crからフィルタ係数群HCrおよびフィルタ係数群HCbを導出する処理を示す。(b)は、色差フィルタモードalf_chroma_idcが3のときのフィルタ係数情報に含まれるフィルタ係数群coeff_chromaからフィルタ係数群HCrおよびフィルタ係数群HCbを導出する構成及び処理を示す。 第1の実施形態に係る適応フィルタの備える色差適応フィルタ係数導出部を説明するための図である。(a)は、色差フィルタモードalf_chroma_idcが4であり、かつ、予め第1色差成分が色差成分Crに指定されている場合における色差適応フィルタ係数導出部のブロック図である。(b)は、色差フィルタモードalf_chroma_idcが4であり、かつ、予め第1色差成分が色差成分Cbに指定されている場合における色差適応フィルタ係数導出部の構成及び処理を示す。 第1の実施形態に係る適応フィルタの備える色差適応フィルタ係数導出部を説明するための図である。色差フィルタモードalf_chroma_idcが4であり、かつ、第1色差成分C1が割り当てフラグsw_flagによって指定される場合における色差適応フィルタ係数導出部の構成及び処理を示す。 第1の実施形態に係る色差適応フィルタ部の備えるスイッチ部を説明するための図であって、色差フィルタモードalf_chroma_idcによって指定されるスイッチのオンオフを示す表である。 第1の実施形態に係る適応フィルタによるフィルタ処理を説明するための図である。(a)は、対象単位領域URと、対象単位領域URにおけるフィルタ対象画素の画素値を算出するために参照される画素の集合であるフィルタ参照領域Rと、各フィルタ対象画素についてのフィルタ参照領域Rの和集合として定義されるフィルタ参照範囲RAとを示す図である。(b)は、フィルタ参照領域Rに含まれる各画素に割り付けられたフィルタ係数を示す図である。 第1の実施形態に係る動画像符号化装置の構成を示すブロック図である。 第1の実施形態に係る動画像符号化装置の備える適応フィルタの構成を示すブロック図である。 第1の実施形態に係る適応フィルタの備える色差フィルタ情報決定部の構成を示すブロック図である。 第2の実施形態に係る符号化データのフィルタオンオフ情報のデータ構造を示す図である。(a)~(d)は、制御パターン1~制御パターン4のときのフィルタオンオフ情報の構成を示している。 第2の実施形態に係る符号化データの制御パターン1のフィルタパラメータに含まれる各シンタックスを示す図である。 第2の実施形態に係る符号化データの制御パターン2のフィルタパラメータに含まれる各シンタックスを示す図である。 第2の実施形態に係る符号化データの制御パターン3のフィルタパラメータに含まれる各シンタックスを示す図である。 第2の実施形態に係る符号化データの制御パターン4のフィルタパラメータに含まれる各シンタックスを示す図である。 第2の実施形態に係る動画像復号装置の構成を示すブロック図である。 第2の実施形態に係る動画像復号装置の備える適応フィルタの構成を示すブロック図である。 第2の実施形態に係る符号化データのオンオフフラグalf_cu_flag、alf_cu_flag_luma、alf_cu_flag_chroma、alf_cu_flag_cr、alf_cu_flag_cbとオンオフの制御に用いるオンオフフラグAlfFilterFlagY、AlfFilterFlagCr、AlfFilterFlagCbとの対応関係を示す表である。 第2の実施形態に係る動画像符号化装置の構成を示すブロック図である。 第2の実施形態に係る動画像符号化装置の備える適応フィルタの構成を示すブロック図である。 第2の実施形態に係る適応フィルタの備えるフィルタパラメータ決定部の構成を示すブロック図である。 第1の実施形態に係る符号化データの色差フィルタ情報に含まれる各シンタックスを示す図であり、色差フィルタモードalf_chroma_idcが4であり、かつ、第1色差成分が割り当てフラグsw_flag指定される場合を示す。 第2の実施形態に係る領域単位のオンオフフラグを適用するときの適応的フィルタ処理を説明するための図である。(a)は、最大符号化単位においてオンオフ制御の対象となる各符号化単位の分割例を、階層構造を表す分岐図と共に示す図であり、(b)は、オンオフフラグよって指定される対象領域のオンオフを示す図である。 第2の実施形態に係るフィルタパラメータに含まれる各シンタックスを示す図であり、制御パターン1~4のフィルタオンオフ情報の構成を、選択フラグalf_cu_control_modeによって切り替える場合を示す。 第2の実施形態に係るフィルタパラメータに含まれる各シンタックスを示す図であり、制御パターン1と制御パターン3とのフィルタオンオフ情報の構成を、選択フラグalf_cu_control_modeによって切り替える場合を示す。 第1の実施形態に係る符号化データの色差フィルタ情報に含まれる各シンタックスを示す図であり、図3のシンタックスalf_chroma_idcに代えて、第1フィルタモードalf_chroma_idc1および第2フィルタモードalf_chroma_idc2を適用する場合を示す。 第1の実施形態に係る第1フィルタモードalf_chroma_idc1および第2フィルタモードalf_chroma_idc2を説明する図である。(a)は、第1フィルタモードalf_chroma_idc1によって指定される色差成分Crおよび色差成分Cbのフィルタ処理のオンオフを示す図である。(b)は、第2フィルタモードalf_chroma_idc2によって指定される色差成分Crおよび色差成分Cbのフィルタ処理におけるフィルタ係数群を示す図である。 実施形態に係る動画像符号化装置を搭載した送信装置、および、実施形態に係る動画像復号装置を搭載した受信装置の構成について示した図である。(a)は、動画像符号化装置を搭載した送信装置を示しており、(b)は、動画像復号装置を搭載した受信装置を示している。 実施形態に係る動画像符号化装置を搭載した記録装置、および、実施形態に係る動画像復号装置を搭載した再生装置の構成について示した図である。(a)は、動画像符号化装置を搭載した記録装置を示しており、(b)は、動画像復号装置を搭載した再生装置を示している。
 [実施形態1]
 以下では、本発明の第1の実施形態について図1~図13、図25を参照して説明する。なお、本実施形態に係る復号装置は、符号化データから動画像を復号するものである。したがって、以下では、これを「動画像復号装置」と呼称する。また、本実施形態に係る符号化装置は、動画像を符号化することによって符号化データを生成するものである。したがって、以下では、これを「動画像符号化装置」と呼ぶ。
 ただし、本発明の第1の実施形態は、適用範囲はこれに限定されるものではない。すなわち、以下の説明からも明らかなように、本発明の特徴は複数のフレームを前提としなくとも成立するものである。すなわち、動画像を対象とするか静止画像を対象とするかを問わず、復号装置一般および符号化装置一般に適用できるものである。
(符号化データ#1の構成)
 本実施形態に係る動画像復号装置1の説明に先立ち、本実施形態に係る動画像符号化装置2によって生成され、動画像復号装置1によって復号される符号化データ#1の構成について、図1を参照して説明する。符号化データ#1は、シーケンスレイヤ、GOP(Group Of Pictures)レイヤ、ピクチャレイヤ、スライスレイヤ、および、最大符号化単位(LCU:Largest Coding Unit)レイヤからなる階層構造を有している。
 符号化データ#1におけるピクチャレイヤ以下の階層の構造を図1に示す。図1(a)~(f)は、それぞれ、ピクチャレイヤP、スライスレイヤS、LCUレイヤLCU、LCUに含まれるリーフCU(図1(d)ではCULと表記)、インター予測(画面間予測)パーティションについての予測情報PIであるインター予測情報PI_Inter、イントラ予測(画面内予測)パーティションについての予測情報PIであるイントラ予測情報PI_Intraの構造を示す図である。
 (ピクチャレイヤ)
 ピクチャレイヤPは、処理対象のピクチャである対象ピクチャを復号するために動画像復号装置1が参照するデータの集合である。ピクチャレイヤPは、図1(a)に示すように、ピクチャヘッダPH、および、スライスレイヤS1~SNsを含んでいる(NsはピクチャレイヤPに含まれるスライスレイヤの総数)。
 ピクチャヘッダPHには、対象ピクチャの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれている。例えば、動画像符号化装置2が符号化の際に用いた可変長符号化のモードを示す符号化モード情報(entropy_coding_mode_flag)は、ピクチャヘッダPHに含まれる符号化パラメータの一例である。
 (スライスレイヤ)
 ピクチャレイヤPに含まれる各スライスレイヤSは、処理対象のスライスである対象スライスを復号するために動画像復号装置1が参照するデータの集合である。スライスレイヤSは、図1(b)に示すように、スライスヘッダSH、および、LCUレイヤLCU1~LCUNc(NcはスライスSに含まれるLCUの総数)を含んでいる。
 スライスヘッダSHには、対象スライスの復号方法を決定するために動画像復号装置1が参照する符号化パラメータ群が含まれる。スライスタイプを指定するスライスタイプ指定情報(slice_type)は、スライスヘッダSHに含まれる符号化パラメータの一例である。
 スライスタイプ指定情報により指定可能なスライスタイプとしては、(1)符号化の際にイントラ予測のみを用いるIスライス、(2)符号化の際に単方向予測、又は、イントラ予測を用いるPスライス、(3)符号化の際に単方向予測、双方向予測、又は、イントラ予測を用いるBスライスなどが挙げられる。
 また、スライスヘッダSHには、動画像復号装置1の備える適応フィルタによって参照されるフィルタパラメータFPが含まれる。なお、フィルタパラメータFPの構成については、後述するためここでは説明を省略する。
 (LCUレイヤ)
 スライスレイヤSに含まれる各LCUレイヤLCUは、処理対象のLCUである対象LCUを復号するために動画像復号装置1が参照するデータの集合である。
 LCUレイヤLCUは、当該LCUを階層的に4分木分割することにより得られる複数の符号化単位(CU:Coding Unit)より構成される。換言すれば、LCUレイヤLCUは、複数のCUを再帰的に含む階層構造のうち、最上位にあたる符号化単位である。LCUレイヤLCUに含まれる各CUは、図1(c)に示すように、CUヘッダCUH、および、当該CUを4分木分割することにより得られる複数のCUを再帰的に含む階層構造を有している。なお、再帰構造を有するCUのノードを符号化ツリー(Coding Tree)と呼ぶこともある。
 LCUを除く各CUのサイズは、当該CUが直接に属するCU(すなわち、当該CUの1階層上位のCU)のサイズの縦横とも半分であり、各CUのとり得るサイズは、符号化データ#1のシーケンスパラメータセットSPSに含まれる、LCUのサイズおよび階層深度(hierarchical depth)に依存する。例えば、LCUのサイズが128×128画素であって、最大階層深度が5である場合には、当該LCU以下の階層におけるCUは、5種類のサイズ、すなわち、128×128画素、64×64画素、32×32画素、16×16画素、および、8×8画素の何れかをとり得る。また、それ以上分割されないCUをリーフCUと呼ぶことにする。
 (CUヘッダ)
 CUヘッダCUHには、対象CUの復号方法を決定するために動画像復号装置1が参照する符号化パラメータが含まれる。具体的には、図1(c)に示すように、対象CUをさらに下位のCUへ4分割するか否かを指定するCU分割フラグSP_CUが含まれる。CU分割フラグSP_CUが0である場合、すなわち、それ以上CUが分割されない場合、当該CUはリーフCUである。
 (リーフCU)
 それ以上分割されないCU(CUのリーフ)は予測単位(PU:Prediction Unit)、および、変換単位(TU:Transform Unit)として取り扱われる。
 図1(d)に示すように、リーフCU(図1(d)においてはCULと表記)は、(1)動画像復号装置1により予測画像を生成する際に参照されるPU情報PUI、および、(2)動画像復号装置1により残差データを復号する際に参照されるTU情報TUIを含んでいる。
 スキップフラグSKIPは、対象のPUについて、スキップモードが適用されているか否かを示すフラグであり、スキップフラグSKIPの値が1の場合、すなわち、対象のリーフにスキップモードが適用されている場合、そのリーフCUにおけるPU情報PUI、および、TU情報TUIは省略される。なお、スキップフラグSKIPは、Iスライスでは省略される。
 PU情報PUIは、図1(d)に示すように、スキップフラグSKIP、予測タイプ情報PT、および、予測情報PIを含んでいる。予測タイプ情報PTは、対象リーフCU(対象PU)についての予測画像生成方法として、イントラ予測を用いるのか、または、インター予測を用いるのかを指定する情報である。予測情報PIは、予測タイプ情報PTが何れの予測方法を指定するのかに応じて、イントラ予測情報PI_Intra、または、インター予測情報PI_Interより構成される。以下では、イントラ予測が適用されるPUをイントラPUとも呼称し、インター予測が適用されるPUをインターPUとも呼称する。
 PU情報PUIには、対象PUに含まれる各パーティションの形状、サイズ、および、対象PU内での位置を指定する情報が含まれる。ここで、パーティションとは、対象リーフCUを構成する1又は複数の重複しない領域のことであり、予測画像の生成は、パーティションを単位として行われる。
 TU情報TUIは、図1(d)に示すように、量子化ステップの大きさを指定する量子化パラメータ差分Δqp(tu_qp_delta)、対象リーフCU(対象TU)の各ブロックへの分割パターンを指定するTU分割情報SP_TU、および、量子化予測残差QD1~QDNT(NTは、対象TUに含まれるブロックの総数)を含んでいる。
 量子化パラメータ差分Δqpは、対象TUにおける量子化パラメータqpと、そのTUの直前に符号化されたTUにおける量子化パラメータqp’との差分qp-qp’である。
 TU分割情報SP_TUは、具体的には、対象TUに含まれる各ブロックの形状、サイズ、および、対象TU内での位置を指定する情報である。各TUは、例えば、64×64画素から2×2画素までのサイズをとり得る。ここで、ブロックとは、対象リーフCUを構成する1又は複数の重複しない領域のことであり、予測残差の符号化及び復号は、ブロックを単位として行われる。
 各量子化予測残差QDは、動画像符号化装置2が以下の処理1~3を、処理対象のブロックである対象ブロックに施すことによって生成した符号化データである。処理1:符号化対象画像から予測画像を減算した予測残差をDCT変換(Discrete Cosine Transform)する。処理2:処理1にて得られたDCT係数を量子化する。処理3:処理2にて量子化されたDCT係数を可変長符号化する。上述した量子化パラメータqpは、動画像符号化装置2がDCT係数を量子化する際に用いた量子化ステップQPの大きさを表す(QP=2qp/6)。
 (インター予測情報PI_Inter)
 インター予測情報PI_Interには、動画像復号装置1が、インター予測によってインター予測画像を生成する際に参照される符号化パラメータが含まれる。図1(e)に示すように、インター予測情報PI_Interは、対象PUの各パーティションへの分割パターンを指定するインターPU分割情報SP_Inter、および、各パーティションについてのインター予測パラメータPP_Inter1~PP_InterNe(Neは、対象PUに含まれるインター予測パーティションの総数)を含んでいる。
 インターPU分割情報SP_Interは、具体的には、対象PU(インターPU)に含まれる各インター予測パーティションの形状、サイズ、および、対象PU内での位置を指定する情報である。
 インターPUは、2N×2N画素、2N×N画素、N×2N画素、およびN×N画素の4つの対称的分割(symmetric splittings)、並びに、2N×nU画素、2N×nD画素、nL×2N画素、およびnR×2N画素の4つの非対称的分割(asymmetric splittings)により、合計8種類のパーティションに分割することが可能である。ここで、Nの具体的な値は、当該PUが属するCUのサイズによって規定され、nU、nD、nL、および、nRの具体的な値は、Nの値に応じて定められる。例えば、128×128画素のインターPUは、128×128画素、128×64画素、64×128画素、64×64画素、128×32画素、128×96画素、32×128画素、および、96×128画素のインター予測パーティションへ分割することが可能である。
(インター予測パラメータPP_Inter)
 インター予測パラメータPP_Interは、図1(e)に示すように、参照画像インデックスRIと、推定動きベクトルインデックスPMVIと、動きベクトル残差MVDとを含んでいる。
 動きベクトル残差MVDは、動画像符号化装置2が以下の処理4~6を実行することによって生成した符号化データである。処理4:符号化/復号化済みの局所復号画像(より正確には、符号化/復号化済みの局所復号画像に対してデブロック処理および適応的フィルタ処理を施すことによって得られる画像)を選択し、選択した符号化/復号化済みの局所復号画像(以下「参照画像」とも呼称)を参照して対象パーティションに対する動きベクトルmvを導出する。処理5:推定方法を選択し、選択した推定方法を用いて対象パーティションに割り付ける動きベクトルmvの推定値(以下「推定動きベクトル」とも呼称)pmvを導出する。処理6:処理4にて導出した動きベクトルmvから処理5にて導出した推定動きベクトルpmvを減算した動きベクトル残差MVDを符号化する。
 参照画像インデックスRIは、処理4にて選択した符号化/復号化済みの局所復号画像(参照画像)を指定するものであり、上述した推定動きベクトルインデックスPMVIは、処理5にて選択した推定方法を指定するものである。処理5にて選択可能な推定方法としては、(1)符号化/復号化中の局所復号画像(より正確には、符号化/復号化中の局所復号画像における復号済みの領域に対してデブロック処理および適応的フィルタ処理を施すことによって得られる画像)において、対象パーティションに隣接するパーティション(以下「隣接パーティション」とも呼称する)に割り付けられた動きベクトルのメジアンを推定動きベクトルpmvとする方法や、(2)符号化/復号化済みの局所復号画像において、対象パーティションと同じ位置を占めるパーティション(しばしば「コロケートパーティション」と呼称される)に割り付けられた動きベクトルを推定動きベクトルpmvとする方法などが挙げられる。
 なお、単方向予測を行うパーティションに関する予測パラメータPPには、図1(e)に示すように、参照画像インデックスRI、推定動きベクトルインデックスPMVI、および、動きベクトル残差MVDがそれぞれ1つずつ含まれているが、双方向予測(重み付き予測)を行うパーティションに関する予測パラメータPPには、2つの参照画像インデックスRI1およびRI2、2つの推定動きベクトルインデックスPMVI1およびPMVI2、並びに、2つの動きベクトル残差MVD1およびMVD2が含まれる。
 (イントラ予測情報PI_Intra)
 イントラ予測情報PI_Intraには、動画像復号装置1が、イントラ予測によってイントラ予測画像を生成する際に参照される符号化パラメータが含まれる。図1(f)に示すように、イントラ予測情報PI_Intraは、対象PU(イントラPU)の各パーティションへの分割パターンを指定するイントラPU分割情報SP_Intra、および、各パーティションについてのイントラ予測パラメータPP_Intra1~PP_IntraNa(Naは、対象PUに含まれるイントラ予測パーティションの総数)を含んでいる。
 イントラPU分割情報SP_Intraは、具体的には、対象PUに含まれる各イントラ予測パーティションの形状、サイズ、および、対象PU内での位置を指定する情報である。イントラPU分割情報SP_Intraには、対象PUをパーティションに分割するか否かを指定するイントラ分割フラグ(intra_split_flag)が含まれている。イントラ分割フラグが1であれば、対象PUは、4つのパーティションへと対称的に分割され、イントラ分割フラグが0であれば、対象PUは、分割されることなく、対象PU自身が1つのパーティションとして取り扱われる。したがって、対象PUのサイズを2N×2N画素とすると、イントラ予測パーティションは、2N×2N画素(分割なし)、および、N×N画素(4分割)の何れかのサイズを取り得る(ここで、N=2n、nは1以上の任意の整数)。例えば、128×128画素のイントラPUは、128×128画素、および、64×64画素のイントラ予測パーティションへ分割することが可能である。
 (イントラ予測パラメータPP_Intra)
 イントラ予測パラメータPP_Intraは、図1(f)に示すように、推定フラグMPM、および、残余予測モードインデックスRIPMを含んでいる。イントラ予測パラメータPP_Intraは、各パーティションについてのイントラ予測方法(予測モード)を指定するためのパラメータである。
 推定フラグMPMは、処理対象である対象パーティションの周辺のパーティションに割り付けられた予測モードに基づいて推定された予測モードと、当該対象パーティションについての予測モードとが同じであるか否かを示すフラグである。ここで、対象パーティションの周辺のパーティションの例としては、対象パーティションの上辺に隣接するパーティション、および、対象パーティションの左辺に隣接するパーティション等が挙げられる。
 残余予測モードインデックスRIPMは、推定された予測モードと対象パーティションについての予測モードとが異なる場合に、イントラ予測パラメータPP_Intraに含められるインデックスであり、当該対象パーティションに割り付けられる予測モードを指定するためのインデックスである。
 (フィルタパラメータFP)
 上述のように、スライスヘッダSHには、動画像復号装置1の備える適応フィルタが参照するフィルタパラメータFPが含まれる。図1(g)に、フィルタパラメータFPのデータ構造を示す。図1(g)に示すように、フィルタパラメータFPには、フィルタオンオフ情報、輝度フィルタ情報、色差フィルタ情報が含まれる。
 フィルタオンオフ情報には、(1)対象スライスに含まれる分割領域を指定するための領域指定情報、および(2)分割領域毎にフィルタ処理のオンオフを指定するオンオフ情報が含まれる。
 輝度フィルタ情報には、輝度フィルタ係数情報が含まれ、色差フィルタ情報には、色差成分に対するフィルタ処理を行うか否かを切り替える色差フィルタモードalf_chroma_idcと色差フィルタ係数情報とが含まれる。色差フィルタ係数情報には、色差成分のタップ数alf_length_chroma_minus5_div2と色差フィルタ係数群とが含まれる。フィルタ係数群には、(1)フィルタ係数a0~aNT-1(NTは、フィルタ係数群に含まれるフィルタ係数の総数)、および、(2)オフセットoが含まれる。
 また、輝度フィルタ情報及び色差フィルタ情報は、以下の構成としてもよい。
 ・輝度フィルタ情報:色成分指定情報、輝度成分についてのフィルタオンオフ情報、及び輝度成分についてのフィルタ係数群を含む。
 ・色差フィルタ情報:色成分指定情報、色差成分についてのフィルタオンオフ情報、及び色差成分についてのフィルタ係数群を含む。
 換言すれば、フィルタ情報が、輝度成分と色差成分とで、独立したフィルタオンオフ情報を含む構成としてもよい。また、例えば、輝度成分は、CUを単位で符号化され、色差成分は、LCUを単位として符号化される構成とすることができる。
 図2は、alf_chroma_idc毎の色差フィルタ係数情報のデータ構造を示す。alf_chroma_idcが0のとき、図2(a)に示すように、色差フィルタ係数情報が省略される。alf_chroma_idcが1のとき、図2(b)に示すように、色差フィルタ係数情報には、alf_length_chroma_minus5_div2および色差成分Crのフィルタ係数群alf_coeff_Crが含まれる。alf_chroma_idcが2のとき、図2(c)に示すように、色差フィルタ係数情報には、alf_length_chroma_minus5_div2および色差成分Cbのフィルタ係数群alf_coeff_Cbが含まれる。alf_chroma_idcが3のとき、図2(d)に示すように、色差フィルタ係数情報にはalf_length_chroma_minus5_div2とフィルタ係数群alf_coeff_chromaとが含まれる。alf_chroma_idcが4のとき、図2(e)の(i)に示すように、色差フィルタ係数情報には、alf_chroma_idcと色差成分に対する独立フィルタ係数群alf_coeff_C1と従属フィルタ係数群alf_coeff_C2とが含まれる。ここで、2つの色差成分のうち、一方を第1色差成分C1、もう一方を第2色差成分C2と表現する。フィルタ係数群coeff_C1は、色差成分C1を導出するためのフィルタ係数群であり、フィルタ係数群alf_coeff_C2は、色差成分C2を導出するための差分フィルタ係数群である。また、以降、alf_chroma_idcの値をモード番号として、alf_chroma_idcが0、1、2、3、4のとき、それぞれ、モード0、モード1、モード2、モード3、モード4とも呼称する。
 なお、色差フィルタモードalf_chroma_idcは、上述のように、フィルタ処理の対象となる色成分を指定する色成分指定情報としての役割を有している。
 図2(e)の(ii)は、alf_chroma_idcが4のときの別の構成として、色差フィルタ係数情報が、第1色差成分C1に対応する色差成分を指定するフラグsw_flagを含む構成を示す。
 図3は、本実施形態に係る符号化データ#1の色差フィルタ情報に含まれるシンタックスを示す図である。図3に示すように、本実施形態に係る符号化データ#1の色差フィルタ情報には、(1)各色差成分に対するフィルタ処理を行われるか否かを指定するシンタックス(色差フィルタモード)alf_chroma_idc、(2)色差適応フィルタのフィルタ長を指定するシンタックスalf_length_chroma_minus5_div2、(3)フィルタ係数群を指定するシンタックスが含まれる。フィルタ係数群を指定するシンタックスとしては、alf_chroma_idcが1のときはalf_coeff_Cr[i]、alf_chroma_idcが2のときはalf_coeff_Cb[i]、alf_chroma_idcが3のときはalf_coeff_chroma[i]、alf_chroma_idcが4のときはalf_coeff_C1[i]およびalf_coeff_C2[i]が含まれている。図25は、フラグsw_flagを含めた構成のシンタックスを示す図である。この構成ではalf_chroma_idcが4の場合にsw_flagが含まれる。
 以下では、本実施形態に係る動画像復号装置1について図4~図10を参照して説明する。動画像復号装置1は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)、および、その後継コーデックとして提案されているHEVC(High Efficiency Video Coding)のテストモデルHMに採用されている技術を含む復号装置である。
 図4は、動画像復号装置1の構成を示すブロック図である。図4に示すように、動画像復号装置1は、可変長符号復号部11、動きベクトル復元部12、逆量子化・逆変換部13、加算器14、バッファメモリ15、インター予測画像生成部16、イントラ予測画像生成部17、予測方式決定部18、デブロッキングフィルタ19、および、適応フィルタ30を備えている。動画像復号装置1は、符号化データ#1を復号することによって動画像#2を生成するための装置である。
 (可変長符号復号部11)
 可変長符号復号部11は、各パーティションに関する予測パラメータPPを、符号化データ#1から復号する。すなわち、インター予測パーティションに関しては、参照画像インデックスRI、推定動きベクトルインデックスPMVI、および、動きベクトル残差MVDを符号化データ#1から復号し、これらを動きベクトル復元部12に供給する。一方、イントラ予測パーティションに関しては、(1)パーティションのサイズを指定するサイズ指定情報、および、(2)予測インデックスを指定する予測インデックス指定情報を符号化データ#1から復号し、これをイントラ予測画像生成部17に供給する。更に、可変長符号復号部11は、各ブロックに関する量子化予測残差QD、および、そのブロックを含むマクロブロックに関する量子化パラメータ差分Δqpを符号化データ#1から復号し、これらを逆量子化・逆変換部13に供給する。また、可変長符号復号部11は、符号化データ#1からフィルタパラメータFPを復号し、適応フィルタ30に供給する。
 (動きベクトル復元部12)
 動きベクトル復元部12は、各インター予測パーティションに関する動きベクトルmvを、そのパーティションに関する動きベクトル残差MVDと、他のパーティションに関する復元済みの動きベクトルmv’とから復元する。具体的には、(1)推定動きベクトルインデックスPMVIにより指定される推定方法に従って、復元済みの動きベクトルmv’から推定動きベクトルpmvを導出し、(2)導出した推定動きベクトルpmvと動きベクトル残差MVDとを加算することによって動きベクトルmvを得る。なお、動きベクトル復元部12は、他のパーティションに関する復元済みの動きベクトルmv’を、バッファメモリ15から読み出すことができる。動きベクトル復元部12は、復元した動きベクトルmvを、対応する参照画像インデックスRIと共に、インター予測画像生成部16に供給する。
 (インター予測画像生成部16)
 インター予測画像生成部16は、画面間予測によって、各インター予測パーティションに関する動き補償画像mcを生成する。具体的には、インター予測画像生成部16は、動きベクトル復元部12から供給された動きベクトルmvを用いて、同じく動きベクトル復元部12から供給された参照画像インデックスRIによって指定されるフィルタ済復号画像P_FL’から動き補償画像mcを生成する。ここで、フィルタ済復号画像P_FL’は、既にフレーム全体の復号が完了した復号済みの復号画像に対して、デブロッキングフィルタ19によるデブロック処理、および、適応フィルタ30によるフィルタ処理を施すことによって得られる画像であり、インター予測画像生成部16は、フィルタ済復号画像P_FL’を構成する各画素の画素値をバッファメモリ15から読み出すことができる。インター予測画像生成部16によって生成された動き補償画像mcは、インター予測画像Pred_Interとして予測方式決定部18に供給される。
 (イントラ予測画像生成部17)
 イントラ予測画像生成部17は、各イントラ予測パーティションに関する予測画像Pred_Intraを生成する。具体的には、まず、イントラ予測画像生成部17は、可変長符号復号部11から供給されたイントラ予測パラメータPP_Intraに基づいて予測モードを特定する。次に、イントラ予測画像生成部17は、特定した予測モードを対象パーティションに対して、例えば、ラスタスキャン順に割り付ける。
 ここで、イントラ予測画像生成部17は、イントラ予測パラメータPP_Intraに基づく予測モードを以下のように特定する。(1)推定フラグMPMを復号し、当該推定フラグMPMが、処理対象である対象パーティションについての予測モードと、当該対象パーティションの周辺のパーティションに割り付けられた予測モードとが同一であることを示している場合には、対象パーティションに対して、当該対象パーティションの周辺のパーティションに割り付けられた予測モードを割り付ける。(2)一方で、推定フラグMPMが、処理対象である対象パーティションについての予測モードと、当該対象パーティションの周辺のパーティションに割り付けられた予測モードとが同一でないことを示している場合には、残余予測モードインデックスRIPMを復号し、当該残余予測モードインデックスRIPMの示す予測モードを対象パーティションに対して割り付ける。
 イントラ予測画像生成部17は、対象パーティションに割り付けられた予測モードの示す予測方法に従って、画面内予測によって、(局所)復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部17によって生成されたイントラ予測画像Pred_Intraは、予測方式決定部18に供給される。なお、イントラ予測画像生成部17は、画面内予測によって、フィルタ済復号画像P_FLから予測画像Pred_Intraを生成する構成とすることも可能である。
 (予測方式決定部18)
 予測方式決定部18は、各パーティションが属するPUについての予測タイプ情報PTに基づいて、各パーティションがインター予測を行うべきインター予測パーティションであるのか、イントラ予測を行うべきイントラ予測パーティションであるのかを決定する。そして、各パーティションがインター予測を行うべきインター予測パーティションである場合には、予測方式決定部18は、インター予測画像生成部16にて生成されたインター予測画像Pred_Interを予測画像Predとして加算器14に供給する。一方、各パーティションがイントラ予測を行うべきイントラ予測パーティションである場合には、予測方式決定部18は、イントラ予測画像生成部17にて生成されたイントラ予測画像Pred_Intraを予測画像Predとして加算器14に供給する。
 (逆量子化・逆変換部13)
 逆量子化・逆変換部13は、(1)量子化予測残差QDを逆量子化し、(2)逆量子化によって得られたDCT係数を逆DCT(Discrete Cosine Transform)変換し、(3)逆DCT変換によって得られた予測残差Dを加算器14に供給する。なお、量子化予測残差QDを逆量子化する際に、逆量子化・逆変換部13は、可変長符号復号部11から供給された量子化パラメータ差分Δqpから量子化ステップQPを導出する。逆量子化・逆変換部13は、直前に逆量子化/逆DCT変換したTUに関する量子化パラメータqp’に量子化パラメータ差分Δqpを加算することによって量子化パラメータqpを導出する。逆量子化・逆変換部13は、量子化ステップqpを、例えばQP=2pq/6に代入することによって量子化ステップQPを導出する。また、逆量子化・逆変換部13による予測残差Dの生成は、TUあるいはTUを分割したブロックを単位として行われる。
 (加算器14)
 加算器14は、予測方式決定部18から供給された予測画像Predと、逆量子化・逆変換部13から供給された予測残差Dとを加算することによって復号画像Pを生成する。生成された復号画像Pは、バッファメモリ15に格納される。
 (デブロッキングフィルタ19)
 デブロッキングフィルタ19は、復号画像Pにおけるブロック境界、またはパーティション境界を介して互いに隣接する画素の画素値の差が予め定められた閾値よりも小さい場合に、復号画像Pにおける当該ブロック境界、または当該パーティション境界に対してデブロッキング処理を施すことによって、当該ブロック境界、または当該パーティション境界付近の画像の平滑化を行う。デブロッキングフィルタ19によりデブロッキング処理が施された画像は、デブロック済復号画像P_DBとして、適応フィルタ30に出力される。
 (適応フィルタ30)
 適応フィルタ30は、デブロック済復号画像P_DBを構成する輝度成分Y、色差成分Cr、および色差成分Cbに対して、それぞれ適応的フィルタ処理を行い、フィルタ済復号画像P_FLを生成する。
 なお、本明細書においては、特に混乱の恐れがない場合、デブロック済復号画像P_DBを構成する輝度成分Y、色差成分Cr、および色差成分Cbを、それぞれ単に、「輝度成分Y」、「色差成分Cr」、及び「色差成分Cb」と呼ぶこともある。
 図5は適応フィルタ30のブロック図である。図5に示すように、適応フィルタ30は、色差適応フィルタ情報復号部31、色差適応フィルタ部32、および輝度適応フィルタ部33を備えている。
 (色差適応フィルタ情報復号部31)
 色差適応フィルタ情報復号部31は、フィルタパラメータFPから、alf_chroma_idcを復号し、さらにalf_chroma_idcの値に応じて、タップ数、フィルタ係数群HCr、およびフィルタ係数群HCbを復号する。ここでフィルタ係数群HCrおよびフィルタ係数群HCbは、色差成分Crおよび色差成分Cbに施される適応的フィルタ処理のフィルタ係数群である。
 図5に示すように、色差適応フィルタ情報復号部31は、色差適応フィルタ係数導出部311を備えている。色差適応フィルタ係数導出部311により導出されたフィルタ係数群HCbおよびフィルタ係数群HCrは色差適応フィルタ部32に供給される。
 (色差適応フィルタ係数導出部311)
 色差適応フィルタ係数導出部311について、図6~図8を参照して説明する。色差適応フィルタ係数導出部311の動作は、alf_chroma_idcの値によって切り替わる。色差適応フィルタ係数導出部311は、次の式により、alf_length_chroma_minus5_div2からフィルタのタップ数tap_chroma、および、フィルタ係数の個数AlfNumCoeffChromaを導出する。
 tap_chroma=(alf_length_chroma_minus5_div2<<1)+5
 AlfNumCoeffChroma=((tap_chroma*tap_chroma+1)>>1)+1
 なお、alf_chroma_idc=0のとき、フィルタ係数群HCrおよびフィルタ係数群HCbは導出されない。
 図6の(a)に示すように、alf_chroma_idc=1のとき、フィルタ係数群HCrのみが導出され、フィルタ係数群HCbは導出されない。フィルタ係数群HCrには、以下の式により、フィルタパラメータFPから復号されたフィルタ係数群alf_coeff_Crが割り当てられる。
 HCr[i]=alf_coeff_Cr[i]
ここで、iは0からAlfNumCoeffChroma-1の整数である。なお、図6では、「alf_coeff_Cr[i]」のことを単に「coeff_Cr」と表記している(coeff_Cb、alf_coeff_chromaについても同様)。
 図6の(a)に示すように、alf_chroma_idc=2のとき、フィルタ係数群HCbのみが導出され、フィルタ係数群HCrは導出されない。以下の式により、フィルタ係数群HCbには、フィルタパラメータFPから復号されたフィルタ係数群alf_coeff_Cbが割り当てられる。
 HCb[i]=alf_coeff_Cb[i]
ここで、iは0からAlfNumCoeffChroma-1の整数である。
 図6の(b)に示すように、alf_chroma_idc=3のとき、フィルタ係数群HCrおよびフィルタ係数群HCbが導出される。以下の式により、フィルタ係数群HCrおよびフィルタ係数群HCbには、フィルタパラメータFPから復号されたフィルタ係数群alf_coeff_chromaが割り当てられる。
 HCr[i]=alf_coeff_chroma[i]
 HCb[i]=alf_coeff_chroma[i]
ここで、iは0からAlfNumCoeffChroma-1の整数である。
 alf_chroma_idc=4のとき、色差適応フィルタ係数導出部311の備えるフィルタ係数予測処理部3111は、独立フィルタ係数群alf_coeff_C1[i]と従属フィルタ係数群alf_coeff_C2[i]とを要素毎に減算することにより、第2色差成分C2のフィルタ係数群HC2を導出する。
 HC1[i]=alf_coeff_C1[i]
 HC2[i]=alf_coeff_C1[i]-alf_coeff_C2[i]
 ここで、iは0からAlfNumCoeffChroma-1の整数である。
 導出されたフィルタ係数群HC1およびフィルタ係数群HC2は、第1色差成分C1と第2色差成分C2との対応関係に応じて、フィルタ係数群HCrおよびフィルタ係数群HCbに割り当てられる。
 この場合、後述する動画像符号化装置2は、第2色差成分C2のフィルタ係数群のフィルタ係数HC2[i]と、第1色差成分C1のフィルタ係数群のフィルタ係数HC1[i]との差分値である従属フィルタ係数群alf_coeff_C2[i]を以下の式により定める。
 alf_coeff_C2[i]=HC1[i]-HC2[i]
ここで、iは0からAlfNumCoeffChroma-1の整数である。
 なお、フィルタ係数予測処理部3111は、以下の式に示すように、独立フィルタ係数群alf_coeff_C1[i]と従属フィルタ係数群alf_coeff_C2[i]とを要素毎に加算することにより、第2色差成分C2のフィルタ係数群HC2を導出する構成としてもよい。
 HC2[i]=alf_coeff_C1[i]+alf_coeff_C2[i]
 ここで、iは0からAlfNumCoeffChroma-1の整数である。
 この場合、後述する動画像符号化装置2は、以下の式により、2つのフィルタ係数群間の差分値を計算し、従属フィルタ係数群alf_coeff_C2[i]を定める。
 alf_coeff_C2[i]=HC2[i]-HC1[i]
 ここで、iは0からAlfNumCoeffChroma-1の整数である。
 第1色差成分があらかじめ決まっている構成の場合には、図7(a)に示すように、色差適応フィルタ係数導出部311は、以下の式によってフィルタ係数群HCrおよびフィルタ係数群HCbを割り当てる。
 HCr[i]=HC1[i]
 HCb[i]=HC2[i]
ここで、iは0からAlfNumCoeffChroma-1の整数である。
 なお、図7(b)に示すように、色差適応フィルタ係数導出部311は、第1色差成分C1を色差成分Cbとしてもよい。この場合、以下の式によってフィルタ係数群HCrおよびフィルタ係数群HCbが割り当てられる。
HCb[i]=HC1[i]
HCr[i]=HC2[i]
ここで、iは0からAlfNumCoeffChroma-1の整数である。
 第1色差成分C1がsw_flagにより決まる構成の場合には、図8に示すように、色差フィルタ係数割当部3112は、フィルタ係数群HC1およびフィルタ係数群HC2の割り当てを行う。
 色差フィルタ係数割当部3112は、sw_flagの値に応じて、フィルタ係数群HC1及びフィルタ係数群HC2の割り当てを行う。sw_flagが0の場合、色差フィルタ係数割当部3112は、フィルタ係数群HC1をフィルタ係数群HCrに割り当て、フィルタ係数群HC2をフィルタ係数群HCbに割り当てる。sw_flagが1の場合、色差フィルタ係数割当部3112は、フィルタ係数群HC1をフィルタ係数群HCbに割り当て、フィルタ係数群HC2をフィルタ係数群HCrに割り当てる。
 (色差適応フィルタ部32)
 図5に示すように、色差適応フィルタ部32は、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cbに対して、適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbを生成する。また、生成されたフィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbは、バッファメモリ15に格納される。
 図5に示すように、色差適応フィルタ部32はスイッチ部321、および、Crフィルタ処理部322、Cbフィルタ処理部323を備えている。スイッチ部321は、スイッチ部321aとスイッチ部321bとを備えている。
 (スイッチ部321)
 スイッチ部321は、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cbに対して、適応的フィルタ処理を行うか否かを切り替える。スイッチ部321aがオンであるならば、スイッチ部321aは、デブロック済復号画像P_DBの色差成分CrをCrフィルタ処理部322に供給する。スイッチ部321bがオンであるならば、スイッチ部321bは、デブロック済復号画像P_DBの色差成分CbをCbフィルタ処理部323に供給する。図9は、色差フィルタモードalf_chroma_idcと、スイッチ321aおよびスイッチ321bのオンオフの状態との対応表を示す図である。
 alf_chroma_idcが0のとき、色差成分Crおよび色差成分Cbに対するフィルタ処理は行われない。alf_chroma_idcが1のとき、色差成分Crに対してフィルタ処理が行われる。alf_chroma_idcが2のとき、色差成分Cbに対してフィルタ処理が行われる。alf_chroma_idcが3または4のとき色差成分Crおよび色差成分Cbの両方に対してフィルタ処理が行われる。
 (スイッチ部321a)
 スイッチ部321aは、alf_chroma_idcが1、3、または4のときにオンとなる。スイッチ部321aがオンのとき、デブロック済復号画像P_DBの色差成分CrはCrフィルタ処理部322に供給される。一方、スイッチ部321aがオフのとき、デブロック済復号画像P_DBの色差成分Crは、フィルタ済復号画像P_FLの色差成分Crとして出力される。
 (スイッチ部321b)
 スイッチ部321bは、alf_chroma_idcが2、3、または4のときにオンとなる。スイッチ部321bがオンのとき、デブロック済復号画像P_DBの色差成分CbはCbフィルタ処理部323に供給される。一方、スイッチ部321bがオフのとき、デブロック済復号画像P_DBの色差成分Cbは、フィルタ済復号画像P_FLの色差成分Cbとして出力される。
 (適応的フィルタ処理)
 Crフィルタ処理部322、Cbフィルタ処理部323、および、輝度適応フィルタ部33は、以下のとおり適応的フィルタ処理を実行する。
 フィルタ対象画素の画素値をSF(x’,y’)と表し、デブロック済復号画像P_DB(以下、「フィルタ前画像」とも呼称する)における対象マクロブロック内または対象マクロブロック周辺の画素値をS(x,y)と表すことにすると、フィルタ処理部(Crフィルタ処理部322、Cbフィルタ処理部323、輝度適応フィルタ部33)は、画素値SF(x’,y’)を、以下の(1)式によって算出する。
Figure JPOXMLDOC01-appb-M000001
ここで、座標(x,y)は、座標(x’,y’)と同一の座標としてもよいし、1対1の対応を有していれば、異なった座標としてもよい。また、aI(i,j)は、フィルタ前画像の画素値S(x+i,y+j)に乗ぜられるフィルタ係数を表しており、フィルタパラメータFPの輝度フィルタ情報若しくは色差フィルタ情報に含まれるフィルタ係数に対応している。また、oIは、フィルタ係数群Iに含まれるオフセットを表している。また、Rは、フィルタ処理において参照される領域(以下、「フィルタ参照領域R」とも呼称する)を表しており、フィルタ対象画素の位置に応じて設定される。一方で、フィルタ参照範囲(「フィルタ参照範囲RA」とも表記する)は、各フィルタ対象画素についてのフィルタ参照領域Rの和集合として定義される。フィルタ参照範囲RAは、対象単位領域におけるフィルタ後画像の全ての画素値を算出するために必要とされる画素の集合であると表現することもできる。
 対象単位領域URが8×8画素であり、フィルタ参照領域が5×5タップである場合の、フィルタ参照領域R、および、フィルタ参照範囲RAを図10(a)に示す。図10(a)において、斜線が付された画素は、フィルタ対象画素S(x’,y’)を示している。
 また、フィルタ参照領域Rに含まれる各画素へのフィルタ係数の割り付け方の一例を図10(b)に示す。図10(b)においても、斜線が付された画素は、フィルタ対象画素S(x’,y’)を示している。図10(b)に示すように、各フィルタ係数は、180度の回転対称性を有するように、フィルタ参照領域Rに含まれる各画素に対して割り付けられる構成とすることができる。
 ただし、本実施形態はこれに限定されるものではなく、各フィルタ係数の各画素値への割り付けは、回転対称性を有していなくてもよい。また、フィルタ参照領域Rは、画素を単位として、フィルタ対象画素からの市街地距離がNcb以下である画素によって構成されるひし形の領域であってもよいし、その他の形状を有する領域であってもよい。
 フィルタ参照領域Rに含まれる各画素へのフィルタ係数の割り付け方、および、フィルタ参照領域Rの形状については、符号化データ#1を生成する動画像符号化装置の構成に応じて適宜設定すればよい。
 (Crフィルタ処理部322)
 図5に示すCrフィルタ処理部322は、スイッチ部321から供給されたデブロック済復号画像P_DBの色差成分Crに対して、色差適応フィルタ係数導出部311から供給されたフィルタ係数群HCrを用いた適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Crを生成する。
 (Cbフィルタ処理部323)
 図5に示すCbフィルタ処理部323は、スイッチ部321から供給されたデブロック済復号画像P_DBの色差成分Cbに対して、色差適応フィルタ係数導出部311から供給されたフィルタ係数群HCbを用いた適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Cbを生成する。
 (輝度適応フィルタ部33)
 図5に示す輝度適応フィルタ部33は、デブロック済復号画像P_DBの輝度成分Yに対して、フィルタパラメータFPから供給される輝度フィルタ情報を用いて適応的フィルタ処理を行い、フィルタ済復号画像P_FLの輝度成分Yを生成する。
 (動画像符号化装置2)
 本実施形態に係る動画像符号化装置2の構成について図11~図13を参照して説明する。動画像符号化装置2は、その一部に、H.264/MPEG-4.AVC、VCEG(Video Coding Expert Group)および、その後継コーデックとして提案されているHEVC(High Efficiency Video Coding)のテストモデルHMに採用されている技術を含む符号化装置である。
 図11は、動画像符号化装置2の構成を示すブロック図である。図11に示すように、動画像符号化装置2は、変換・量子化部21、可変長符号符号化部22、逆量子化・逆変換部23、バッファメモリ24、イントラ予測画像生成部25、インター予測画像生成部26、動きベクトル検出部27、予測方式制御部28、動きベクトル冗長性削除部29、加算器41、減算器42、デブロッキングフィルタ43、および、適応フィルタ44を備えている。動画像符号化装置2は、動画像#10(符号化対象画像)を符号化することによって、符号化データ#1を生成する装置である。
 (変換・量子化部21)
 変換・量子化部21は、(1)符号化対象画像から予測画像Predを減算した予測残差Dをブロック毎にDCT変換(Discrete Cosine Transform)し、(2)DCT変換により得られたDCT係数を量子化し、(3)量子化により得られた量子化予測残差QDを可変長符号符号化部22および逆量子化・逆変換部23に供給する。なお、変換・量子化部21は、(1)量子化の際に用いる量子化ステップQPをTU毎に選択し、(2)選択した量子化ステップQPの大きさを示す量子化パラメータ差分Δqpを可変長符号符号化部22に供給し、(3)選択した量子化ステップQPを逆量子化・逆変換部23に供給する。ここで、量子化パラメータ差分Δqpとは、DCT変換/量子化するTUに関する量子化パラメータqp(QP=2pq/6)の値から、直前にDCT変換/量子化したTUに関する量子化パラメータqp’の値を減算して得られる差分値のことを指す。
 (可変長符号符号化部22)
 可変長符号符号化部22は、(1)変換・量子化部21から供給された量子化予測残差QD並びにΔqp、(2)後述する予測方式制御部28から供給された量子化パラメータPP、および、(3)後述する適応フィルタ44から供給されたフィルタパラメータFPを可変長符号化することによって、符号化データ#1を生成する。
 (逆量子化・逆変換部23)
 逆量子化・逆変換部23は、(1)量子化予測残差QDを逆量子化し、(2)逆量子化によって得られたDCT係数を逆DCT(Discrete Cosine Transform)変換し、(3)逆DCT変換によって得られた予測残差Dを加算器41に供給する。量子化予測残差QDを逆量子化する際には、変換・量子化部21から供給された量子化ステップQPを利用する。なお、逆量子化・逆変換部23から出力される予測残差Dは、変換・量子化部21に入力される予測残差Dに量子化誤差が加わったものであるが、ここでは簡単のために共通の呼称を用いる。
 (イントラ予測画像生成部25)
 イントラ予測画像生成部25は、各パーティションに関する予測画像Pred_Intraを生成する。具体的には、(1)各パーティションついてイントラ予測に用いる予測モードを選択し、(2)選択した予測モードを用いて、復号画像Pから予測画像Pred_Intraを生成する。イントラ予測画像生成部25は、生成したイントラ予測画像Pred_Intraを、予測方式制御部28に供給する。
 また、イントラ予測画像生成部25は、各パーティションについて選択された予測モードと、各パーティションのサイズとから各パーティションについての予測インデックスPIを特定し、各パーティションについての当該予測インデックスPIを示す予測インデックス指定情報を予測方式制御部28に供給する。
 (動きベクトル検出部27)
 動きベクトル検出部27は、各パーティションに関する動きベクトルmvを検出する。具体的には、(1)参照画像として利用するフィルタ済復号画像P_FL’を選択し、(2)選択したフィルタ済復号画像P_FL’において対象パーティションを最良近似する領域を探索することによって、対象パーティションに関する動きベクトルmvを検出する。ここで、フィルタ済復号画像P_FL’は、既に復号が完了した復号済みの復号画像に対して、デブロッキングフィルタ43によるデブロック処理、および、適応フィルタ44による適応的フィルタ処理を施すことによって得られる画像であり、動きベクトル検出部27は、フィルタ済復号画像P_FL’を構成する各画素の画素値をバッファメモリ24から読み出すことができる。動きベクトル検出部27は、検出した動きベクトルmvを、参照画像として利用したフィルタ済復号画像P_FL’を指定する参照画像インデックスRIと共に、インター予測画像生成部26および動きベクトル冗長性削除部29に供給する。なお、双方向予測(重み付き予測)を行うパーティションについては、動きベクトル検出部27は、参照画像として2枚のフィルタ済復号画像P_FL1’およびP_FL2’を選択する。動きベクトル検出部27は、これらの2枚のフィルタ済復号画像P_FL1’およびP_FL2’の各々に対応する動きベクトルmv1およびmv2、並びに、参照画像インデックスRI1およびRI2をインター予測画像生成部26および動きベクトル冗長性削除部29に供給する。
 (インター予測画像生成部26)
 インター予測画像生成部26は、各インター予測パーティションに関する動き補償画像mcを生成する。具体的には、動きベクトル検出部27から供給された動きベクトルmvを用いて、動きベクトル検出部27から供給された参照画像インデックスRIによって指定されるフィルタ済復号画像P_FL’から動き補償画像mcを生成する。動きベクトル検出部27と同様、インター予測画像生成部26は、フィルタ済復号画像P_FL’を構成する各画素の画素値をバッファメモリ24から読み出すことができる。インター予測画像生成部26は、生成した動き補償画像mc(インター予測画像Pred_Inter)を、動きベクトル検出部27から供給された参照画像インデックスRIと共に、予測方式制御部28に供給する。なお、双方向予測(重み付き予測)をパーティションについては、インター予測画像生成部26は、(1)動きベクトルmv1を用いて、参照画像インデックスRI1によって指定されたフィルタ済復号画像P_FL1’から動き補償画像mc1を生成し、(2)動きベクトルmv2を用いて、参照画像インデックスRI2によって指定されたフィルタ済参照画像P_FL2’から動き補償画像mc2を生成し、(3)動き補償画像mc1と動き補償画像mc2との加重平均にオフセット値を加えることによってインター予測画像Pred_Interを生成する。
 (予測方式制御部28)
 予測方式制御部28は、イントラ予測画像Pred_Intraおよびインター予測画像Pred_Interを符号化対象画像と比較し、イントラ予測を行うかインター予測を行うかを選択する。イントラ予測を選択した場合、予測方式制御部28は、イントラ予測画像Pred_Intraを予測画像Predとして加算器41および減算器42に供給すると共に、イントラ予測画像生成部25から供給された予測インデックスPIを予測パラメータPPとして可変長符号符号化部22に供給する。
 一方、インター予測を選択した場合、予測方式制御部28は、インター予測画像Pred_Interを予測画像Predとして加算器41および減算器42に供給すると共に、インター予測画像生成部26から供給された参照画像インデックスRI、並びに、動きベクトル冗長性削除部29(後述)から供給された推定動きベクトルインデックスPMVIおよび動きベクトル残差MVDを予測パラメータPPとして可変長符号符号化部22に供給する。
 予測方式制御部28にて選択された予測画像Predを、符号化対象画像から減算することによって、減算器42にて予測残差Dが生成される。減算器42にて生成された予測残差Dは、上述したとおり、変換・量子化部21によってDCT変換/量子化される。一方、予測方式制御部28にて選択された予測画像Predを、逆量子化・逆変換部23にて生成された予測残差Dに加算することによって、加算器41にて局所復号画像Pが生成される。加算器41にて生成された局所復号画像Pは、デブロッキングフィルタ43および適応フィルタ44を経由したのち、フィルタ済復号画像P_FLとしてバッファメモリ24に格納される。このフィルタ済復号画像P_FLは、インター予測における参照画像として利用される。
 (動きベクトル冗長性削除部29)
 動きベクトル冗長性削除部29は、動きベクトル検出部27によって検出された動きベクトルmvにおける冗長性を削除する。具体的には、(1)動きベクトルmvの推定に用いる推定方法を選択し、(2)選択した推定方法に従って推定動きベクトルpmvを導出し、(3)動きベクトルmvから推定動きベクトルpmvを減算することにより動きベクトル残差MVDを生成する。動きベクトル冗長性削除部29は、生成した動きベクトル残差MVDを、選択した推定方法を示す推定動きベクトルインデックスPMVIと共に、予測方式制御部28に供給する。
 (デブロッキングフィルタ43)
 デブロッキングフィルタ43は、復号画像Pにおけるブロック境界、またはマクロブロック境界を介して互いに隣接する画素の画素値の差が予め定められた閾値よりも小さい場合に、復号画像Pにおける当該ブロック境界、または当該マクロブロック境界に対してデブロッキング処理を施すことによって、当該ブロック境界、または当該マクロブロック境界付近の画像の平滑化を行う。デブロッキングフィルタ43によりデブロッキング処理が施された画像は、デブロック済復号画像P_DBとして、適応フィルタ44に出力される。
 (適応フィルタ44)
 図12は、適応フィルタ44の構成を示すブロック図である。図12に示すように、適応フィルタ44は、色差適応フィルタ部441と輝度適応フィルタ部444とを備えている。適応フィルタ44は、デブロッキングフィルタ43から供給されるデブロック済復号画像P_DBに対して、適応的なフィルタ処理を施すことによって、フィルタ済復号画像P_FLを生成する。適応フィルタ44によりフィルタ処理が施されたフィルタ済復号画像P_FLは、バッファメモリ24に格納される。適応フィルタ44は、フィルタパラメータFPを生成し、可変長符号符号化部22に供給する。
 (色差適応フィルタ部441)
 図12に示すように、色差適応フィルタ部441は、色差フィルタ情報決定部442および適応フィルタ部443を備えている。色差適応フィルタ部441は、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cb、並びに、動画像#10の色差成分Crおよび色差成分Cbから、色差フィルタ情報、並びに、フィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbを生成する。
 (色差フィルタ情報決定部442)
 図13に示すように、色差フィルタ情報決定部442は、色差フィルタ係数計算部4421および色差フィルタ係数決定部4422を備えている。色差フィルタ情報決定部442は、色差フィルタ情報を決定して、適応フィルタ部443および可変長符号符号化部22に供給する。
 (色差フィルタ係数計算部4421)
 色差フィルタ係数計算部4421は、デブロック済復号画像P_DBの色差成分と、符号化対象画像(動画像#10)の色差成分との2乗誤差が最小となるように、フィルタ係数群を計算する。色差フィルタ係数計算部4421は、図示しない共通フィルタ係数計算部を備えている。共通フィルタ係数計算部は、輝度成分及び色差成分に対して共通して用いられる手段であり、指定された色成分および指定された領域におけるデブロック済復号画像と符号化対象画像との2乗誤差が最小となるように、フィルタ係数群を計算する。
 ここで、「2乗誤差が最小となるように、フィルタ係数群を計算する」とは、「2乗誤差がより小さくなるように、フィルタ係数群を計算する」と表現することもできる(以下同様)。
 フィルタ係数計算部4421は、輝度成分Y、色差成分Cb、色差成分Cr、および、色差成分Cbと色差成分Crの両方を指定することができ、各々の2乗誤差は、以下の(2)、(3)、(4)、及び(5)式で表される。
 なお、S(x,y)、SCb(x,y)、SCr(x,y)は、各々、デブロック済復号画像P_DBに含まれる画素のうち、座標が(x,y)である画素の輝度成分Y、色差成分Cb、色差成分Crの画素値を表し、ST(x,y)、STCb(x,y)、STCr(x,y)は、各々、符号化対象画像に含まれる画素のうち、座標が(x,y)である画素の輝度成分Y、色差成分Cb、色差成分Crの画素値を表す。
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 フィルタ係数計算部4421は、次の3つの計算を行う。
(計算1)(3)式の最小化により得られるフィルタ係数群aI(i,j)およびoIを逆量子化しalf_coeff_Crを求める。
(計算2)(4)式の最小化により得られるフィルタ係数群aI(i,j)およびoIを逆量子化しalf_coeff_Cbを求める。
(計算3)(5)式の最小化により得られるフィルタ係数群aI(i,j)およびoIを逆量子化しalf_coeff_chromaを求める。
ここで、逆量子化処理は、フィルタ係数の量子化ビット深度filter_bitdepthに応じて行われる。ここでは量子化ビット深度から定まる量子化ステップの逆数1<filter_bitdepthをかけることにより、以下の(6)式に従って行われる。
Figure JPOXMLDOC01-appb-M000006
 ここで、coeffはalf_coeff_Cr、alf_coeff_Cb、alf_coeff_chromaの何れかを表し、iは図10(b)に示すフィルタ係数aの添え字を示す。k1およびk2はiとの位置関係が対応するように定められる。
 (色差フィルタ係数決定部4422)
 色差フィルタ係数決定部4422は、色差フィルタ係数計算部4421からフィルタ係数群alf_coeff_Crおよびフィルタ係数群alf_coeff_Cb、並びに、フィルタ係数群alf_coeff_chromaが供給される。色差フィルタ係数決定部4422は、以下の処理1から処理5により、alf_chroma_idcの各モードにおける各符号化コストを求め、処理6により、最適なalf_chroma_idcを求める。
 色差フィルタ係数決定部4422は、各符号化コストを、各モードの適応的フィルタ処理で求められる画像と符号化対象画像とを比較することによって得られる2乗誤差と、各モードで用いられるフィルタ係数群の符号量から算出されるレート歪みコストとを用いることによって以下のように導出する。
 <第1色差成分C1が予め定まっている構成の場合>
 (処理1)色差成分Crおよび色差成分Cbに適応的フィルタ処理を行わない場合の2乗誤差と、フィルタ係数群を符号化しない場合の符号量とから、モード0の符号化コスト0を求める。
 (処理2)色差成分Crのみにフィルタ係数群alf_coeff_Crを用いて適応的フィルタ処理を施す場合の2乗誤差と、色差成分Crのフィルタ係数群の符号量とから、モード1の符号化コスト1を求める。
 (処理3)色差成分Cbのみにフィルタ係数群alf_coeff_Cbを用いて適応的フィルタ処理を施す場合の2乗誤差と、色差成分Cbのフィルタ係数群の符号量とから、モード2の符号化コスト2を求める。
 (処理4)色差成分Crおよび色差成分Cbにフィルタ係数群alf_coeff_chromaを用いて適応的フィルタ処理を施す場合の2乗誤差と、フィルタ係数群alf_coeff_chromaの符号量とから、モード3の符号化コスト3を求める。
 (処理5)色差成分Crおよび色差成分Cbにフィルタ係数群alf_coeff_Crおよびフィルタ係数群alf_coeff_Cbを用いて適応的フィルタ処理を施す場合の2乗誤差と、第1色差成分C1の独立フィルタ係数群alf_coeff_C1と第2色差成分C2を導出するための従属フィルタ係数群alf_coeff_C2の符号量より、モード4の符号化コスト4を求める。
 (処理6)5つのモードの符号化コスト(符号化コスト1~符号化コスト4)が最小であるモードをalf_chroma_idcとする。すなわち、モードKの符号化コストが最小であれば、alf_chroma_idc=Kとなる。
 <第1色差成分C1がsw_flagにより定まる構成の場合>
 また、フラグsw_flagを用いる構成の場合は、色差フィルタ係数決定部4422は、処理5および処理6に替え、以下の処理7、処理8、処理9を行い、最適なalf_chroma_idcとsw_flagとを求める。
 (処理7)色差成分Crおよび色差成分Cbにフィルタ係数群alf_coeff_Crおよびフィルタ係数群alf_coeff_Cbを用いて適応的フィルタ処理を施す場合の2乗誤差、並びに、sw_flag=0の場合、すなわち第1色差成分C1が色差成分Crであり第2色差成分C2が色差成分Cbである場合における、フィルタ係数群alf_coeff_C1と第2色差成分C2を導出するための従属フィルタ係数群alf_coeff_C2との符号量より、モード4かつsw_flag=0の符号化コスト40を求める。
 (処理8)色差成分Crおよび色差成分Cbにフィルタ係数群alf_coeff_Crおよびフィルタ係数群alf_coeff_Cbを用いて適応的フィルタ処理を施す場合の2乗誤差、並びに、sw_flag=1の場合、すなわち第1色差成分C1が色差成分Cbであり第2色差成分C2が色差成分Crである場合における、フィルタ係数群alf_coeff_C1と第2色差成分C2を導出するための従属フィルタ係数群alf_coeff_C2との符号量より、モード4かつsw_flag=1の符号化コスト41を求める。
 (処理9)6つのモードの符号化コスト(符号化コスト0~符号化コスト3、符号化コスト40、符号化コスト41)のうち、符号化コストが最小であるモードをalf_chroma_idcとする。さらにモード4が最小である場合、符号化コスト40と符号化コスト41とから小さい方を選択し、sw_flagを定める。すなわち、符号化コスト40が小さいときはsw_flag=0とし、符号化コスト41が小さいときはsw_flag=1とする。
 (適応フィルタ部443)
 図12に示す適応フィルタ部443は、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cbに対して、色差フィルタ情報決定部442から供給された色差フィルタ情報を用いて適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbを生成する。適応フィルタ部443の処理は、上述した色差適応フィルタ部32の処理と同一であるため、ここでは説明を省略する。
 (輝度適応フィルタ部444)
 図12に示す輝度適応フィルタ部444は、動画像#10およびデブロック済復号画像P_DBの輝度成分Yから算出される輝度フィルタ情報を用いて、デブロック済復号画像P_DBの輝度成分Yに対して適応的フィルタ処理を施す。輝度適応フィルタ部444は、フィルタ済復号画像P_FLの輝度成分Y、フィルタオンオフ情報、および、輝度フィルタ情報を生成する。なお、輝度適応フィルタ部444の処理は、上述した輝度適応フィルタ部33の処理と同一であるため、ここでは説明を省略する。
 以上の実施形態1の構成においては、色差成分Crのフィルタ係数群および色差成分Cbのフィルタ係数群に異なるフィルタ係数群を用いることができるため、色差成分間で共通のフィルタ係数群を用いる場合に比べ、色差成分の画質を向上させることができる。
 さらに、複数の色差成分のフィルタ係数の値は互いに近いことが多いという性質を利用して、複数の色差成分のフィルタ係数を符号化する場合に、一方のフィルタ係数をもう一方のフィルタ係数との差分値を用いて、従属フィルタ係数群として符号化することにより、フィルタ係数の符号量を低減することができる。
 また、差分値として符号化しない方の色差成分である独立フィルタ係数群を適切に選択することにより、フィルタ係数の符号量をさらに低減させることができる。色差成分Cbのフィルタ係数群HCbと色差成分Crのフィルタ係数群HCrとの差分値は、どちらのフィルタ係数群を差分値でない成分として符号化しても符号量は変化しない。すなわち、HCb[i]-HCr[i]により差分値を算出しても、HCr[i]-HCb[i]により差分値を算出しても、符号が逆転するのみで絶対値は等しい。このため、差分値を符号化した場合に、両者の符号量は等しい。一方、色差成分Crのフィルタ係数群HCrと色差成分Cbのフィルタ係数群HCbとは、一般的に値は異なるため、両者のどちらを独立フィルタ係数群として符号化するかによって、差分フィルタ係数群と独立フィルタ係数群とからなる全体の符号量は異なる。したがって、符号量の小さい色差成分のフィルタ係数群を第1色差成分C1のフィルタ係数群に格納し、もう一方の色差成分を第2色差成分C2とする構成とし、色差成分間の差分値から、それらを復号することによって符号量を低減することができる。実際、発明者が実験で得た知見では、フィルタ係数群HCrとフィルタ係数群HCbの符号量は2倍異なることがあるため、sw_flagを用いて差分値でない成分を指定することによって符号量の低減が可能である。
 また、実施形態1の構成において、alf_chroma_idcが4のときの従属フィルタ係数群alf_coeff_C2からフィルタ係数群HC2を導出する方法は、以上の説明に限定されるものではない。以上の説明では、フィルタ係数群HC2の全てのフィルタ係数をalf_coeff_C2とalf_coeff_C1との差から導出しているが、一部のフィルタ係数をalf_coeff_C2とalf_coeff_C1との差から導出し、他のフィルタ係数をalf_coeff_C2から導出する構成でも構わない。すなわち、フィルタ係数群HC2の一部のフィルタ係数を差分値として符号化し、他のフィルタ係数は差分値でない値(非差分値)で符号化する構成としてもよい。
 例えば、オフセット以外のフィルタ係数を差分値として符号化し、オフセットは非差分値で符号化することが好適である。具体的には、AlfNumCoeffChroma-1番目がオフセットである場合には、フィルタ係数群HC2の算出方法は以下の(7)式によって表される。
Figure JPOXMLDOC01-appb-M000007
 ここで、iは0からAlfNumCoeffChroma-1の整数である。
 また、オフセット成分を差分値として符号化するか、または、非差分値として符号化するかを示す差分符号化フラグを符号化データ#1に含めておき、動画像復号装置では、復号したそのフラグの値に応じて、フィルタ係数の復号方法を変更しても構わない。これは、一般的に、異なる色差成分のオフセット間には相関がないことが多いという発明者の知見によるものである。相関がない場合には、オフセット間の差分値をとることによって、差分値の絶対値が増加してしまう可能性がある。一般的に、オフセットを含むフィルタ係数群のフィルタ係数は、0に集中することを利用して、0に近い値を短い符号長で表すような符号化がなされる。このような符号化方法では、絶対値が大きくなるような差分値は符号量の増加に繋がる。そのため、オフセットには差分値を用いないことが適当である。
 また、差分符号化フラグを用いる方法では、異なるフィルタ係数群のオフセットが近似してない場合だけでなく、近似している場合においても、符号量を減らすことができる。そのため、オフセットの差分値をとるか否かを示す差分符号化フラグを用いる方法は、色差成分間のフィルタ係数の符号化に用いるだけではなく、一般的に、あるフィルタ係数を既に復号された他のフィルタ係数との差分値を用いて復号する場合に用いることが可能である。例えば、既に復号された前のスライス、現スライスの復号済のフィルタ係数などから、復号対象のフィルタ係数を復号する場合に用いることが可能である。
 なお、実施形態1で扱われる色空間はYUV空間に限られず、他の色空間、例えば、RGB、CMYK、および、XYZにも拡張可能である。その場合も、色空間に含まれる、少なくとも2つの色成分においてどの成分のフィルタ処理を行うか否かを示すフラグ(alf_chroma_idcに相当するフラグであり、より一般的に、フィルタモードとも呼称する)を復号する。これは、YUV空間においてUV間のフィルタ処理に限ることなく、YU間およびYV間、YUV間のフィルタ処理に拡張することができることも意味している。さらに、複数の成分にフィルタ処理が行われる場合には、ある特定の色成分を独立フィルタ係数群として符号化する成分とし、他の色成分のフィルタ係数を、従属フィルタ係数群として符号化することで、フィルタ係数の符号量を低減することができる。さらに、どの色成分を独立フィルタ係数群として符号化するかを示すフラグ(sw_flagに相当)を符号化することにより、さらにフィルタ係数の符号量を低減することができる。
 また、実施形態1で説明した色差フィルタモードalf_chroma_idcのフィルタモードに代えて、同種の機能を有する別のフィルタモードを用いることも可能である。色差フィルタモードalf_chroma_idcは次の2つの情報を示す機能を有するが、以下の機能1、機能2の役割を果たす2つの情報として符号化することが可能である。
 (機能1)適応フィルタ30によりフィルタ処理がなされる少なくとも2つの色成分において、各色成分に対してフィルタ処理を行うか否かを示す機能。
 (機能2)適応フィルタ30によりフィルタ処理がなされる色成分が2つある場合において、各色成分に対して共通のフィルタ係数群を用いるか、個々に導出されたフィルタ係数群を用いるかを示す機能。
 図29は、色差フィルタモードalf_chroma_idcに代えて、第1フィルタモードalf_chroma_idc1および第2フィルタモードalf_chroma_idc2を用いた場合のフィルタパラメータのシンタックスを示す。第1フィルタモードalf_chroma_idc1は0~3のいずれかの値をとり、第2フィルタモードalf_chroma_idc2は0または1の値をとる。第1フィルタモードalf_chroma_idc1は、色差成分Cr、色差成分Cbの各色成分に対してフィルタ処理を行うか否かを示し、前述の機能1の役割を果たす。第2フィルタモードalf_chroma_idc2は、2つの色差成分間で共有のフィルタ係数群を用いるか、個々に導出されたフィルタ係数群を用いるかを示し、前述の機能2の役割を果たす。
 色差適応フィルタ係数導出部311では、第1フィルタモードalf_chroma_idc1が0のとき、フィルタ係数群は復号されない。第1フィルタモードalf_chroma_idc1が1のとき、alf_coeff_Crからフィルタ係数群HCrが復号される。第1フィルタモードalf_chroma_idc1が2のとき、alf_coeff_Cbからフィルタ係数群HCbが復号される。第1フィルタモードalf_chroma_idc1が3のときには、さらに第2フィルタモードalf_chroma_idc2が復号される。第2フィルタモードalf_chroma_idc2が0の場合には、alf_coeff_chromaからフィルタ係数群HCrおよびフィルタ係数群HCbが復号される。第2フィルタモードalf_chroma_idc2が1の場合には、独立フィルタ係数群alf_coeff_C1および従属フィルタ係数群alf_coeff_C2から、フィルタ係数群HCrおよびフィルタ係数群HCbが復号される。
 また、図30(a)は、第1フィルタモードalf_chroma_idc1と、色差成分Crの値および色差成分Cbのフィルタ処理の有無との関係を示す。図30(b)は、第2フィルタモードalf_chroma_idc2と、符号化データ#1に含まれるフィルタ係数群との関係を示す。第2フィルタモードalf_chroma_idc2が0のとき、1つの共通のフィルタ係数群_alf_coeff_chromaが符号化データ#1に含まれ、対応するフィルタ係数群が色差成分Crおよび色差成分Cbのフィルタ処理に用いられる。第2フィルタモードalf_chroma_idc2が1のとき、2つのフィルタ係数群alf_coeff_Crおよびフィルタ係数群alf_coeff_Cbが符号化データ#1に含まれ、対応するフィルタ係数群が、各色差成分のフィルタ処理に用いられる。
 [実施形態2]
 以下では、本発明の第2の実施形態について図14~図24、図26、図27を参照して説明する。本実施形態に係る適応フィルタは、所定の分割深度までの符号化単位の各々について、フィルタ処理のオンオフを指定するオンオフフラグを符号化する。本実施形態では、複数の色成分間で共通のオンオフフラグを用いることにより、オンオフフラグの符号量を低減することが特徴である。具体的には、以下に示す4つの制御パターンのうちの制御パターン2~制御パターン4の何れかを構成として用いる。
 (制御パターン1)1組のオンオフフラグを用いて、輝度成分Yに対する領域単位のオンオフ制御を行う。この場合、色差成分は領域単位のオンオフ制御を行わない。
 (制御パターン2)輝度成分Yおよび色差成分Cb、色差成分Crで共通の1組のオンオフフラグを用いて、各色成分のオンオフ制御を行う。
 (制御パターン3)2組のオンオフフラグを用いて、1組のオンオフフラグで輝度成分Yのオンオフ制御を行い、もう1組のオンオフフラグを用いて色差成分Crおよび色差成分Cbで共通のオンオフ制御を行う。
 (制御パターン4)3組のオンオフフラグを用いて、輝度成分Y、色差成分Cb、色差成分Crで各々独立のオンオフ制御を行う。
 ただし、本発明の第2の実施形態は、適用範囲はこれに限定されるものではない。すなわち、以下の説明からも明らかなように、本発明の特徴は複数のフレームを前提としなくとも成立するものである。すなわち、動画像を対象とするか静止画像を対象とするかを問わず、復号装置一般および符号化装置一般に適用できるものである。
 (符号化データ#3の構成)
 本実施形態に係る動画像符号化装置4および動画像復号装置3の詳細な説明に先立って、動画像符号化装置4によって生成され、動画像復号装置3によって復号される符号化データ#3のデータ構造について説明を行う。符号化データ#3のデータ構造は、実施形態1に係る符号化データ#1のデータ構造と略同じであるが、フィルタパラメータFPの構成が異なる。図14は、符号化データ#3のフィルタパラメータFPに含まれるフィルタオンオフ情報のデータ構造を示す図であり、図15~図18は、符号化データ#3のフィルタパラメータFP(alf_paramと表記)に含まれる各シンタックスを示す図である。図15~図18は、それぞれ制御パターン1~制御パターン4におけるフィルタパラメータFPに含まれるシンタックスを示す図である。
 符号化データ#3のフィルタパラメータFPには、図15~図18に示すように、(1)対象スライスについて適応的フィルタ処理を施すか否かを指定するシンタックスadaptive_loop_filter_flag、(2)適応的フィルタ処理のオンオフを符号化単位毎に制御するか否かを指定するシンタックスalf_cu_control_flag、(3)オンオフ制御の対象となる符号化単位についての、最大符号化単位からの最大分割深度を指定するシンタックス(階層指定情報)alf_cu_control_max_depth、(4)オンオフ制御の対象となる符号化単位の数を指定するシンタックスalf_length_cu_control_infoが全ての制御パターンに共通して含まれる。最大分割深度alf_cu_control_max_depthが0の場合には、オンオフ制御の対象となる符号化単位は、LCU(LCUをルートとして0回分割したCU)となり、最大分割深度alf_cu_control_max_depthが0より大きい場合には、オンオフ制御の対象となる符号化単位は、最大分割深度まで分割されたCU(符号化ツリー)となる。
 制御パターン1の場合、図15に示すように、オンオフ制御の対象となる符号化単位の各々について、オンオフフラグalf_cu_flagがフィルタパラメータFPに含まれる。
 制御パターン2の場合、図16に示すように、適応的フィルタ処理のオンオフフラグalf_cu_flag、および、オンオフフラグalf_cu_flagを色差適応フィルタに適応するか否かを指定するフラグalf_cu_control_flag_chromaがフィルタパラメータFPに含まれる。
 制御パターン3の場合、図17に示すように、輝度成分Yの適応フィルタに関するオンオフフラグalf_cu_flag_luma、並びに、色差成分Crおよび色差成分Cbの適応フィルタに関するオンオフフラグalf_cu_flag_chromaがフィルタパラメータFPに含まれる。
 制御パターン4の場合、図18に示すように、輝度成分Y、色差成分Cr、および色差成分Cbの適応フィルタに関するオンオフフラグ、それぞれalf_cu_flag_luma、alf_cu_flag_cr、およびalf_cu_flag_cbがフィルタパラメータFPに含まれる。
 なお、図15~図18におけるiは適応的フィルタ処理の制御に用いるオンオフフラグのインデックスであり、0からNumAlfCuFlag-1の整数である。NumAlfCuFlagは適応的フィルタ処理を行うオンオフフラグの総数であり、階層指定情報alf_cu_control_max_depthとCU構造とにより定まる。なお、NumAlfCuFlagを階層指定情報alf_cu_control_max_depthとCU構造とから定めるのではなく、NumAlfCuFlagを符号化データ中に明示的に符号化することも可能である。
 (動画像復号装置3)
 以下では、本実施形態に係る動画像復号装置3について図19~図21を参照して説明する。なお、以下では、実施形態1において既に説明した部分と同じ部分には同じ符号を付し、その説明を省略する。
 図19は、動画像復号装置3の構成を示すブロック図である。図19に示すように、動画像復号装置3は、動画像復号装置1の備える適応フィルタ30に代えて、適応フィルタ50を備えている。適応フィルタ50には、符号化データ#3に含まれるフィルタパラメータFPが供給される。なお、動画像復号装置3のその他の構成は、動画像復号装置1と同じであるため、説明を省略する。
 (適応フィルタ50)
 適応フィルタ50は、デブロック済復号画像P_DBに対して適応的フィルタ処理を行い、フィルタ済復号画像P_FLを生成する。図20は、適応フィルタ50の構成を示すブロック図である。図20に示すように、適応フィルタ50は、適応フィルタ情報復元部51、色差適応フィルタ部52、および輝度適応フィルタ部53を備えている。
 (適応フィルタ情報復元部51)
 適応フィルタ情報復元部51は、フィルタパラメータFPを復号する。図20に示すように、適応フィルタ情報復元部51は、オンオフ情報復元部511およびフィルタ情報復元部512を備えている。
 (オンオフ情報復元部511)
 オンオフ情報復元部511は、フィルタパラメータFPに含まれるフィルタオンオフ情報から、輝度成分Y、色差成分Cr、および色差成分CbのオンオフフラグAlfFilterFlagY、AlfFilterFlagCb、およびAlfFilterFlagCrを復号する。
 図26(a)は、alf_cu_control_max_depthの値が2である場合の、最大符号化単位LCUにおいて輝度成分Yに対する符号化単位の分割例を、階層構造を表す分岐図と共に示している。適応フィルタ50は、ラスタスキャン順に割り付けられたインデックスによって全ての符号化単位を識別することが可能である。図26(b)は、図26(a)に示す分割領域に対するフィルタ処理の制御とオンオフフラグAlfFilterFlagY[i]との対応関係を示している。対象単位領域を含む符号化単位についてのオンオフフラグAlfFilterFlagY[i]が0であるときは、当該符号化単位に対して適応的フィルタ処理を行わないことを指定している。一方で、対象単位領域を含む符号化単位についてのオンオフフラグAlfFilterFlagY[i]が1であるときは、当該符号化単位に対して適応的フィルタ処理を行うことを指定している。AlfFilterFlagCrおよびAlfFilterFlagCbも同様に、色差成分Crおよび色差成分Cbに対して、符号化単位についての適応的フィルタ処理を行うか否かを指定する。
 制御パターン1~制御パターン4の場合に関する、各々の符号化データ#3中のオンオフフラグと、制御に用いるオンオフフラグとの対応関係を図21のテーブルに示す。以下では、制御パターン1~制御パターン4においての、制御に用いるオンオフフラグAlfFilterFlagY、AlfFilterFlagCr、AlfFilterFlagCbと符号化データ#3中のオンオフフラグalf_cu_flag、alf_cu_flag_luma、alf_cu_flag_chroma、alf_cu_flag_cr、alf_cu_flag_cbとの対応関係について説明する。
 なお、上記の説明のように、AlfFilterFlagY、AlfFilterFlagCr、AlfFilterFlagCbは、輝度成分Y、色差成分Cr、色差成分Cbに対する適応フィルタの制御に用いるオンオフフラグを意味し、alf_cu_flag、alf_cu_flag_luma、alf_cu_flag_chroma、alf_cu_flag_cr、およびalf_cu_flag_cbは、符号化データ#3中のオンオフフラグを意味する。
 制御パターン1の場合、オンオフ制御の対象となる符号化単位の各々について、オンオフフラグalf_cu_flagが復号される。このとき、図21に示すように、AlfFilterFlagYにalf_cu_flagを格納して、AlfFilterFlagCbおよびAlfFilterFlagCrに1の値を格納する。
 制御パターン2の場合、適応的フィルタ処理のオンオフを指定するフラグalf_cu_flag、および、オンオフフラグalf_cu_flagを色差適応フィルタに適応するか否かを指定するフラグalf_cu_control_flag_chromaが復号される。すなわち、alf_cu_control_flag_chromaは、復号されたオンオフフラグalf_cu_flagを、輝度成分Yのオンオフフラグとして用いるのか、輝度成分Y、色差成分Cr、および色差成分Cbに共通のオンオフフラグとして用いるのかを選択するフラグである。このとき、図21に示すように、alf_cu_control_flag_chromaが真の場合、alf_cu_flagの復号を行い、AlfFilterFlagY、AlfFilterFlagCb、およびAlfFilterFlagCrに格納する。alf_cu_control_flag_chromaが偽の場合、alf_cu_flagの復号を行い、AlfFilterFlagYに格納する。AlfFilterFlagCb、AlfFilterFlagCrには常に1を格納する。
 制御パターン3の場合、オンオフフラグalf_cu_flag_lumaおよびオンオフフラグalf_cu_flag_chromaが復号される。このとき、図21に示すように、AlfFilterFlagYにalf_cu_flag_lumaを格納して、AlfFilterFlagCbおよびAlfFilterFlagCrにalf_cu_flag_chromaを格納する。
 制御パターン4の場合、オンオフフラグalf_cu_flag_lumaおよびalf_cu_flag_cb、alf_cu_flag_crが復号される。このとき、図21に示すように、AlfFilterFlagY、AlfFilterFlagCb、およびAlfFilterFlagCrにそれぞれalf_cu_flag_luma、alf_cu_flag_cb、およびalf_cu_flag_crを格納する。
 (フィルタ情報復元部512)
 フィルタ情報復元部512は、フィルタパラメータFPに含まれる輝度フィルタ情報および色差フィルタ情報から、輝度成分Yの適応フィルタ係数群HY、色差成分Crの適応フィルタ係数群HCr、および色差成分Cbの適応フィルタ係数群HCbを復号する。フィルタ係数群HYは、輝度適応フィルタ部53に供給され、フィルタ係数群HCrおよびフィルタ係数群HCbは、色差適応フィルタ部52に供給される。
 (色差適応フィルタ部52)
 色差適応フィルタ部52は、オンオフフラグAlfFilterFlagCrおよびオンオフフラグAlfFilterFlagCbを参照して、デブロック済復号画像P_DBの色差成分Crおよび色差成分Cbに対して、適応的フィルタ処理を行い、フィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbを生成する。また、生成されたフィルタ済復号画像P_FLの色差成分Crおよび色差成分Cbは、バッファメモリ15に格納される。
 図20に示すように、色差適応フィルタ部52はスイッチ部521a、スイッチ部521b、Crフィルタ処理部522、および、Cbフィルタ処理部523を備えている。
 (スイッチ部521a)
 スイッチ部521aは、オンオフフラグAlfFilterFlagCrがオンのときに、デブロック済復号画像P_DBの色差成分CrをCrフィルタ処理部522に供給する。オフのときは、デブロック済復号画像P_DBの色差成分Crを、フィルタ済復号画像P_FLの色差成分Crとして出力する。
 (スイッチ部521b)
 スイッチ部521bは、オンオフフラグAlfFilterFlagCbがオンのときに、デブロック済復号画像P_DBの色差成分CbをCbフィルタ処理部523に供給する。オフのときは、デブロック済復号画像P_DBの色差成分Cbを、フィルタ済復号画像P_FLの色差成分Cbとして出力する。
 (Crフィルタ処理部522)
 Crフィルタ処理部522は、スイッチ部521aから供給されたデブロック済復号画像P_DBの色差成分Crに対して、フィルタ情報復元部512から供給されたフィルタ係数群HCrを用いた適応的フィルタ処理を施して、フィルタ済復号画像P_FLの色差成分Crを生成する。
 (Cbフィルタ処理部523)
 Cbフィルタ処理部523は、スイッチ部521bから供給されたデブロック済復号画像P_DBの色差成分Cbに対して、フィルタ情報復元部512から供給されたフィルタ係数群HCbを用いた適応的フィルタ処理を施して、フィルタ済復号画像P_FLの色差成分Cbを生成する。
 (輝度適応フィルタ部53)
 輝度適応フィルタ部53は、オンオフフラグAlfFilterFlagYを参照して、デブロック済復号画像P_DBの輝度成分Yに対して、適応的フィルタ処理を行い、フィルタ済復号画像P_FLの輝度成分Yを生成する。また、生成されたフィルタ済復号画像P_FLの輝度成分Yは、バッファメモリ15に格納される。
 図20に示すように、輝度適応フィルタ部53はスイッチ部531およびYフィルタ処理部532を備えている。
 (スイッチ部531)
 スイッチ部531は、オンオフフラグAlfFilterFlagYがオンのときに、デブロック済復号画像P_DBの輝度成分YをYフィルタ処理部532に供給する。オフのときは、デブロック済復号画像P_DBの輝度成分Yを、フィルタ済復号画像P_FLの輝度成分Yとして出力する。
 (Yフィルタ処理部532)
 Yフィルタ処理部532は、スイッチ部531から供給されたデブロック済復号画像P_DBの輝度成分Yに対して、フィルタ情報復元部512から供給されたフィルタ係数群HYを用いた適応的フィルタ処理を施して、フィルタ済復号画像P_FLの輝度成分Yを生成する。
 (制御パターンを選択可能とする構成)
 なお、動画像復号装置3は、複数の制御パターンの何れかを選択することが可能な構成としてもよい。この場合、制御パターンを選択するフラグalf_cu_control_modeをフィルタパラメータに含め、動画像復号装置では復号したalf_cu_control_modeに応じた制御モードを用いる。alf_cu_control_modeが1~4の値をとり、それぞれの値に対して制御パターン1~4が選択される。このときのフィルタパラメータのシンタックスを図27に示す。なお、この例のように制御パターン1と制御パターン2とが選択できる場合には、色差成分の適応的フィルタ処理に適用するか否かを指定するフラグalf_cu_control_flag_chromaの復号は不要である。alf_cu_control_flag_chromaでは、輝度成分にオンオフフラグを用いる構成と、輝度成分と色差成分で共通のオンオフフラグを用いる構成とを切り替えているが、制御パターン1と制御パターン2とが選択できる構成では、前者を制御パターン1、後者を制御パターン2で扱うことにより同様の切り替えが可能である。
 ここで、制御パターンを選択する構成として、本実施形態は以上の説明に限られることはなく、より簡易な構成を用いることもできる。例として、制御パターンを選択するフラグalf_cu_control_modeを用いて、制御パターン1か制御パターン3かを選択可能とする。すなわち、輝度成分Yのみにオンオフフラグを用いるか、または輝度成分Yと2つの色差成分で独立のオンオフフラグを用いるかを選択することができる。alf_cu_control_modeが1のときは制御パターン1が選択され、alf_cu_control_modeが3のときは制御パターン3が選択される。このときのフィルタパラメータのシンタックスを図28に示す。
 (動画像符号化装置4)
 本実施形態に係る動画像符号化装置4について、図22~図24を参照して説明する。なお、以下では、実施形態1において既に説明した部分と同じ部分には同じ符号を付し、その説明を省略する。
 図22は、本実施形態に係る動画像符号化装置4の構成を示すブロック図である。図22に示すように、動画像符号化装置4は、実施形態1に係る動画像符号化装置2の備える適応フィルタ44に代えて、適応フィルタ60を備えている。動画像符号化装置4のその他の構成は、実施形態1に係る動画像符号化装置2の構成と同様であるため、説明を省略する。
 (適応フィルタ60)
 適応フィルタ60は、デブロック済復号画像P_DBに対して、適応的フィルタ処理を施すことによって、フィルタ済復号画像P_FLを生成する。生成されたフィルタ済復号画像P_FLは、バッファメモリ24に格納される。また、適応フィルタ60は、フィルタ処理に用いた各種の適応フィルタ情報をフィルタパラメータFPとして可変長符号符号化部22に供給する。可変長符号符号化部22は、フィルタパラメータFPを符号化データ#3の一部として符号化する。
 図23は、適応フィルタ60の構成を示すブロック図である。図23に示すように、適応フィルタ60は、フィルタパラメータ決定部61および適応フィルタ部62を備えている。
 (フィルタパラメータ決定部61)
 フィルタパラメータ決定部61は、輝度フィルタ情報および色差フィルタ情報、フィルタオンオフ情報を決定して、適応フィルタ部62および可変長符号符号化部22に供給する。図24に示すように、フィルタパラメータ決定部61は、オンオフ情報決定部611およびフィルタ情報決定部612を備えている。
 (フィルタ情報決定部612)
 フィルタ情報決定部612は、デブロック済復号画像P_DB、動画像#10から輝度フィルタ情報および色差フィルタ情報を決定する。デブロック済復号画像P_DBと符号化対象画像(動画像#10)との2乗誤差が最小となるように、フィルタ係数群を計算する。適応的フィルタ処理を施した画像と符号化対象画像との比較で算出できる符号化コストによって、輝度フィルタ情報および色差フィルタ情報を決定する。
 (オンオフ情報決定部611)
 オンオフ情報決定部611は、フィルタ情報決定部612で定められたフィルタ係数群を用いてオンオフフラグを決定する。制御パターン1のとき、オンオフ情報決定部611は、輝度成分Yの適応的フィルタ処理に適用されるオンオフフラグalf_cu_flagを決定する。制御パターン2のとき、オンオフ情報決定部611は、適応的フィルタ処理のオンオフフラグalf_cu_flag、および、オンオフフラグalf_cu_flagを色差適応フィルタに適用するか否かを指定するフラグalf_cu_control_flag_chromaを決定する。制御パターン3のとき、オンオフ情報決定部611は、輝度成分Yのオンオフフラグalf_cu_flag_luma、並びに、色差成分Crおよび色差成分Cbのオンオフフラグalf_cu_flag_chromaを決定する。制御パターン4のとき、オンオフ情報決定部611は、輝度成分Y、色差成分Cr、および色差成分Cbの各々の適応的フィルタ処理に適用されるオンオフフラグalf_cu_flag_luma、alf_cu_flag_cr、およびalf_cu_flag_cbを決定する。
 なお、オンオフフラグは、フィルタ情報決定部612で定められたフィルタ係数群を用いてフィルタ処理した場合とフィルタ処理しない場合とを比較して、対象単位領域において、フィルタ処理を行った場合の方が符号化対象画像との2乗誤差が小さくなる場合にオン、それ以外の場合にオフとなるように決定する。特に、制御パターン2の場合には、輝度成分Yにおいてオンオフフラグを決定した後、そのオンオフフラグを用いて色差成分のオンオフを制御した場合に、2乗誤差が小さくなる場合にalf_cu_flag_chromaを1、それ以外の場合に0となるように決定する。制御パターン3の場合は、対象単位領域において、色差成分Cbにおける符号化対象画像とフィルタ済復号画像との2乗誤差と、色差成分Crにおける符号化対象画像とフィルタ済復号画像との2乗誤差との和が、フィルタ前における符号化対象画像と復号画像との2乗誤差の和よりも小さくなる場合にオン、それ以外にオフとなるように決定する。なお、制御パターン2においても、複数の成分を同時に扱うことにより最適なオンオフフラグを定めても良い。具体的には、対象単位領域において、輝度成分Yにおける符号化対象画像とフィルタ済復号画像との2乗誤差と、色差成分Cb、色差成分Crにおける符号化対象画像とフィルタ済復号画像との2乗誤差との和が、フィルタ前における符号化対象画像と復号画像の2乗誤差の和よりも小さくなる場合にオン、それ以外にオフとなるように決定する。
(色差成分の制御単位)
 本実施形態では、共通のオンオフフラグalf_cu_flagおよび輝度成分Yのalf_cu_flag_lumaによる制御は、符号化単位のCU単位で行われるが、色差成分のオンオフフラグalf_cu_flag_chroma、alf_cu_flag_cr、およびalf_cu_flag_cbによる制御は、最大符号化単位のLCU単位で行われる。オンオフフラグの符号化単位を小さくすると、フィルタ処理後の画質を向上させることができるが、オンオフフラグの符号量は大きくなる。オンオフフラグの符号化単位は適当に定める必要がある。色差のサンプリングが4:2:0などの場合には、色差成分の解像度は輝度成分の解像度よりも小さくなるため、適応フィルタを用いて得られる画質向上の効果も小さくなる。輝度と同じ単位を用いて、色差のオンオフフラグを符号化すると、オンオフフラグが相対的に大きくなり符号化効率的に適当ではない。そのため色差の制御では、輝度の制御よりも大きな単位で制御することが適当である。また、復号処理においてはLCU単位で処理できることが好ましいことから、LCU単位以下の単位でオンオフフラグを符号化することが適当である。そのため、本実施形態では色差のオンオフフラグの単位としてLCU単位を用いることにより、オンオフフラグの個数を低減し全体として符号化効率を向上させている。
 (適応フィルタ部62)
 適応フィルタ部62は、デブロック済復号画像P_DBに対して、フィルタパラメータ決定部61からフィルタパラメータFPを用いた適応的フィルタ処理を施して、フィルタ済復号画像P_FLを生成する。適応フィルタ部62の処理において、輝度成分Yの適応的フィルタ処理は輝度適応フィルタ部33と同一であり、色差成分Crおよび色差成分Cbの適応的フィルタ処理は色差適応フィルタ部32と同一であるため、ここでは説明を省略する。
 以上の実施形態2の構成では、輝度成分Yおよび色差成分Cr、色差成分Cbの2つ以上の成分において符号化単位の適応的フィルタ処理のオンオフ制御を共通に行うことが可能である。具体的には、輝度成分Yの適応的フィルタ処理と色差成分の適応的フィルタ処理で共通のオンオフフラグを用いることにより、オンオフフラグの符号量を低減することができる。また、複数の色差成分の適応フィルタにおいて、共通のオンオフフラグを用いることによりオンオフフラグの符号量を低減することができる。一般的に、色差成分Crおよび色差成分Cbは輝度成分Yに比べて解像度が低いため、CU単位より広い範囲のLCU単位で色差成分のオンオフの制御を行っても、画質低下への影響は小さい。また、色差成分Crおよび色差成分Cbのオンオフ制御をLCU単位で行うと、色差成分Crおよび色差成分Cbに用いるオンオフフラグの総数を減らすことができるため、符号量の低減が可能である。
 (付記事項1)
 上述した動画像符号化装置2、4、及び動画像復号装置1、3は、動画像の送信、受信、記録、再生を行う各種装置に搭載して利用することができる。なお、動画像は、カメラ等により撮像された自然動画像であってもよいし、コンピュータ等により生成された人工動画像(CGおよびGUIを含む)であってもよい。
 まず、上述した動画像符号化装置2及び動画像復号装置1を、動画像の送信及び受信に利用できることを、図31を参照して説明する。動画像符号化装置4及び動画像復号装置3についても同様である。
 図31の(a)は、動画像符号化装置2を搭載した送信装置PROD_Aの構成を示したブロック図である。図31の(a)に示すように、送信装置PROD_Aは、動画像を符号化することによって符号化データを得る符号化部PROD_A1と、符号化部PROD_A1が得た符号化データで搬送波を変調することによって変調信号を得る変調部PROD_A2と、変調部PROD_A2が得た変調信号を送信する送信部PROD_A3と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_A1として利用される。
 送信装置PROD_Aは、符号化部PROD_A1に入力する動画像の供給源として、動画像を撮像するカメラPROD_A4、動画像を記録した記録媒体PROD_A5、動画像を外部から入力するための入力端子PROD_A6、及び、画像を生成または加工する画像処理部A7を更に備えていてもよい。図31の(a)においては、これら全てを送信装置PROD_Aが備えた構成を例示しているが、一部を省略しても構わない。
 なお、記録媒体PROD_A5は、符号化されていない動画像を記録したものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化された動画像を記録したものであってもよい。後者の場合、記録媒体PROD_A5と符号化部PROD_A1との間に、記録媒体PROD_A5から読み出した符号化データを記録用の符号化方式に従って復号する復号部(不図示)を介在させるとよい。
 図31の(b)は、動画像復号装置1を搭載した受信装置PROD_Bの構成を示したブロック図である。図31の(b)に示すように、受信装置PROD_Bは、変調信号を受信する受信部PROD_B1と、受信部PROD_B1が受信した変調信号を復調することによって符号化データを得る復調部PROD_B2と、復調部PROD_B2が得た符号化データを復号することによって動画像を得る復号部PROD_B3と、を備えている。上述した動画像復号装置1は、この復号部PROD_B3として利用される。
 受信装置PROD_Bは、復号部PROD_B3が出力する動画像の供給先として、動画像を表示するディスプレイPROD_B4、動画像を記録するための記録媒体PROD_B5、及び、動画像を外部に出力するための出力端子PROD_B6を更に備えていてもよい。図31の(b)においては、これら全てを受信装置PROD_Bが備えた構成を例示しているが、一部を省略しても構わない。
 なお、記録媒体PROD_B5は、符号化されていない動画像を記録するためのものであってもよいし、伝送用の符号化方式とは異なる記録用の符号化方式で符号化されたものであってもよい。後者の場合、復号部PROD_B3と記録媒体PROD_B5との間に、復号部PROD_B3から取得した動画像を記録用の符号化方式に従って符号化する符号化部(不図示)を介在させるとよい。
 なお、変調信号を伝送する伝送媒体は、無線であってもよいし、有線であってもよい。また、変調信号を伝送する伝送態様は、放送(ここでは、送信先が予め特定されていない送信態様を指す)であってもよいし、通信(ここでは、送信先が予め特定されている送信態様を指す)であってもよい。すなわち、変調信号の伝送は、無線放送、有線放送、無線通信、及び有線通信の何れによって実現してもよい。
 例えば、地上デジタル放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を無線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。また、ケーブルテレビ放送の放送局(放送設備など)/受信局(テレビジョン受像機など)は、変調信号を有線放送で送受信する送信装置PROD_A/受信装置PROD_Bの一例である。
 また、インターネットを用いたVOD(Video On Demand)サービスや動画共有サービスなどのサーバ(ワークステーションなど)/クライアント(テレビジョン受像機、パーソナルコンピュータ、スマートフォンなど)は、変調信号を通信で送受信する送信装置PROD_A/受信装置PROD_Bの一例である(通常、LANにおいては伝送媒体として無線又は有線の何れかが用いられ、WANにおいては伝送媒体として有線が用いられる)。ここで、パーソナルコンピュータには、デスクトップ型PC、ラップトップ型PC、及びタブレット型PCが含まれる。また、スマートフォンには、多機能携帯電話端末も含まれる。
 なお、動画共有サービスのクライアントは、サーバからダウンロードした符号化データを復号してディスプレイに表示する機能に加え、カメラで撮像した動画像を符号化してサーバにアップロードする機能を有している。すなわち、動画共有サービスのクライアントは、送信装置PROD_A及び受信装置PROD_Bの双方として機能する。
 次に、上述した動画像符号化装置2及び動画像復号装置1を、動画像の記録及び再生に利用できることを、図32を参照して説明する。動画像符号化装置4及び動画像復号装置3についても同様である。
 図32の(a)は、上述した動画像符号化装置2を搭載した記録装置PROD_Cの構成を示したブロック図である。図32の(a)に示すように、記録装置PROD_Cは、動画像を符号化することによって符号化データを得る符号化部PROD_C1と、符号化部PROD_C1が得た符号化データを記録媒体PROD_Mに書き込む書込部PROD_C2と、を備えている。上述した動画像符号化装置2は、この符号化部PROD_C1として利用される。
 なお、記録媒体PROD_Mは、(1)HDD(Hard Disk Drive)やSSD(Solid State Drive)などのように、記録装置PROD_Cに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSB(Universal Serial Bus)フラッシュメモリなどのように、記録装置PROD_Cに接続されるタイプのものであってもよいし、(3)DVD(Digital Versatile Disc)やBD(Blu-ray Disc:登録商標)などのように、記録装置PROD_Cに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。
 また、記録装置PROD_Cは、符号化部PROD_C1に入力する動画像の供給源として、動画像を撮像するカメラPROD_C3、動画像を外部から入力するための入力端子PROD_C4、動画像を受信するための受信部PROD_C5、及び、画像を生成または加工する画像処理部C6を更に備えていてもよい。図32の(a)においては、これら全てを記録装置PROD_Cが備えた構成を例示しているが、一部を省略しても構わない。
 なお、受信部PROD_C5は、符号化されていない動画像を受信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを受信するものであってもよい。後者の場合、受信部PROD_C5と符号化部PROD_C1との間に、伝送用の符号化方式で符号化された符号化データを復号する伝送用復号部(不図示)を介在させるとよい。
 このような記録装置PROD_Cとしては、例えば、DVDレコーダ、BDレコーダ、HDD(Hard Disk Drive)レコーダなどが挙げられる(この場合、入力端子PROD_C4又は受信部PROD_C5が動画像の主な供給源となる)。また、カムコーダ(この場合、カメラPROD_C3が動画像の主な供給源となる)、パーソナルコンピュータ(この場合、受信部PROD_C5又は画像処理部C6が動画像の主な供給源となる)、スマートフォン(この場合、カメラPROD_C3又は受信部PROD_C5が動画像の主な供給源となる)なども、このような記録装置PROD_Cの一例である。
 図32の(b)は、上述した動画像復号装置1を搭載した再生装置PROD_Dの構成を示したブロックである。図32の(b)に示すように、再生装置PROD_Dは、記録媒体PROD_Mに書き込まれた符号化データを読み出す読出部PROD_D1と、読出部PROD_D1が読み出した符号化データを復号することによって動画像を得る復号部PROD_D2と、を備えている。上述した動画像復号装置1は、この復号部PROD_D2として利用される。
 なお、記録媒体PROD_Mは、(1)HDDやSSDなどのように、再生装置PROD_Dに内蔵されるタイプのものであってもよいし、(2)SDメモリカードやUSBフラッシュメモリなどのように、再生装置PROD_Dに接続されるタイプのものであってもよいし、(3)DVDやBDなどのように、再生装置PROD_Dに内蔵されたドライブ装置(不図示)に装填されるものであってもよい。
 また、再生装置PROD_Dは、復号部PROD_D2が出力する動画像の供給先として、動画像を表示するディスプレイPROD_D3、動画像を外部に出力するための出力端子PROD_D4、及び、動画像を送信する送信部PROD_D5を更に備えていてもよい。図32の(b)においては、これら全てを再生装置PROD_Dが備えた構成を例示しているが、一部を省略しても構わない。
  なお、送信部PROD_D5は、符号化されていない動画像を送信するものであってもよいし、記録用の符号化方式とは異なる伝送用の符号化方式で符号化された符号化データを送信するものであってもよい。後者の場合、復号部PROD_D2と送信部PROD_D5との間に、動画像を伝送用の符号化方式で符号化する符号化部(不図示)を介在させるとよい。
 このような再生装置PROD_Dとしては、例えば、DVDプレイヤ、BDプレイヤ、HDDプレイヤなどが挙げられる(この場合、テレビジョン受像機等が接続される出力端子PROD_D4が動画像の主な供給先となる)。また、テレビジョン受像機(この場合、ディスプレイPROD_D3が動画像の主な供給先となる)、デジタルサイネージ(電子看板や電子掲示板等とも称され、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、デスクトップ型PC(この場合、出力端子PROD_D4又は送信部PROD_D5が動画像の主な供給先となる)、ラップトップ型又はタブレット型PC(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)、スマートフォン(この場合、ディスプレイPROD_D3又は送信部PROD_D5が動画像の主な供給先となる)なども、このような再生装置PROD_Dの一例である。
 (付記事項2)
 上述した動画像復号装置1、3、および動画像符号化装置2、4の各ブロックは、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
 後者の場合、上記各装置は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである上記各装置の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記各装置に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
 また、上記各装置を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。
 (付記事項3)
  以上のように、本発明に係る動画像復号装置は、複数の色成分から構成される画像を復号する動画像復号装置であって、フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を復号するフィルタ情報復号手段と、前記フィルタ情報復号手段により復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うフィルタ手段とを備えることを特徴としている。
 上記のように構成された動画像復号装置によれば、前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うので、色成分が複数存在する場合であっても、各色成分に対して適切なフィルタ処理を行うことができる。したがって、上記動画像復号装置によれば、符号化効率が向上する。
 上記動画像復号装置において、前記フィルタ情報復号手段は、ある色成分のフィルタ係数群に含まれる少なくとも1つのフィルタ係数を、既に復号された他の色成分のフィルタ係数群に含まれるフィルタ係数と、符号化データから復号した値との加算値又は減算値として復号することが好ましい。
 上記の構成によれば、前記フィルタ情報復号手段は、ある色成分のフィルタ係数群に含まれる少なくとも1つのフィルタ係数を、既に復号された他の色成分のフィルタ係数群に含まれるフィルタ係数と、符号化データから復号した値との加算値又は減算値として復号するので、フィルタ係数群の符号量を削減することができる。したがって、上記の構成によれば、符号化効率の更なる向上を図ることができる。
 また、前記フィルタ情報復号手段は、複数の色成分に対するフィルタ処理に用いる複数のフィルタ係数群を復号するものであり、前記複数のフィルタ係数群には、既に復号した他の色成分のフィルタ係数群を用いずに復号される1つの独立フィルタ係数群、及び既に復号した他の色成分のフィルタ係数群を用いて復号される1つ以上の従属フィルタ係数群が含まれており、前記フィルタ情報復号手段は、前記独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグを復号し、前記フィルタ手段は、前記割り当てフラグを参照して導出されたフィルタ係数群を用いてフィルタ処理を行うことが好ましい。
 発明者は、既に復号した他の色成分のフィルタ係数群を用いずに復号される独立フィルタ係数群を、前記複数のフィルタ係数群から適切に選択することにより、符号化効率の更なる向上を図ることができるとの知見を得た。
 上記の構成によれば、前記独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグを復号し、当該割り当てフラグを参照して導出されたフィルタ係数群を用いてフィルタ処理を行うので、符号化効率の更なる向上を図ることができる。
 また、本発明に係る動画像復号装置は、複数の色成分から構成される画像を復号する動画像復号装置であって、前記画像を構成する複数の単位領域の各々に対して、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを復号するフィルタ情報復号手段と、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分に対するフィルタ処理を行うフィルタ手段とを備えることを特徴としている。
 発明者の知見によれば、復号対象の画像には、フィルタ処理を施さないほうが符号化効率が向上する領域が含まれ得る。上記のように構成された動画像復号装置によれば、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分に対するフィルタ処理を行うので、符号化効率が向上する。
 また、上記動画像復号装置は、前記フィルタオンオフ情報に含まれる1つのオンオフフラグを参照して、前記画像の2つ以上の色成分について、同一位置に存在する単位領域におけるオンオフを定めることにより、前記2つ以上の色成分に対するフィルタ処理を共通に制御することが好ましい。
 上記の構成によれば、前記フィルタオンオフ情報に含まれる1つのオンオフフラグを参照して、前記画像の2つ以上の色成分について、同一位置に存在する単位領域におけるオンオフを定めることにより、前記2つ以上の色成分に対するフィルタ処理を共通に制御するので、符号量の削減と共に、フィルタ処理の処理量の削減を図ることができる。
 また、前記フィルタ情報復号手段は、前記フィルタオンオフ情報に含まれるオンオフフラグが特定の色成分のオンオフフラグとして参照されるのか、又は、複数の色成分に共通のオンオフフラグとして参照されるのかを指定する選択フラグを復号することが好ましい。
 発明者の得た知見によれば、復号対象の画像の画像特性如何によって、オンオフフラグを特定の色成分に関するものとして参照することにより符号化効率が向上する場合と、オンオフフラグを複数の色成分に共通のものとして参照することにより符号化効率が向上する場合とがある。
 上記の構成によれば、前記フィルタオンオフ情報に含まれるオンオフフラグが特定の色成分のオンオフフラグとして参照されるのか、又は、複数の色成分に共通のオンオフフラグとして参照されるのかを指定する選択フラグを復号するので、復号対象の画像が様々な画像特性を有する場合であっても、符号化効率の向上を図ることができる。
 また、前記色成分は、少なくとも輝度成分と色差成分とから構成され、前記フィルタ情報復号手段は、前記選択フラグとして、前記フィルタオンオフ情報に含まれる1つのオンオフフラグが、輝度成分のオンオフフラグとして参照されるのか、又は、輝度成分と色差成分とで共通のオンオフフラグとして参照されるのかを指定するフラグを復号することが好ましい。
 発明者の得た知見によれば、復号対象の画像の画像特性如何によって、オンオフフラグを輝度成分のオンオフフラグとして参照することにより符号化効率が向上する場合と、オンオフフラグを輝度成分と色差成分とで共通のオンオフフラグとして参照することにより符号化効率が向上する場合とがある。
 上記の構成によれば、前記選択フラグとして、前記フィルタオンオフ情報に含まれる1つのオンオフフラグが、輝度成分のオンオフフラグとして参照されるのか、又は、輝度成分と色差成分とで共通のオンオフフラグとして参照されるのかを指定するフラグを復号するので、復号対象の画像が様々な画像特性を有する場合であっても、符号化効率の向上を図ることができる。
 また、前記フィルタ情報復号手段は、輝度成分のみにオンオフフラグを用いる第1の制御パターン、輝度成分と色差成分で共通のオンオフフラグを用いる第2の制御パターン、複数の色差成分で共通のオンオフフラグを用いる第3の制御パターン、輝度成分と複数の色差成分とで独立のオンオフフラグを用いる第4の制御パターンの少なくとも1つを示す選択モードを復号し、更に、前記選択モードが第1の制御パターン又は第2の制御パターンを示す場合には1つのオンオフフラグを復号し、前記選択モードが第3の制御パターンを示す場合には2つのオンオフフラグを復号し、前記選択モードが第4の制御パターンを示す場合には3つのオンオフフラグを復号することが好ましい。
 上記の構成によれば、輝度成分のみにオンオフフラグを用いる第1の制御パターン、輝度成分と色差成分で共通のオンオフフラグを用いる第2の制御パターン、複数の色差成分で共通のオンオフフラグを用いる第3の制御パターン、輝度成分と複数の色差成分とで独立のオンオフフラグを用いる第4の制御パターンの少なくとも1つを示す選択モードを復号し、更に、前記選択モードが第1の制御パターン又は第2の制御パターンを示す場合には1つのオンオフフラグを復号し、前記選択モードが第3の制御パターンを示す場合には2つのオンオフフラグを復号し、前記選択モードが第4の制御パターンを示す場合には3つのオンオフフラグを復号するので、復号対象の画像が様々な画像特性を有する場合であっても、符号化効率の向上を図ることができる。
 また、本発明に係る動画像符号化装置は、複数の色成分から構成される画像を符号化する動画像符号化装置であって、フィルタ処理の対象となる色成分を指定する色成分指定情報、フィルタ処理に用いるフィルタ係数群、及び、フィルタパラメータとして符号化するフィルタ情報であって、当該色成分指定情報及びフィルタ係数群を色成分毎に決定するフィルタ情報決定手段と、前記フィルタ情報決定手段により決定されたフィルタ係数群を用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段と、前記フィルタ情報決定手段により決定されたフィルタ情報を符号化する可変長符号化手段とを備えることを特徴としている。
 上記のように構成された動画像符号化装置によれば、前記フィルタ情報決定手段により決定されたフィルタ係数群を用いて処理対象となる前記各色成分にフィルタ処理を行うと共に、前記フィルタ情報を符号化するので、符号化効率が向上する。
 また、前記フィルタ情報決定手段は、前記フィルタ情報の少なくとも1つの要素を、前記フィルタ情報決定手段により決定された1つのフィルタ係数群のフィルタ係数と、他の色成分のフィルタ係数群のフィルタ係数との差分により決定することが好ましい。
 上記の構成によれば、前記フィルタ情報の少なくとも1つの要素を、前記フィルタ情報決定手段により決定された1つのフィルタ係数群のフィルタ係数と、他の色成分のフィルタ係数群のフィルタ係数との差分により決定するので、符号量を削減することができる。したがって、上記の構成によれば、符号化効率の更なる向上を図ることができる。
 また、前記フィルタ情報決定手段は、他の色成分のフィルタ係数群を用いずに符号化する1つの独立フィルタ係数群と、他の色成分のフィルタ係数群を用いて符号化するフィルタ係数群と、前記独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグとを決定し、前記可変長符号化手段は、割り当てフラグを符号化することが好ましい。
 発明者は、他の色成分のフィルタ係数群を用いずに符号化する1つの独立フィルタ係数群を、前記複数のフィルタ係数群から適切に選択することにより、符号化効率の更なる向上を図ることができるとの知見を得た。
 上記の構成によれば、前記フィルタ情報決定手段は、他の色成分のフィルタ係数群を用いずに符号化する1つの独立フィルタ係数群と、他の色成分のフィルタ係数群を用いて符号化するフィルタ係数群と、前記独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグとを決定し、前記可変長符号化手段は、割り当てフラグを符号化するので、符号化効率の更なる向上を図ることができる。
 また、本発明に係る動画像符号化装置は、複数の色成分から構成される入力画像を符号化する動画像符号化装置であって、前記入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するフィルタオンオフ情報と、フィルタ処理に用いるフィルタ係数群と、符号化するフィルタ情報とを色成分毎に決定するフィルタ情報決定手段と、前記フィルタオンオフ情報とフィルタ係数群とを参照して前記単位領域ごとにフィルタ処理を行うフィルタ手段と、前記フィルタオンオフ情報とフィルタ情報とを含むフィルタパラメータを符号化する可変長符号化手段とを備えており、前記フィルタ情報には、色成分毎の前記フィルタオンオフ情報が含まれている、ことを特徴としている。
 発明者の知見によれば、符号化対象の画像には、フィルタ処理を施さないほうが符号化効率が向上する領域が含まれ得る。上記のように構成された動画像復号装置によれば、前記フィルタオンオフ情報とフィルタ係数群とを参照して前記単位領域ごとにフィルタ処理を行うので、符号化効率が向上する。
 また、上記動画像符号化装置は、前記入力画像の2つ以上の色成分について、同一位置に存在する単位領域におけるオンオフを指定する共通のオンオフフラグを決定するフィルタ情報決定手段を備えることが好ましい。
 発明者の得た知見によれば、符号化対象の画像の画像特性如何によっては、2つ以上の色成分について、同一位置に存在する単位領域におけるオンオフを指定することにより符号化効率の向上を図ることができる。
 上記の構成によれば、前記入力画像の2つ以上の色成分について、同一位置に存在する単位領域におけるオンオフを指定する共通のオンオフフラグを決定するので、符号化対象の画像が様々な画像特性を有する場合であっても、符号化効率の向上を図ることができる。
 また、前記フィルタ情報決定手段は、既に符号化された前記フィルタオンオフ情報を、特定の色成分のオンオフフラグとして参照するのか、又は、複数の色成分に共通のオンオフフラグとして参照するのかを選択する選択フラグを決定することが好ましい。
 発明者の得た知見によれば、符号化対象の画像の画像特性如何によって、オンオフフラグを特定の色成分に関するものとして参照することにより符号化効率が向上する場合と、オンオフフラグを複数の色成分に共通のものとして参照することにより符号化効率が向上する場合とがある。
 上記の構成によれば、前記フィルタオンオフ情報を、特定の色成分のオンオフフラグとして参照するのか、又は、複数の色成分に共通のオンオフフラグとして参照するのかを選択する選択フラグを決定するので、符号化対象の画像が様々な画像特性を有する場合であっても、符号化効率の向上を図ることができる。
 また、前記色成分は、少なくとも輝度成分と色差成分とから構成され、前記フィルタ情報決定手段は、既に復号された前記フィルタオンオフ情報を、輝度成分のオンオフフラグとして参照するのか、又は、輝度成分と色差成分で共通のオンオフフラグとして参照するのかを選択するフラグを決定することが好ましい。
 発明者の得た知見によれば、符号化対象の画像の画像特性如何によって、オンオフフラグを輝度成分のオンオフフラグとして参照することにより符号化効率が向上する場合と、オンオフフラグを輝度成分と色差成分とで共通のオンオフフラグとして参照することにより符号化効率が向上する場合とがある。
 上記の構成によれば、前記フィルタオンオフ情報を、輝度成分のオンオフフラグとして参照するのか、又は、輝度成分と色差成分で共通のオンオフフラグとして参照するのかを選択するフラグを決定するので、符号化対象の画像が様々な画像特性を有する場合であっても、符号化効率の向上を図ることができる。
 また、前記フィルタ情報決定手段は、輝度成分のみにオンオフフラグを用いる第1の制御パターン、輝度成分と色差成分で共通のオンオフフラグを用いる第2の制御パターン、複数の色差成分での共通のオンオフフラグを用いる第3の制御パターン、輝度成分と複数の色差成分とで独立な独立オンオフフラグを用いる第4の制御パターンの少なくとも1つを示す選択モードを決定し、更に、選択モードが第1の制御パターン又は第2の制御パターンを示す場合には1つのオンオフフラグを決定し、選択モードが第3の制御パターンを示す場合には2つのオンオフフラグを決定し、選択モードが第4の制御パターンを示す場合には3つのオンオフフラグを決定することが好ましい。
 上記の構成によれば、輝度成分のみにオンオフフラグを用いる第1の制御パターン、輝度成分と色差成分で共通のオンオフフラグを用いる第2の制御パターン、複数の色差成分での共通のオンオフフラグを用いる第3の制御パターン、輝度成分と複数の色差成分とで独立な独立オンオフフラグを用いる第4の制御パターンの少なくとも1つを示す選択モードを決定し、更に、選択モードが第1の制御パターン又は第2の制御パターンを示す場合には1つのオンオフフラグを決定し、選択モードが第3の制御パターンを示す場合には2つのオンオフフラグを決定し、選択モードが第4の制御パターンを示す場合には3つのオンオフフラグを決定するので、符号化対象の画像が様々な画像特性を有する場合であっても、符号化効率の向上を図ることができる。
 また、本発明に係る符号化データのデータ構造は、動画像復号装置によって参照される符号化データのデータ構造であって、フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を含んでおり、前記動画像復号装置は、前記色成分指定情報及びフィルタ係数群を復号し、復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うことを特徴としている。
 上記のように構成された符号化データは、フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を含んでおり、当該符号化データを復号する動画像復号装置は、前記色成分指定情報及びフィルタ係数群を復号し、復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うので、色成分が複数存在する場合であっても、各色成分に対して適切なフィルタ処理を行うことができる。したがって、符号化データによれば、符号化効率が向上する。
 また、本発明に係る符号化データのデータ構造は、動画像復号装置によって参照される符号化データのデータ構造であって、対象画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを含んでおり、前記動画像復号装置は、前記フィルタオンオフ情報と、フィルタ係数群とを復号し、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うことを特徴としている。
 発明者の知見によれば、復号対象の画像には、フィルタ処理を施さないほうが符号化効率が向上する領域が含まれ得る。上記のように構成された符号化データは、対象画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを含んでおり、
 当該符号化データを復号する動画像復号装置は、前記フィルタオンオフ情報と、フィルタ係数群とを復号し、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うので、符号化効率が向上する。
 また、本発明に係る動画像復号装置は、複数の色成分から構成される対象画像を符号化して得られる符号化データを復号する動画像復号装置であって、対象画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1以上含むフィルタオンオフ情報を復号するフィルタ情報復号手段と、復号された前記フィルタオンオフ情報を用いて、各単位領域における復号画像にフィルタ処理を行うフィルタ手段とを備え、前記フィルタ手段は、前記色成分毎に独立してフィルタ処理を行うことを特徴としている。
 上記のように構成された動画像復号装置によれば、各単位領域についてフィルタ処理を行うか否かを指定するオンオフフラグを1以上含むフィルタオンオフ情報を用いて、色成分毎に独立したフィルタ処理を行うので、色成分が複数存在する場合であっても、各色成分に対して適切にフィルタ処理のオンオフを切り替えることができる。したがって、上記動画像復号装置によれば、符号化効率が向上する。
 また、上記動画像復号装置において、前記単位領域の大きさは、前記色成分毎に異なることが好ましい。
 発明者の知見によれば、フィルタ処理のオンオフの単位である単位領域の大きさを、色成分によって異ならせることによって符号化効率が向上する。上記の構成によれば、前記単位領域の大きさは、前記色成分毎に異なるので、符号化効率が向上する。
 また、上記動画像復号装置において、前記色成分は、少なくとも輝度成分と色差成分とからなることが好ましい。
 上記の構成によれば、少なくとも輝度成分と色差成分とについて、少なくとも輝度成分と色差成分とからなる対象画像の符号化効率を向上させることができる。
 また、上記動画像復号装置において、前記色差成分についての前記単位領域は、最大符号化単位であり、前記輝度成分についての前記単位領域は、前記最大符号化単位を構成する符号化単位であることが好ましい。
 発明者の知見によれば、色差成分についての単位領域の大きさを、輝度成分についての単位領域の大きさよりも大きくとることによって符号化効率が向上する。上記の構成によれば、前記色差成分についての前記単位領域は、最大符号化単位であり、前記輝度成分についての前記単位領域は、前記最大符号化単位を構成する符号化単位であるので、符号化効率が向上する。
 また、上記動画像復号装置において、前記色差成分に対して前記フィルタ処理を行う場合、前記フィルタ手段は、前記輝度成分に対するフィルタ処理で用いた前記フィルタオンオフ情報を使用することが好ましい。
 発明者の知見によれば、対象画像の画像特性如何によっては、フィルタオンオフ情報の符号量を削減することによって符号化効率が向上する場合がある。
 上記の構成によれば、前記色差成分に対して前記フィルタ処理を行う場合、前記フィルタ手段は、前記輝度成分に対するフィルタ処理で用いた前記フィルタオンオフ情報を使用するので、フィルタオンオフ情報による符号量の増加を抑制することができる。よって、上記の構成によれば、符号化効率の向上を図ることができる。
 また、上記動画像復号装置において、前記色差成分に対して前記フィルタ処理を行う場合前記フィルタ手段は、前記輝度成分に対するフィルタ処理で用いた前記フィルタオンオフ情報とは異なる前記フィルタオンオフ情報を使用することが好ましい。
 発明者の知見によれば、対象画像の画像特性如何によっては、フィルタオンオフ情報の符号量が増大したとしても、よりきめの細かいオンオフ処理を行うことによって符号化効率が向上する場合がある。
 上記の構成によれば、前記色差成分に対して前記フィルタ処理を行う場合前記フィルタ手段は、前記輝度成分に対するフィルタ処理で用いた前記フィルタオンオフ情報とは異なる前記フィルタオンオフ情報を使用するので、符号化効率の向上を図ることができる。
 また、上記動画像復号装置において、前記フィルタ手段は、前記輝度成分に対してのみ前記フィルタオンオフ情報を用いることが好ましい。
 発明者の知見によれば、輝度成分に対してのみ前記フィルタオンオフ情報を用いたフィルタ処理の切り替えを行うことによって符号化効率が向上する場合がある。
 上記の構成によれば、前記フィルタ手段は、前記輝度成分に対してのみ前記フィルタオンオフ情報を用いるので、符号化効率の向上を図ることができる。
 (付記事項4)
 本明細書に記載された発明は以下のように表現することもできる。
 1.
 複数の色成分を備える画像を復号する動画像復号装置であって、フィルタ処理を行う色成分を指定する情報および、フィルタ係数群を復号するフィルタ情報復号手段と、
 前記フィルタ情報復号手段により復号された前記フィルタ係数群および前記色成分を指定する情報とを用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置。
 2.
 前記フィルタ情報復号手段は、ある色成分のフィルタ係数群の少なくとも1つのフィルタ係数を、既に復号された他の色成分のフィルタ係数群のフィルタ係数と、符号化データから復号した値との加算値又は減算値により復号することを特徴とする1.に記載の動画像復号装置。
 3.
 前記フィルタ情報復号手段は、複数の色成分に対するフィルタ処理に用いるフィルタ係数群を復号し、既に復号した他の色成分のフィルタ係数群を用いずに復号する1つの独立フィルタ係数群と、既に復号した他の色成分のフィルタ係数群を用いて復号する1つ以上の従属フィルタ係数群を復号し、独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグを復号し、さらに前記フィルタ手段は、前記割り当てフラグに応じて導出されたフィルタ係数群を用いてフィルタ処理を行うことを特徴とする2.に記載の動画像復号装置。
 4.
 複数の色成分を備える入力画像を復号する動画像復号装置であって、
 入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを復号するフィルタ情報復号手段と、
 前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置。
 5.
 前記フィルタオンオフ情報のうち、1つのオンオフフラグを参照して、前記入力画像の2つ以上の色成分の同一位置に存在する前記単位領域のオンオフを定めることで、前記2つ以上の色成分のフィルタ処理を共通に制御することを特徴とする4.に記載の動画像復号装置。
 6.
 前記フィルタ情報復号手段は、前記フィルタオンオフ情報に含まれるオンオフフラグが特定の色成分のオンオフフラグとして用いるか、又は、複数の色成分に共通のオンオフフラグとして用いるかを選択する選択フラグを復号することを特徴とする5.に記載の動画像復号装置。
 7.
 前記色成分は、少なくとも輝度成分と色差成分とから構成され、
 前記フィルタ情報復号手段は、前記選択フラグとして、前記フィルタオンオフ情報に含まれる1つのフィルタオンオフフラグが、輝度成分のオンオフフラグとして用いるか、又は、輝度成分と色差成分で共通のオンオフフラグとして用いるかを選択するフラグを復号することを特徴とする6.に記載の動画像復号装置。
 8.
 前記フィルタ情報復号手段は、輝度成分のみにオンオフフラグを用いる制御パターン1か、輝度成分と色差成分で共通のオンオフフラグを用いる制御パターン2か、複数の色差成分での共通のオンオフフラグを用いる制御パターン3か、輝度成分と複数の色差成分で独立のオンオフフラグを用いる制御パターン4の少なくとも1つを示す選択モードを復号し、前記選択モードが制御パターン1又は制御パターン2を示す場合には1つのオンオフフラグを復号し、前記選択モードが制御パターン2を示す場合には2つのオンオフフラグを復号し、選択モードが制御パターン4を示す場合には3つのオンオフフラグを復号することを特徴とする6.に記載の動画像復号装置。
 9.
 複数の色成分を備える画像を符号化する符号化装置であって、
 フィルタ処理を行う色成分を指定する情報と、フィルタ処理に用いるフィルタ係数群を決定と、フィルタパラメータとして符号化されるフィルタ情報を決定するフィルタ情報決定手段と、
 前記フィルタ情報決定手段により決定されたフィルタ係数群を用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段と、フィルタ情報を符号化する可変長符号化手段を備えることを特徴とする動画像符号化装置。
 10.
 前記フィルタ情報決定手段は、少なくとも1つのフィルタ情報の要素が、決定された1つのフィルタ係数群のフィルタ係数と、他の色成分のフィルタ係数群のフィルタ係数との差分値により決定することを特徴とする9.に記載の動画像符号化装置。
 11.
 前記フィルタ情報決定手段は、他の色成分のフィルタ係数群を用いずに符号化する1つの独立フィルタ係数群と、他の色成分のフィルタ係数群を用いて符号化するフィルタ係数群を決定し、さらに独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグを決定し、さらに、前記可変長符号化手段は、割り当てフラグを符号化することを特徴とする10.に記載の動画像符号化装置。
 12.
 複数の色成分を備える入力画像を符号化する動画像符号化装置であって、
 入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するフィルタオンオフ情報と、フィルタ処理に用いるフィルタ係数群と符号化するフィルタ情報を決定するフィルタ情報決定手段と、
 前記フィルタオンオフ情報とフィルタ係数群を参照して前記単位領域ごとにフィルタ処理を行うフィルタ手段と、フィルタオンオフ情報とフィルタ情報を含むフィルタパラメータを符号化する可変長符号化手段を備えることを特徴とする動画像符号化装置。
 13.
 前記動画像符号化装置は、2つ以上の色成分を備える画像を符号化する動画像符号化装置であって、2つ以上の色成分の同一位置に存在する前記単位領域のオンオフを定める共通のオンオフフラグを決定するフィルタ情報決定手段を備えることを特徴とする12.に記載の動画像符号化装置。
 14.
 前記フィルタ情報決定手段は、既に符号化された前記フィルタオンオフ情報を、特定の色成分のオンオフフラグとして用いるか、又は、複数の色成分に共通のオンオフフラグとして用いるかを選択する選択フラグを決定することを特徴とする13.に記載の動画像符号化装置。
 15.
 前記色成分は、少なくとも輝度成分と色差成分とから構成され、
 前記フィルタ情報決定手段は、既に復号された前記フィルタオンオフ情報を、輝度成分のオンオフフラグとして用いるか、又は、輝度成分と色差成分で共通のオンオフフラグとして用いるかを選択するフラグを決定することを特徴とする14.に記載の動画像符号化装置。
 16.
 前記フィルタ情報決定手段は、輝度成分のみにオンオフフラグを用いる制御パターン1か、輝度成分と色差成分で共通のオンオフフラグを用いる制御パターン2か、複数の色差成分での共通のオンオフフラグを用いる制御パターン3か、輝度成分と複数の色差成分で独立な独立オンオフフラグを用いる制御パターン4の少なくとも1つを示す選択モードを決定し、選択モードが制御パターン1若しくは制御パターン2を示す場合には1つのオンオフフラグを決定し、選択モードが制御パターン2を示す場合には2つのオンオフフラグを決定し、選択モードが制御パターン4を示す場合には3つのオンオフフラグを決定することを特徴とする14.に記載の動画像符号化装置。
 17.
 フィルタ処理を行う色成分を指定する情報および、フィルタ係数群を復号するフィルタ情報復号手段と、
 前記フィルタ情報復号手段により復号された前記フィルタ係数群および前記色成分を指定する情報とを用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置によって参照される、複数の色成分を備える画像のフィルタ処理に用いられる符号化データのデータ構造であって、前記フィルタ手段によって用いられる前記色成分を指定する情報およびフィルタ係数群を含んでいることを特徴とする符号化データのデータ構造。
 18.
 入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを復号するフィルタ情報復号手段と、
 前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置によって参照される、複数の色成分を備える画像のフィルタ処理に用いられる符号化データのデータ構造であって、前記フィルタ手段によって用いられるフィルタオンオフ情報とフィルタ係数群を含んでいることを特徴とする符号化データのデータ構造。
 (付記事項5) 本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明に係る動画像復号装置および動画像符号化装置は、画像のフィルタリングを行う画像フィルタ装置を備えている動画像復号装置および動画像符号化装置として好適に利用することができる。また、本発明に係るデータ構造は、動画像復号装置によって参照される符号化データのデータ構造として好適に利用することができる。
1     動画像復号装置(復号装置)
11    可変長符号復号部
12    動きベクトル復元部
13    逆量子化・逆変換部
14    加算器
15,24    バッファメモリ
16    インター予測画像生成部
17    イントラ予測画像生成部
18    予測方式決定部
19,43    デブロッキングフィルタ
30,44,50,60   適応フィルタ
31    色差適応フィルタ情報復号部(フィルタ情報復号手段)
311   色差適応フィルタ係数導出部
32,441,52    色差適応フィルタ部
321,321a,321b,521a,521b,531  スイッチ部
322,522   Crフィルタ処理部(フィルタ手段)
323,523   Cbフィルタ処理部(フィルタ手段)
33,444,53    輝度適応フィルタ部
442   色差フィルタ情報決定部(フィルタ情報決定手段)
4421  色差フィルタ係数計算部
4422  色差フィルタ係数決定部
443,52,62   適応フィルタ部(フィルタ手段)
51    適応フィルタ情報復元部(フィルタ情報復号手段)
511   オンオフ情報復元部
512   フィルタ情報復元部
532   Yフィルタ処理部(フィルタ手段)
2,4   動画像符号化装置(符号化装置)
21    変換・量子化部
22    可変長符号符号化部(可変長符号化手段)
23    逆量子化・逆変換部
25    イントラ予測画像生成部
26    インター予測画像生成部
27    動きベクトル検出部
28    予測方式制御部
29    動きベクトル冗長性削除部
61    フィルタパラメータ決定部(フィルタ情報決定手段)
611   オンオフ情報決定部
612   フィルタ情報決定部

Claims (25)

  1.  複数の色成分から構成される画像を復号する動画像復号装置であって、
     フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を復号するフィルタ情報復号手段と、
     前記フィルタ情報復号手段により復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置。
  2.  前記フィルタ情報復号手段は、ある色成分のフィルタ係数群に含まれる少なくとも1つのフィルタ係数を、既に復号された他の色成分のフィルタ係数群に含まれるフィルタ係数と、符号化データから復号した値との加算値又は減算値として復号することを特徴とする請求項1に記載の動画像復号装置。
  3.  前記フィルタ情報復号手段は、複数の色成分に対するフィルタ処理に用いる複数のフィルタ係数群を復号するものであり、
     前記複数のフィルタ係数群には、既に復号した他の色成分のフィルタ係数群を用いずに復号される1つの独立フィルタ係数群、及び既に復号した他の色成分のフィルタ係数群を用いて復号される1つ以上の従属フィルタ係数群が含まれており、
     前記フィルタ情報復号手段は、前記独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグを復号し、
     前記フィルタ手段は、前記割り当てフラグを参照して導出されたフィルタ係数群を用いてフィルタ処理を行うことを特徴とする請求項2に記載の動画像復号装置。
  4.  複数の色成分から構成される画像を復号する動画像復号装置であって、
     前記画像を構成する複数の単位領域の各々に対して、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを復号するフィルタ情報復号手段と、
     前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分に対するフィルタ処理を行うフィルタ手段とを備えることを特徴とする動画像復号装置。
  5.  前記フィルタオンオフ情報に含まれる1つのオンオフフラグを参照して、前記画像の2つ以上の色成分について、同一位置に存在する単位領域におけるオンオフを定めることにより、前記2つ以上の色成分に対するフィルタ処理を共通に制御することを特徴とする請求項4に記載の動画像復号装置。
  6.  前記フィルタ情報復号手段は、前記フィルタオンオフ情報に含まれるオンオフフラグが特定の色成分のオンオフフラグとして参照されるのか、又は、複数の色成分に共通のオンオフフラグとして参照されるのかを指定する選択フラグを復号することを特徴とする請求項5に記載の動画像復号装置。
  7.  前記色成分は、少なくとも輝度成分と色差成分とから構成され、
     前記フィルタ情報復号手段は、前記選択フラグとして、前記フィルタオンオフ情報に含まれる1つのオンオフフラグが、輝度成分のオンオフフラグとして参照されるのか、又は、輝度成分と色差成分とで共通のオンオフフラグとして参照されるのかを指定するフラグを復号することを特徴とする請求項6に記載の動画像復号装置。
  8.  前記フィルタ情報復号手段は、輝度成分のみにオンオフフラグを用いる第1の制御パターン、輝度成分と色差成分で共通のオンオフフラグを用いる第2の制御パターン、複数の色差成分で共通のオンオフフラグを用いる第3の制御パターン、輝度成分と複数の色差成分とで独立のオンオフフラグを用いる第4の制御パターンの少なくとも1つを示す選択モードを復号し、更に、前記選択モードが第1の制御パターン又は第2の制御パターンを示す場合には1つのオンオフフラグを復号し、前記選択モードが第3の制御パターンを示す場合には2つのオンオフフラグを復号し、前記選択モードが第4の制御パターンを示す場合には3つのオンオフフラグを復号することを特徴とする請求項6に記載の動画像復号装置。
  9.  複数の色成分から構成される画像を符号化する動画像符号化装置であって、
     フィルタ処理の対象となる色成分を指定する色成分指定情報、フィルタ処理に用いるフィルタ係数群、及び、フィルタパラメータとして符号化するフィルタ情報であって、当該色成分指定情報及びフィルタ係数群を色成分毎に決定するフィルタ情報決定手段と、
     前記フィルタ情報決定手段により決定されたフィルタ係数群を用いて処理対象となる前記各色成分にフィルタ処理を行うフィルタ手段と、
     前記フィルタ情報決定手段により決定されたフィルタ情報を符号化する可変長符号化手段とを備えていることを特徴とする動画像符号化装置。
  10.  前記フィルタ情報決定手段は、前記フィルタ情報の少なくとも1つの要素を、前記フィルタ情報決定手段により決定された1つのフィルタ係数群のフィルタ係数と、他の色成分のフィルタ係数群のフィルタ係数との差分により決定することを特徴とする請求項9に記載の動画像符号化装置。
  11.  前記フィルタ情報決定手段は、他の色成分のフィルタ係数群を用いずに符号化する1つの独立フィルタ係数群と、他の色成分のフィルタ係数群を用いて符号化するフィルタ係数群と、前記独立フィルタ係数群を用いてフィルタ処理を行う色成分を示す割り当てフラグとを決定し、
     前記可変長符号化手段は、割り当てフラグを符号化する
    ことを特徴とする請求項10に記載の動画像符号化装置。
  12.  複数の色成分から構成される入力画像を符号化する動画像符号化装置であって、
     前記入力画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するフィルタオンオフ情報と、フィルタ処理に用いるフィルタ係数群と、符号化するフィルタ情報とを色成分毎に決定するフィルタ情報決定手段と、
     前記フィルタオンオフ情報とフィルタ係数群とを参照して前記単位領域ごとにフィルタ処理を行うフィルタ手段と、
     前記フィルタオンオフ情報とフィルタ情報とを含むフィルタパラメータを符号化する可変長符号化手段とを備えており、
     前記フィルタ情報には、色成分毎の前記フィルタオンオフ情報が含まれている、
    ことを特徴とする動画像符号化装置。
  13.  前記入力画像の2つ以上の色成分について、同一位置に存在する単位領域におけるオンオフを指定する共通のオンオフフラグを決定するフィルタ情報決定手段を備えることを特徴とする請求項12に記載の動画像符号化装置。
  14.  前記フィルタ情報決定手段は、既に符号化された前記フィルタオンオフ情報を、特定の色成分のオンオフフラグとして参照するのか、又は、複数の色成分に共通のオンオフフラグとして参照するのかを選択する選択フラグを決定することを特徴とする請求項13に記載の動画像符号化装置。
  15.  前記色成分は、少なくとも輝度成分と色差成分とから構成され、
     前記フィルタ情報決定手段は、既に復号された前記フィルタオンオフ情報を、輝度成分のオンオフフラグとして参照するのか、又は、輝度成分と色差成分で共通のオンオフフラグとして参照するのかを選択するフラグを決定することを特徴とする請求項14に記載の動画像符号化装置。
  16.  前記フィルタ情報決定手段は、輝度成分のみにオンオフフラグを用いる第1の制御パターン、輝度成分と色差成分で共通のオンオフフラグを用いる第2の制御パターン、複数の色差成分での共通のオンオフフラグを用いる第3の制御パターン、輝度成分と複数の色差成分とで独立な独立オンオフフラグを用いる第4の制御パターンの少なくとも1つを示す選択モードを決定し、更に、選択モードが第1の制御パターン又は第2の制御パターンを示す場合には1つのオンオフフラグを決定し、選択モードが第3の制御パターンを示す場合には2つのオンオフフラグを決定し、選択モードが第4の制御パターンを示す場合には3つのオンオフフラグを決定することを特徴とする請求項14に記載の動画像符号化装置。
  17.  動画像復号装置によって参照される符号化データのデータ構造であって、
     フィルタ処理の対象となる色成分を指定する色成分指定情報、およびフィルタ係数群を含んでおり、
     前記動画像復号装置は、前記色成分指定情報及びフィルタ係数群を復号し、復号された前記フィルタ係数群と前記色成分指定情報とを用いて、処理対象となる前記各色成分に対するフィルタ処理を行うことを特徴とする符号化データのデータ構造。
  18.  動画像復号装置によって参照される符号化データのデータ構造であって、
     対象画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1つ以上含むフィルタオンオフ情報と、フィルタ係数群とを含んでおり、
     前記動画像復号装置は、前記フィルタオンオフ情報と、フィルタ係数群とを復号し、前記フィルタオンオフ情報を参照して、前記単位領域ごとに色成分のフィルタ処理を行うことを特徴とする符号化データのデータ構造。
  19.  複数の色成分から構成される対象画像を符号化して得られる符号化データを復号する動画像復号装置であって、
     対象画像を構成する複数の単位領域の各々において、フィルタ処理を行うか否かを指定するオンオフフラグを1以上含むフィルタオンオフ情報を復号するフィルタ情報復号手段と、
     復号された前記フィルタオンオフ情報を用いて、各単位領域における復号画像にフィルタ処理を行うフィルタ手段とを備え、
     前記フィルタ手段は、前記色成分毎に独立してフィルタ処理を行うことを特徴とする動画像復号装置。
  20.  前記単位領域の大きさは、前記色成分毎に異なることを特徴とする請求項19に記載の動画像復号装置。
  21.  前記色成分は、少なくとも輝度成分と色差成分とからなることを特徴とする請求項19又は20に記載の動画像復号装置。
  22.  前記色差成分についての前記単位領域は、最大符号化単位であり、前記輝度成分についての前記単位領域は、前記最大符号化単位を構成する符号化単位であることを特徴とする請求項21に記載の動画像復号装置。
  23.  前記色差成分に対して前記フィルタ処理を行う場合、
     前記フィルタ手段は、前記輝度成分に対するフィルタ処理で用いた前記フィルタオンオフ情報を使用することを特徴とする請求項21に記載の動画像復号装置。
  24.  前記色差成分に対して前記フィルタ処理を行う場合
     前記フィルタ手段は、前記輝度成分に対するフィルタ処理で用いた前記フィルタオンオフ情報とは異なる前記フィルタオンオフ情報を使用することを特徴とする請求項21に記載の動画像復号装置。
  25.  前記フィルタ手段は、前記輝度成分に対してのみ前記フィルタオンオフ情報を用いることを特徴とする請求項21に記載の動画像復号装置。
PCT/JP2012/056029 2011-03-09 2012-03-08 動画像復号装置、動画像符号化装置、および、データ構造 Ceased WO2012121352A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-051527 2011-03-09
JP2011051527A JP2014099672A (ja) 2011-03-09 2011-03-09 復号装置、符号化装置、および、データ構造

Publications (1)

Publication Number Publication Date
WO2012121352A1 true WO2012121352A1 (ja) 2012-09-13

Family

ID=46798305

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/056029 Ceased WO2012121352A1 (ja) 2011-03-09 2012-03-08 動画像復号装置、動画像符号化装置、および、データ構造

Country Status (2)

Country Link
JP (1) JP2014099672A (ja)
WO (1) WO2012121352A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10097827B2 (en) 2016-04-05 2018-10-09 Fujitsu Limited Apparatus and method for image encoding, apparatus and method for image decoding, and image transmission system
WO2019123768A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 画像処理装置及び画像処理方法
CN113891076A (zh) * 2016-02-15 2022-01-04 高通股份有限公司 滤波视频数据的经解码块的方法和装置以及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9025675B2 (en) * 2011-06-22 2015-05-05 Texas Instruments Incorporated Systems and methods for reducing blocking artifacts
EP3142363A1 (en) * 2015-09-08 2017-03-15 Thomson Licensing Methods and devices for encoding and decoding a sequence of pictures, and corresponding computer program product and computer-readable medium
TWI604731B (zh) * 2016-08-05 2017-11-01 瑞昱半導體股份有限公司 影像濾波方法及其影像濾波裝置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010001999A1 (ja) * 2008-07-04 2010-01-07 株式会社 東芝 動画像符号化/復号化方法及び装置
WO2010076856A1 (ja) * 2009-01-05 2010-07-08 株式会社 東芝 動画像符号化方法及び動画像復号化方法
WO2010113524A1 (ja) * 2009-04-03 2010-10-07 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置および動画像復号装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010001999A1 (ja) * 2008-07-04 2010-01-07 株式会社 東芝 動画像符号化/復号化方法及び装置
WO2010076856A1 (ja) * 2009-01-05 2010-07-08 株式会社 東芝 動画像符号化方法及び動画像復号化方法
WO2010113524A1 (ja) * 2009-04-03 2010-10-07 パナソニック株式会社 動画像符号化方法、動画像復号方法、動画像符号化装置および動画像復号装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Test Model under Consideration", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 2ND MEETING, 6 October 2010 (2010-10-06), GENEVA, CH, pages 29 - 30,59-60,126-127 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113891076A (zh) * 2016-02-15 2022-01-04 高通股份有限公司 滤波视频数据的经解码块的方法和装置以及存储介质
US12075037B2 (en) 2016-02-15 2024-08-27 Qualcomm Incorporated Predicting filter coefficients from fixed filters for video coding
US12470709B2 (en) 2016-02-15 2025-11-11 Qualcomm Incorporated Predicting filter coefficients from fixed filters for video coding
US10097827B2 (en) 2016-04-05 2018-10-09 Fujitsu Limited Apparatus and method for image encoding, apparatus and method for image decoding, and image transmission system
WO2019123768A1 (ja) * 2017-12-22 2019-06-27 ソニー株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2014099672A (ja) 2014-05-29

Similar Documents

Publication Publication Date Title
US12149735B2 (en) Image decoding device, image encoding device, and image decoding method
JP7200320B2 (ja) 画像フィルタ装置、フィルタ方法および動画像復号装置
US10547861B2 (en) Image decoding device
JP6190361B2 (ja) 算術復号装置、画像復号装置、算術符号化装置、および画像符号化装置
CN103858430B (zh) 图像解码装置、图像解码方法及图像编码装置
US20180192076A1 (en) Image decoding device image coding device
JP2013236358A (ja) 画像フィルタ装置、画像復号装置、画像符号化装置、およびデータ構造
JP5995448B2 (ja) 画像復号装置、および画像符号化装置
WO2014115283A1 (ja) 画像復号装置、および画像符号化装置
JP7139144B2 (ja) 画像フィルタ装置
WO2012121352A1 (ja) 動画像復号装置、動画像符号化装置、および、データ構造
JP2013141094A (ja) 画像復号装置、画像符号化装置、画像フィルタ装置、および符号化データのデータ構造
JP2013223050A (ja) フィルタ装置、復号装置、および符号化装置
JP2014176039A (ja) 画像復号装置、および画像符号化装置
WO2014007131A1 (ja) 画像復号装置、および画像符号化装置
JP2013187868A (ja) 画像復号装置、画像符号化装置、およびデータ構造
WO2014050554A1 (ja) 画像復号装置、および画像符号化装置
JP6162289B2 (ja) 画像復号装置および画像復号方法
JP2013251827A (ja) 画像フィルタ装置、画像復号装置、画像符号化装置、およびデータ構造
WO2012081706A1 (ja) 画像フィルタ装置、フィルタ装置、復号装置、符号化装置、および、データ構造
WO2012081636A1 (ja) 画像復号装置、画像符号化装置、および符号化データのデータ構造
JP2014082729A (ja) 画像復号装置、および画像符号化装置
WO2012043676A1 (ja) 復号装置、符号化装置、および、データ構造
JP2014013976A (ja) 画像復号装置、および画像符号化装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12754235

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12754235

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP