[go: up one dir, main page]

JP2018050150A - Image coding apparatus, image coding method, and computer program - Google Patents

Image coding apparatus, image coding method, and computer program Download PDF

Info

Publication number
JP2018050150A
JP2018050150A JP2016183834A JP2016183834A JP2018050150A JP 2018050150 A JP2018050150 A JP 2018050150A JP 2016183834 A JP2016183834 A JP 2016183834A JP 2016183834 A JP2016183834 A JP 2016183834A JP 2018050150 A JP2018050150 A JP 2018050150A
Authority
JP
Japan
Prior art keywords
image
gradation
encoding
intra
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016183834A
Other languages
Japanese (ja)
Inventor
竹田 英史
Hidefumi Takeda
英史 竹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016183834A priority Critical patent/JP2018050150A/en
Publication of JP2018050150A publication Critical patent/JP2018050150A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】HEVC方式のイントラスムージング処理の適応可否を、入力画像に応じて適応的に決定して、符号化画質を維持する。【解決手段】グラデーション検出部102は、入力画像を所定の画素ブロック単位でグラデーション画像かいなかを検出する。イントラスムージング処理決定手段104は、画面内に所定数以上グラデーション画像が含まれる場合に、画面内予測モードにおいて符号化ブロック境界の参照画素の線形補間を有効化するように符号化部105に指示する。【選択図】 図1Kind Code: A1 To determine whether adaptation of intra-smoothing processing of the HEVC method is adaptive depending on an input image, and maintain encoded image quality. A gradation detection unit detects whether an input image is a gradation image in a predetermined pixel block unit. Intra-smoothing processing determining means 104 instructs encoding section 105 to validate linear interpolation of reference pixels at the coding block boundary in the intra-screen prediction mode when a predetermined number or more of gradation images are included in the screen. . [Selection diagram] Fig. 1

Description

本発明は、画像符号化装置、画像符号化方法及びコンピュータプログラムに関し、特に、画面内予測を用いる画像符号化装置、画像符号化方法及びコンピュータプログラムに関する。   The present invention relates to an image encoding device, an image encoding method, and a computer program, and more particularly, to an image encoding device that uses intra prediction, an image encoding method, and a computer program.

従来、被写体を動画撮影することで得られた動画像データを圧縮符号化して記録するカメラ一体型動画像記録装置として、デジタルビデオカメラがよく知られている。   2. Description of the Related Art Conventionally, a digital video camera is well known as a camera-integrated moving image recording apparatus that compresses and records moving image data obtained by taking a moving image of a subject.

動画圧縮方式としては、フレーム間で動き予測を用いて高い圧縮率で圧縮可能なMPEG2方式及びH.264方式が一般的に用いられている。近年では、より複雑な予測方式を用いて高効率に圧縮可能なHEVC方式(ISO/IEC23008−2)が用いられるようになっている。   As the moving image compression method, MPEG2 method and H.264 which can be compressed at a high compression rate using motion prediction between frames. The H.264 system is generally used. In recent years, the HEVC method (ISO / IEC 23008-2) that can be compressed with high efficiency using a more complicated prediction method has been used.

HEVC方式では、H.264方式に対して圧縮効率を向上させるためのさまざま改良が採用されている。その一つとして、画面内予測処理時に近接画素間の相関関係を利用して符号化効率を高めるため、符号化ブロックに隣接する参照画素にフィルタ処理を施す技術が知られている。特に、このフィルタ処理において、色の濃淡や明暗が段階的に少しずつ変化するグラデーション領域に対して、視覚的な品質を高めるための特別なフィルタ処理を条件により適用できるようになっている。   In the HEVC system, H.264 is used. Various improvements have been adopted to improve the compression efficiency with respect to the H.264 system. As one of them, a technique is known in which a filtering process is performed on a reference pixel adjacent to a coding block in order to increase the coding efficiency by using the correlation between adjacent pixels during the intra prediction process. In particular, in this filter processing, special filter processing for improving visual quality can be applied to a gradation region in which color shading and lightness change little by little depending on conditions.

図14を参照して、グラデーション領域用フィルタ処理の必要性を簡単に説明する。図14(a)は、グラデーション領域内にブロック境界がある場合の画素値の変化例を示す。横軸は、画素を示し、縦軸は輝度値を示す。H.264方式では、ブロック単位で圧縮処理を行うので、符号化対象ブロック周辺に隣接する符号化済み画素ブロック間でブロック境界の画素が不連続になる。この結果、画面内予測を採用する符号化画像ブロックにおいて、ブロック境界の参照画素間で画素値が不連続な値となったまま予測画像を生成することになる。そうすると、図14(b)に示すように、擬似輪郭が発生してしまう。図14(b)では、符号化対象ブロックの中心に右上から左下に接続する線状に擬似輪郭が発生する様子を示す。   With reference to FIG. 14, the necessity of the filter process for gradation area will be briefly described. FIG. 14A shows an example of a change in pixel value when there is a block boundary in the gradation area. The horizontal axis represents pixels, and the vertical axis represents luminance values. H. In the H.264 system, compression processing is performed in units of blocks, so that pixels at the block boundary are discontinuous between encoded pixel blocks adjacent to the periphery of the encoding target block. As a result, in a coded image block that employs intra prediction, a predicted image is generated while the pixel values remain discontinuous between reference pixels at the block boundary. As a result, a pseudo contour is generated as shown in FIG. FIG. 14B shows a state in which a pseudo contour is generated in a line connecting from the upper right to the lower left at the center of the encoding target block.

このような問題に対し、特許文献1には、規格で定められている画素位置よりもさらに広範囲に参照画素を定義して予測値を生成する方法が記載されている。特許文献2には、符号化ブロック単位でグラデーション検出を行い、グラデーション画像と判定した画像ブロックにおいては、画面内予測の画素サイズを規格上最小のサイズに設定することが記載されている。   For such a problem, Patent Document 1 describes a method of generating a predicted value by defining a reference pixel in a wider range than a pixel position defined in the standard. Patent Document 2 describes that gradation detection is performed in units of coding blocks, and the pixel size for intra prediction is set to the minimum size in the standard for an image block determined to be a gradation image.

そこで、HEVC方式では、隣接するブロック境界の参照画素両端の画素値と平均値との差の絶対値が、輝度のビット深度に応じて決定される閾値未満である場合、参照画素の中を線形補間するイントラスムージング処理が定義されている。ただし、この処理を適用するためには、ブロック境界間の画素値の差に加え、以下の3条件をすべて満たす必要がある。第1に、周波数変換を行う画素ブロックサイズ(Trasnform Unitサイズ:TUサイズ)が32×32画素であること。第2に、方向性予測のモード値(predModeIntra)が、1(DC予測)、10(水平方向予測)及び26(垂直方向予測)のいずれでもないこと。第3に、シーケンスパラメータセット(以下、「SPS」と呼ぶ)の変数strong_intra_smoothing_enabled_flagが1であること。   Therefore, in the HEVC method, when the absolute value of the difference between the pixel value at both ends of the reference pixel at the adjacent block boundary and the average value is less than a threshold value determined according to the luminance bit depth, the reference pixel is linearly changed. Intra smoothing processing to be interpolated is defined. However, in order to apply this processing, it is necessary to satisfy all of the following three conditions in addition to the difference in pixel values between block boundaries. First, the pixel block size (Transform Unit size: TU size) for frequency conversion is 32 × 32 pixels. Second, the mode value (predModeIntra) of directionality prediction is neither 1 (DC prediction), 10 (horizontal direction prediction), or 26 (vertical direction prediction). Third, the variable strong_intra_smoothing_enabled_flag of the sequence parameter set (hereinafter referred to as “SPS”) is 1.

特開2008−245088公報JP 2008-245088 A 特開2011−239365公報JP2011-239365A

引用文献1に記載の技術は、H.264方式に限定されるものであり、HEVC方式を採用する動画符号化装置には適用できない。   The technique described in the cited document 1 is described in H.C. It is limited to the H.264 system and cannot be applied to a moving picture encoding apparatus that employs the HEVC system.

引用文献2に記載の技術は、HEVC方式のイントラスムージング処理に依らない方法である。しかし、マクロブロック単位での処理になるので、符号化ピクチャ全体および動画シーケンス全体で符号化効率を必ずしも高めることができない。   The technique described in the cited document 2 is a method that does not depend on the HEVC type intra smoothing process. However, since the processing is performed in units of macroblocks, it is not always possible to increase the encoding efficiency for the entire encoded picture and the entire moving image sequence.

HEVC方式のイントラスムージング処理を採用する方式において、SPS中の変数strong_intra_smoothing_enabled_flagを常に1にすると、符号化シーケンスすべてに対して線形補間フィルタ処理が適用される。この方法では、入力画像の絵柄によっては画像の解像感が損なわれてしまい、必ずしも視覚特性を向上できない場合がある。   In the method employing the HEVC method of intra smoothing, when the variable strong_intra_smoothing_enabled_flag in the SPS is always set to 1, the linear interpolation filter process is applied to all the encoded sequences. In this method, depending on the design of the input image, the resolution of the image may be impaired, and visual characteristics may not necessarily be improved.

本発明は、入力画像に応じて適応的にイントラスムージング処理の適用可否を決定できる、HEVC方式を適用可能な画像符号化装置、画像符号化方法及びコンピュータプログラムを提示することを目的とする。   An object of the present invention is to present an image encoding device, an image encoding method, and a computer program that can apply the HEVC method, and that can adaptively determine whether or not to apply an intra smoothing process according to an input image.

上記の課題を解決するために、本発明に係る画像符号化装置は、入力画像を符号化する画像符号化装置であって、前記入力画像を符号化ブロック単位で符号化する符号化手段であって、画面内予測モードにおいて符号化ブロック境界の参照画素を線形補間するモードを有する符号化手段と、前記符号化手段が符号化しようとする前記符号化ブロックに対して所定の画素ブロック単位でグラデーション画像かいなかを検出するグラデーション検出手段と、前記符号化手段が符号化対象ブロック画像に対して前記画面内予測モードでの参照画像の線形補間処理の適用可否を決定するイントラスムージング処理決定手段であって、前記グラデーション検出手段により前記グラデーション画像と判定された前記画素ブロック数が所定数以上になったとき、前記線形補間の有効化を前記符号化手段に指示するイントラスムージング処理決定手段とを有することを特徴とする。   In order to solve the above problems, an image encoding device according to the present invention is an image encoding device that encodes an input image, and is an encoding unit that encodes the input image in units of encoding blocks. Encoding means having a mode for linearly interpolating reference pixels at the encoding block boundary in the intra prediction mode, and gradation in a predetermined pixel block unit with respect to the encoding block to be encoded by the encoding means Gradation detecting means for detecting whether an image is present; and intra-smoothing process determining means for determining whether or not the linear interpolation process of the reference image in the intra prediction mode is applied to the encoding target block image by the encoding means. When the number of pixel blocks determined to be the gradation image by the gradation detecting means exceeds a predetermined number , Characterized by having a intra smoothing processing determining means for instructing activation of the linear interpolation to the encoding means.

本発明によれば、入力画像のグラデーション検出結果に基づいてイントラスムージング処理の適用可否を判断するので、符号化ピクチャ全体および動画シーケンスとしての画質を維持または改善できる。   According to the present invention, since the applicability of the intra smoothing process is determined based on the gradation detection result of the input image, it is possible to maintain or improve the image quality of the entire encoded picture and the moving image sequence.

本発明の実施例1の概略構成ブロック図である。It is a schematic block diagram of Example 1 of the present invention. 符号化部の概略構成ブロック図である。It is a schematic block diagram of an encoding part. 実施例1の動作フローチャートである。3 is an operation flowchart according to the first embodiment. 実施例1の符号化データ構造例である。It is an example of the encoding data structure of Example 1. FIG. 実施例1のパラメータセットのリンク例である。It is an example of a link of the parameter set of Example 1. FIG. 実施例2の概略構成ブロック図である。6 is a schematic configuration block diagram of Embodiment 2. FIG. 実施例2の動作フローチャートである。6 is an operation flowchart of the second embodiment. 実施例2の入力画像とヒストグラム例を示す図である。It is a figure which shows the input image of Example 2, and the example of a histogram. 実施例3の概略構成ブロック図である。FIG. 10 is a schematic configuration block diagram of Embodiment 3. 実施例3の動作フローチャートである。10 is an operation flowchart of the third embodiment. 実施例3の動作説明図である。FIG. 9 is an operation explanatory diagram of Embodiment 3. 実施例4の概略構成ブロック図である。FIG. 10 is a schematic block diagram of a fourth embodiment. 実施例4の動作フローチャートである。10 is an operation flowchart of the fourth embodiment. 実施例4の動作説明図である。FIG. 10 is an operation explanatory diagram of the fourth embodiment. 従来技術で発生する擬似輪郭の説明図である。It is explanatory drawing of the pseudo contour which generate | occur | produces with a prior art.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る画像符号化装置の一実施例を採用する撮像装置の概略構成ブロック図を示す。図1に示す撮像装置は、撮像部101、グラデーション検出部102、イントラスムージング処理決定部104、および符号化部105から構成されている。グラデーション検出部102は分散値算出部103を有する。   FIG. 1 shows a schematic block diagram of an imaging apparatus that employs an embodiment of an image encoding apparatus according to the present invention. The imaging apparatus shown in FIG. 1 includes an imaging unit 101, a gradation detection unit 102, an intra smoothing process determination unit 104, and an encoding unit 105. The gradation detection unit 102 includes a variance value calculation unit 103.

撮像部101は、CCDセンサ等の撮像素子、撮像素子に被写体光学像を入射する光学系、及び、撮像素子の出力画像信号をデジタル化し、所定の映像フォーマットの動画像データとして出力する画像処理部からなる。   The imaging unit 101 is an image sensor such as a CCD sensor, an optical system that inputs a subject optical image to the image sensor, and an image processing unit that digitizes an output image signal of the image sensor and outputs it as moving image data in a predetermined video format. Consists of.

グラデーション検出部102は、撮像部101から出力される動画像データの各フレーム画像を複数の画素ブロックに分割し、画素ブロック単位でグラデーション画像であるか否かを判断検出する。分散値算出部103は、各画像領域における画素値分布の分散を算出する。グラデーション検出部102は、分散値算出部103で算出された分散値が、単色の分散値でなく、且つ、一定値未満の値を示す場合に、グラデーション画像と判定する。   The gradation detection unit 102 divides each frame image of moving image data output from the imaging unit 101 into a plurality of pixel blocks, and determines and detects whether or not the image is a gradation image in pixel block units. The variance value calculation unit 103 calculates the variance of the pixel value distribution in each image area. The gradation detection unit 102 determines that the image is a gradation image when the dispersion value calculated by the dispersion value calculation unit 103 is not a single-color dispersion value and indicates a value less than a certain value.

イントラスムージング処理決定部104は、グラデーション検出部102の検出結果に従い、当該フレーム画像中に含まれるグラデーション画像と判断された画素ブロック数を累積する。1つのフレーム画像中でグラデーション画像の画素ブロック数が所定数以上の場合、イントラスムージング処理決定部104は、そのフレーム画像の画面内予測モードで符号化ブロック境界の参照画素の線形補間の適用可否を決定する。適用する場合、イントラスムージング処理決定部104は、イントラスムージング処理を有効にする指示信号(スムージング有効化指示信号)を符号化部105に出力する。   The intra smoothing processing determination unit 104 accumulates the number of pixel blocks determined to be a gradation image included in the frame image according to the detection result of the gradation detection unit 102. When the number of pixel blocks of the gradation image is greater than or equal to a predetermined number in one frame image, the intra-smoothing process determination unit 104 determines whether or not to apply linear interpolation of the reference pixel at the encoding block boundary in the intra prediction mode of the frame image. decide. When applying, the intra smoothing process determination unit 104 outputs an instruction signal (smoothing enable instruction signal) for enabling the intra smoothing process to the encoding unit 105.

符号化部105は、撮像部101から出力される動画像データを、イントラスムージング処理決定部104からの通知を参照しつつ、HEVC方式で圧縮符号化し、得られた符号データを所定のビットストリーム形式で出力する。   The encoding unit 105 compresses and encodes the moving image data output from the imaging unit 101 with the HEVC method while referring to the notification from the intra-smoothing process determination unit 104, and the obtained encoded data is in a predetermined bit stream format. To output.

本実施例では、グラデーション検出の画素ブロックのサイズを、符号化部105での処理単位と同一のサイズ、すなわち、HEVC規格で定義されているCTU(Coding Tree Unit)としているが、異なっても良い。   In this embodiment, the size of the pixel block for gradation detection is the same size as the processing unit in the encoding unit 105, that is, CTU (Coding Tree Unit) defined in the HEVC standard, but may be different. .

図2は、符号化部105の概略構成ブロック図を示す。符号化部105は、撮像部101からの動画像データをフレーム単位でフレームメモリ201に格納する。フレームメモリ201は、他に、動き予測処理で用いる参照画像データを格納する。   FIG. 2 shows a schematic block diagram of the encoding unit 105. The encoding unit 105 stores the moving image data from the imaging unit 101 in the frame memory 201 in units of frames. In addition, the frame memory 201 stores reference image data used in motion prediction processing.

イントラ予測部202は、フレームメモリ201に格納されたフレーム画像データから符号化対象ブロックの画像データを読み出し、符号化対象ブロック周辺の参照画素データから生成される複数のイントラ予測画像との相関を計算する。イントラ予測部202には、イントラスムージング処理決定部104の出力信号も入力する。イントラスムージング処理決定部104からスムージング有効化指示信号が入力する場合、イントラ予測部202は、イントラ予測のための予測画像の生成においてブロック境界の参照画素に対する線形補間処理を有効にする。イントラ予測部202は、最も相関の高いイントラ予測方式を選択し、イントラ・インター判定部204に通知する。   The intra prediction unit 202 reads the image data of the encoding target block from the frame image data stored in the frame memory 201, and calculates correlations with a plurality of intra prediction images generated from the reference pixel data around the encoding target block. To do. The intra prediction unit 202 also receives the output signal of the intra smoothing process determination unit 104. When the smoothing activation instruction signal is input from the intra smoothing process determination unit 104, the intra prediction unit 202 enables the linear interpolation process for the reference pixel at the block boundary in generating a predicted image for intra prediction. The intra prediction unit 202 selects an intra prediction method having the highest correlation and notifies the intra / inter determination unit 204 of the intra prediction method.

インター予測部203は、フレームメモリ201に格納される符号化対象ブロックの原画像データと符号化済みの画像データとの間で、符号化ブロック単位で画素データ同士のパターンマッチングを行い、動きベクトルを算出する。インター予測部203は、算出した動きベクトルをイントラ・インター判定部204に供給する。   The inter prediction unit 203 performs pattern matching between pixel data in units of encoding blocks between the original image data of the encoding target block stored in the frame memory 201 and the encoded image data, and obtains a motion vector. calculate. The inter prediction unit 203 supplies the calculated motion vector to the intra / inter determination unit 204.

イントラ・インター判定部204は、イントラ予測部202とインター予測部203の出力結果に基づいて適用すべき予測モードを決定し、予測画像生成部205に出力する。例えば、イントラ・インター判定部204は、イントラ予測部202の出力に従い、符号化対象画像ブロックについて予測画像を生成し、この予測画像と符号化対象ブロック画像との予測誤差を算出する。イントラ・インター判定部204はまた、インター予測部203で求めた動きベクトルに従い、参照画像から予測画像を生成し、この予測画像と符号化対象ブロック画像との予測誤差を算出する。そして、イントラ・インター判定部204は両予測誤差を比較し、小さい方の予測方式を、符号化に適用すべき予測モードとする。イントラ予測部202及び/またはインター予測部203が予測誤差の算出までを実行している場合、イントラ・インター判定部204は、不足する予測誤差を算出した上で、比較し、適用すべき予測モードを決定すればよい。   The intra / inter determination unit 204 determines a prediction mode to be applied based on the output results of the intra prediction unit 202 and the inter prediction unit 203, and outputs the prediction mode to the predicted image generation unit 205. For example, the intra / inter determination unit 204 generates a prediction image for the encoding target image block according to the output of the intra prediction unit 202, and calculates a prediction error between the prediction image and the encoding target block image. The intra / inter determination unit 204 also generates a prediction image from the reference image according to the motion vector obtained by the inter prediction unit 203, and calculates a prediction error between the prediction image and the encoding target block image. Then, the intra / inter determination unit 204 compares both prediction errors, and sets the smaller prediction method as a prediction mode to be applied to encoding. In the case where the intra prediction unit 202 and / or the inter prediction unit 203 are executing up to the calculation of the prediction error, the intra / inter determination unit 204 calculates a prediction error that is insufficient, compares them, and applies a prediction mode to be applied. Can be determined.

予測画像生成部205は、イントラ・インター判定部204で決定された予測モードに応じて予測画像を生成する。予測画像生成部205には、イントラスムージング処理決定部104の出力信号も入力する。イントラスムージング処理決定部104がスムージング有効化指示信号を出力する場合、先に説明したように、符号化対象画像はグラデーション画像ということになる。予測画像生成部205は、グラデーション画像の場合、イントラ予測モード、TUサイズが32×32画素、そして、方向性予測のモード値が1、10及び26のいずれでもないという3条件を、適用すべき符号化条件が満たすかどうかを判定する。これらの3条件を満たすとき、予測画像生成部205は、線形補間処理を施した参照画素から予測画像を生成する。   The predicted image generation unit 205 generates a predicted image according to the prediction mode determined by the intra / inter determination unit 204. The predicted image generation unit 205 also receives the output signal of the intra smoothing process determination unit 104. When the intra-smoothing process determination unit 104 outputs the smoothing validation instruction signal, the encoding target image is a gradation image as described above. In the case of a gradation image, the prediction image generation unit 205 should apply the three conditions that the intra prediction mode, the TU size is 32 × 32 pixels, and the directionality prediction mode value is neither 1, 10, nor 26. It is determined whether or not the encoding condition is satisfied. When these three conditions are satisfied, the predicted image generation unit 205 generates a predicted image from the reference pixels subjected to the linear interpolation process.

減算器214は、フレームメモリ201からの符号化すべき画像データから、予測画像生成部205からの予測画像を減算する。減算器214での減算により生成される差分画像データは、整数変換部206に入力する。整数変換部206は、減算器214からの差分画像データを符号化ブロック単位で空間周波数領域に変換する。整数変換部206の整数変換は、周波数変換の一例である。   The subtracter 214 subtracts the predicted image from the predicted image generation unit 205 from the image data to be encoded from the frame memory 201. The difference image data generated by the subtraction in the subtracter 214 is input to the integer conversion unit 206. The integer conversion unit 206 converts the difference image data from the subtracter 214 into a spatial frequency domain in units of encoded blocks. The integer conversion of the integer conversion unit 206 is an example of frequency conversion.

量子化部207は、目標符号量に基づいて量子化係数を算出し、整数変換部206から出力される空間周波数領域の係数データを量子化する。量子化された係数データは、エントロピー符号化部208と逆量子化部210に入力する。   The quantization unit 207 calculates a quantization coefficient based on the target code amount, and quantizes the spatial frequency domain coefficient data output from the integer transform unit 206. The quantized coefficient data is input to the entropy encoding unit 208 and the inverse quantization unit 210.

エントロピー符号化部208は、量子化部207からの量子化された係数データをエントロピー符号化する。例えば、エントロピー符号化部208は、インター予測の場合、動き予測で用いたベクトル値を、CABAC(コンテキスト適応算術符号化)方式等のビットデータの出現確率の偏りを利用して情報圧縮する。エントロピー符号化部208は、圧縮後の符号化データをビットストリーム生成部213に供給する。   The entropy encoding unit 208 entropy encodes the quantized coefficient data from the quantization unit 207. For example, in the case of inter prediction, the entropy encoding unit 208 compresses information on a vector value used in motion prediction using a bias in the appearance probability of bit data such as a CABAC (context adaptive arithmetic coding) method. The entropy encoding unit 208 supplies the encoded data after compression to the bit stream generation unit 213.

ビットストリーム生成部213は、エントロピー符号化部208からの符号化データに復号に必要なパラメータを含むヘッダ情報を付加し、所定のストリーミング形式で出力する。復号処理に必要なパラメータは、例えば、SPS及びピクチャパラメタセット(以下、「PPS」という。)を含む。ビットストリーム生成部213はまた、符号化画像においてイントラスムージング処理を適用したピクチャに対しSPS中のstrong_intra_smoothing_enabled_flagフィールド値を1としたヘッダを参照するように関連付ける。
イントラスムージング処理を適用した符号化ピクチャに対するSPSおよびPPSヘッダとの関連付け方法の詳細と、ビットストリームのデータ構造との関係は。後述する。ビットストリーム生成部213の出力は、例えば、メモリカードまたはハードディスクなどの図示しない記録媒体に記録される。
The bit stream generation unit 213 adds header information including parameters necessary for decoding to the encoded data from the entropy encoding unit 208, and outputs the data in a predetermined streaming format. Parameters necessary for the decoding process include, for example, an SPS and a picture parameter set (hereinafter referred to as “PPS”). The bit stream generation unit 213 also associates the picture to which the intra smoothing process is applied in the encoded image so as to refer to a header having a strong_intra_smoothing_enabled_flag field value of 1 in the SPS.
What are the details of the method of associating the SPS and PPS headers for the coded picture to which the intra-smoothing process is applied, and the relationship between the data structure of the bit stream? It will be described later. The output of the bit stream generation unit 213 is recorded on a recording medium (not shown) such as a memory card or a hard disk.

符号量制御部209は、エントロピー符号化部208が出力する符号化データの符号量を取得し、ビットレート及びバッファモデルに基づいて1ピクチャ当たりの目標符号量を算出し、量子化部207の量子化係数をフィードバック制御する。   The code amount control unit 209 obtains the code amount of the encoded data output from the entropy encoding unit 208, calculates the target code amount per picture based on the bit rate and the buffer model, and Feedback control of the quantization factor.

ローカルでの復号処理に関係する部分を説明する。逆量子化部210は、量子化部207からの量子化した係数データに量子化係数を乗算することで逆量子化する。これにより、係数データが再構成される。逆整数変換部211は、逆量子化部210から出力される係数データを画素データに逆整数変換する。加算器215は、逆整数変換部211の出力に予測画像生成部205からの予測画像データを加算する。これにより、画像データが復元される。加算器215の出力画像データは参照画像データとして予測画像生成部205とループフィルタ212に供給される。   The part related to the local decoding process will be described. The inverse quantization unit 210 performs inverse quantization by multiplying the quantized coefficient data from the quantization unit 207 by a quantization coefficient. Thereby, the coefficient data is reconstructed. The inverse integer transform unit 211 performs inverse integer transform of the coefficient data output from the inverse quantization unit 210 into pixel data. The adder 215 adds the predicted image data from the predicted image generation unit 205 to the output of the inverse integer conversion unit 211. Thereby, the image data is restored. The output image data of the adder 215 is supplied to the predicted image generation unit 205 and the loop filter 212 as reference image data.

ループフィルタ212は、加算器215の出力画像データに、ブロック境界で発生する符号化歪みを軽減するフィルタ処理を施し、フレームメモリ201に格納する。   The loop filter 212 performs filter processing to reduce the coding distortion generated at the block boundary on the output image data of the adder 215 and stores the filter image in the frame memory 201.

図3は、本実施例の符号化処理のフローチャートを示す。図3に示す処理は、グラデーション検出部102、分散値算出部103、イントラスムージング処理決定部104およびビットストリーム生成部213により実行される。図3に示す処理は、入力フレーム画像単位に繰り返して実行される。演算負担を軽減する見地からは、図3に示す処理を、人間の視覚特性上、変化を検知しやすい輝度成分について実行するようにしてもよい。   FIG. 3 shows a flowchart of the encoding process of the present embodiment. The processing illustrated in FIG. 3 is executed by the gradation detection unit 102, the variance value calculation unit 103, the intra smoothing processing determination unit 104, and the bit stream generation unit 213. The processing shown in FIG. 3 is repeatedly executed for each input frame image. From the viewpoint of reducing the calculation burden, the processing shown in FIG. 3 may be executed for a luminance component that easily detects a change in human visual characteristics.

S301で、グラデーション検出部102は、分散値算出部103により入力フレーム画像データについて全CTUブロック分の分散値VARを計算済みか否かを判断する。全CTUブロックについて分散値を算出済みの場合(S301でTRUE)、S305に遷移し、分散値を未算出のCTUブロック画像が残っている場合(S301でFALSE)、S302に遷移する。   In S301, the gradation detection unit 102 determines whether or not the variance value VAR for all CTU blocks has been calculated for the input frame image data by the variance value calculation unit 103. If the variance value has been calculated for all CTU blocks (TRUE in S301), the process proceeds to S305. If a CTU block image for which the variance value has not been calculated remains (FALSE in S301), the process proceeds to S302.

S302で、分散値算出部103は、各CTUブロック画像の分散値VARを一つずつ計算する。ここでは、分散値算出部103は、所定の画像ブロック内の全画素に対して、各画素値の二乗和の平均値から全画素の平均値の二乗を減じた値を、分散値VARとして計算する。すなわち、

Figure 2018050150
分散値VARは、画像ブロックにおける画素値の散らばり具合を示す指標である。分散値が大きいと画素のバラツキが大きく複雑な絵柄であると判断できる。他方、分散値VARが小さい場合、平坦な絵柄であると判断できる。 In S302, the variance value calculation unit 103 calculates the variance value VAR of each CTU block image one by one. Here, the variance value calculation unit 103 calculates, as the variance value VAR, the value obtained by subtracting the square of the average value of all the pixels from the average value of the square sum of the pixel values for all the pixels in the predetermined image block. To do. That is,
Figure 2018050150
The variance value VAR is an index indicating the degree of dispersion of pixel values in the image block. If the variance value is large, it can be determined that the pixel variation is large and the pattern is complicated. On the other hand, when the variance value VAR is small, it can be determined that the pattern is flat.

S302に続くS303で、グラデーション検出部102は、S302で算出された分散値が閾値未満かどうかを判断する。この閾値は、グラデーション画像のような平坦な絵柄の場合に取り得る値として予め定められる。この閾値は、分散値を計算するブロック画像の大きさに依存するが、32×32画素または64×64画素のマクロブロックサイズの場合、10から100程度に設定されるのが好ましい。ブロック画像の分散値が閾値未満である場合(S303でTRUE)、S304に遷移する。他方、ブロック画像の分散値が閾値以上である場合(S303でFALSE)、S301に戻って、次のCTUブロック画像について処理を繰り返す。   In S303 following S302, the gradation detection unit 102 determines whether or not the variance value calculated in S302 is less than a threshold value. This threshold value is determined in advance as a value that can be taken in the case of a flat pattern such as a gradation image. This threshold value depends on the size of the block image for which the variance value is calculated, but is preferably set to about 10 to 100 in the case of a macroblock size of 32 × 32 pixels or 64 × 64 pixels. If the variance value of the block image is less than the threshold value (TRUE in S303), the process proceeds to S304. On the other hand, when the variance value of the block image is equal to or larger than the threshold value (FALSE in S303), the process returns to S301 and the process is repeated for the next CTU block image.

S304で、グラデーション検出部102は、入力画像中に含まれるグラデーション画像と推定されるCTUブロック数の値をインクリメントする。この後、S301に戻って、次のCTUブロック画像について処理が繰り返される。   In S304, the gradation detection unit 102 increments the value of the number of CTU blocks estimated to be a gradation image included in the input image. Thereafter, the process returns to S301, and the process is repeated for the next CTU block image.

S305で、グラデーション検出部1102は、グラデーション画像と推定したCTUブロック数が予め定めた閾値以上であるかどうかを判断する。この閾値は、注目する入力フレーム画像中に分散値の小さい、すなわちグラデーション画像のような平坦な絵柄を多く含むか否かを判断するのに使用される。この閾値は、例えば、画面内の全CTUブロック中、8割から9割以上が平坦となる個数を目安として設定するものとする。入力フレーム画像が、グラデーション画像を多く含む場合(S305でTRUE)、S306に遷移する。入力フレーム画像に多くのオブジェクトやテクスチャ等の複雑な絵柄を含む分散値の大きな画像である場合(S305でFALSE)、S308に遷移する。   In step S305, the gradation detection unit 1102 determines whether the number of CTU blocks estimated as a gradation image is greater than or equal to a predetermined threshold value. This threshold value is used to determine whether or not the input frame image of interest includes a large number of flat patterns having a small variance value, that is, a gradation image. This threshold value is set, for example, as a guideline for the number of 80 to 90% or more of all CTU blocks in the screen that are flat. When the input frame image includes many gradation images (TRUE in S305), the process proceeds to S306. When the input frame image is an image with a large variance value including many patterns such as many objects and textures (FALSE in S305), the process proceeds to S308.

S306で、イントラスムージング処理決定部104は、イントラスムージング処理有効化信号を符号化部105に出力し、符号化部105は、このイントラスムージング処理有効化信号に従い入力フレーム画像データを符号化する。S307で、ビットストリーム生成部213は、符号化したピクチャデータについて、strong_intra_smoothing_enabled_flagを1に設定したSPSとスライスヘッダを関連付けたビットストリームを生成する。   In S306, the intra smoothing process determining unit 104 outputs the intra smoothing process enabling signal to the encoding unit 105, and the encoding unit 105 encodes the input frame image data in accordance with the intra smoothing process enabling signal. In step S307, the bit stream generation unit 213 generates a bit stream in which the SPS and the slice header associated with the strong_intra_smoothing_enabled_flag are set to 1 for the encoded picture data.

S308で、符号化部105は、フレーム画像データを、イントラスムージング処理を無効にして圧縮符号化する。S309で、ビットストリーム生成部213は、符号化したピクチャデータについて、strong_intra_smoothing_enabled_flagを0に設定したSPSとスライスヘッダを関連付けてビットストリーム生成する。   In S308, the encoding unit 105 compresses and encodes the frame image data with the intra smoothing process disabled. In step S309, the bit stream generation unit 213 generates a bit stream of the encoded picture data by associating the SPS with strong_intra_smoothing_enabled_flag set to 0 and a slice header.

ビットストリーム生成部213から出力されるビットストリームデータの構造を説明する。図4Aは、ステップS307およびS309において、イントラスムージング処理を有効にした場合のビットストリーム構造例を示し、図4Bは、パラメータセットの参照関係を示す。   The structure of the bit stream data output from the bit stream generation unit 213 will be described. FIG. 4A shows an example of a bit stream structure when the intra smoothing process is enabled in steps S307 and S309, and FIG. 4B shows a reference relationship of parameter sets.

図4Aに示すように、HEVC方式の符号化ビットストリ-ムでは、H.264方式と同じく複数のアクセスユニット(以下、「AU」という。)が復号順に連続したデータ構造が採用されている。各AUは、画面単位に復号化可能な符号化データから成る。AUは、開始位置を示すアクセスユニットデリミタ(AUD)、復号時に必要な各種パラメータを持つビデオパラメタセット(VPS)、及び、SPSまたはPPSと呼ばれる複数のNALユニットから構成される。実際のマクロブロック単位で符号化されたデータは、スライスデータとしてヘッダパラメタに続いて1ピクチャずつ格納される。   As shown in FIG. 4A, the HEVC encoded bitstream uses the H.264 standard. As in the H.264 system, a data structure in which a plurality of access units (hereinafter referred to as “AU”) are consecutive in decoding order is employed. Each AU consists of encoded data that can be decoded on a screen-by-screen basis. The AU includes an access unit delimiter (AUD) indicating a start position, a video parameter set (VPS) having various parameters necessary for decoding, and a plurality of NAL units called SPS or PPS. Data encoded in actual macroblock units is stored as slice data for each picture following the header parameter.

SPSまたはPPSと呼ばれるヘッダ情報は、規格上、ストリーム途中で変更可能である。例えば、絵柄に応じて量子化マトリクス及びデブロッキングフィルタ強度等のパラメータをAU単位にリロードできる。この機能を実現するには、ストリーム出力のタイミングで、符号化スライスデータと、この符号化スライスデータを復号する際に必要なヘッダ情報とを、それぞれのヘッダ情報に含まれる識別子(ID)によって関連付ける。   The header information called SPS or PPS can be changed in the middle of the stream according to the standard. For example, parameters such as a quantization matrix and deblocking filter strength can be reloaded in AU units according to the pattern. In order to realize this function, at the stream output timing, the encoded slice data and the header information necessary for decoding the encoded slice data are associated by the identifier (ID) included in each header information. .

図4Bは、VPS、SPS、PPS及びスライスデータ間の参照関係を示す。VPSは、当該VPSを識別するためのvps_video_parameter_set_idを持つ。SPSは、当該SPSが参照するVPSのIDを付したsps_video_parameter_set_idと、当該SPSを識別するためのsps_seq_parameter_set_idを持つ。同様に、PPSは、当該PPSが参照するSPSのIDを付したpps_seq_parameter_set_idと、当該PPSを識別するpps_pic_parameter_set_idを持つ。スライスヘッダは、当該スライスが参照するPPSのIDと、slice_pic_parameter_set_idを収容する。これら識別情報のリンクに基づいて、図4Bに矢印で示す参照関係のように、スライスデータからPPS、PPSからSPS、そしてSPSからVPSへと同じIDとなるヘッダ情報の関連づけを行う。これにより、AU単位で異なるヘッダを参照できるようになる。   FIG. 4B shows a reference relationship between VPS, SPS, PPS, and slice data. The VPS has vps_video_parameter_set_id for identifying the VPS. The SPS has sps_video_parameter_set_id with the ID of the VPS referred to by the SPS, and sps_seq_parameter_set_id for identifying the SPS. Similarly, the PPS has pps_seq_parameter_set_id with the ID of the SPS referred to by the PPS, and pps_pic_parameter_set_id for identifying the PPS. The slice header contains a PPS ID referenced by the slice and slice_pic_parameter_set_id. Based on the links of the identification information, as shown in the reference relationship indicated by arrows in FIG. 4B, the header information having the same ID is associated from the slice data to PPS, from PPS to SPS, and from SPS to VPS. Thereby, a different header can be referred for each AU.

図4Bに示す例では、スライス0およびスライス1に該当する入力画像が非グラデーション画像であり、スライス2に該当する部分がグラデーション画像である。この結果、これらスライス0,1に対して、strong_intra_smoothing_enabled_flag値が0のSPS0を参照する構成になっている。スライス2に対しては、strong_intra_smoothing_enabled_flag値が1のSPS2を参照するようになっている。これにより、スライス2の復号時には、スムージング処理を用いた予測画像を生成してブロック境界の歪みの無い再生画像を得ることができる。   In the example shown in FIG. 4B, the input image corresponding to slice 0 and slice 1 is a non-gradation image, and the portion corresponding to slice 2 is a gradation image. As a result, these slices 0 and 1 are configured to refer to SPS0 having a strong_intra_smoothing_enabled_flag value of 0. For slice 2, SPS2 having strong_intra_smoothing_enabled_flag value of 1 is referred to. Thereby, at the time of decoding of slice 2, it is possible to generate a predicted image using smoothing processing and obtain a reproduced image without block boundary distortion.

ステップS307,S309で行うイントラスムージング処理の有効または無効の設定は、符号化済みのスライスデータが生成された後に、それぞれ対応するフラグ値を有するSPSを予め用意してから関連づけるようにしても良い。   The setting for enabling or disabling the intra-smoothing process performed in steps S307 and S309 may be performed after preparing SPS having a corresponding flag value in advance after the encoded slice data is generated.

このように、実施例1では、符号化処理を行う前に入力画像データに対して分散値に基づきグラデーション画像かどうかを判別し、この判別結果に基づいて画面内予測時のイントラスムージング処理を制御する。   As described above, in the first embodiment, before performing the encoding process, it is determined whether or not the input image data is a gradation image based on the variance value, and the intra smoothing process at the time of intra prediction is controlled based on the determination result. To do.

入力画像データのダイナミックレンジを用いてグラデーション画像を判定する実施例2を説明する。図5は、実施例2を採用する撮像装置の概略構成ブロック図を示す。図1と同じ機能の構成要素には同じ符号を付してあり、詳細な説明を省略する。   A second embodiment in which a gradation image is determined using the dynamic range of input image data will be described. FIG. 5 is a block diagram illustrating a schematic configuration of an imaging apparatus that employs the second embodiment. Components having the same functions as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.

グラデーション検出部102に代わるグラデーション検出部502は、分散値算出部103に代わるダイナミックレンジ算出部503を有する。グラデーション検出部502は、ダイナミックレンジ算出部503により算出されるフレーム画像のダイナミックレンジにより入力画像の注目部分がグラデーション画像かどうかを判定することで、グラデーション画像を検出する。   A gradation detection unit 502 that replaces the gradation detection unit 102 includes a dynamic range calculation unit 503 that replaces the variance value calculation unit 103. The gradation detection unit 502 detects the gradation image by determining whether the target portion of the input image is a gradation image based on the dynamic range of the frame image calculated by the dynamic range calculation unit 503.

図6は、図3に代わる実施例2の動作フローチャートを示す。なお、S605〜S609の処理は、それぞれ、S305〜S309の処理と同じである。   FIG. 6 shows an operation flowchart of the second embodiment instead of FIG. Note that the processes in S605 to S609 are the same as the processes in S305 to S309, respectively.

S601で、グラデーション検出部502は、ダイナミックレンジ算出部503により入力フレーム画像データについて全CTUブロック分のダイナミックレンジを計算済みか否かを判断する。全CTUブロックについてダイナミックレンジを算出済みの場合(S601でTRUE)、S605に遷移し、ダイナミックレンジを未算出のCTUブロック画像が残っている場合(S601でFALSE)、S602に遷移する。   In step S <b> 601, the gradation detection unit 502 determines whether the dynamic range calculation unit 503 has calculated the dynamic range for all CTU blocks for the input frame image data. If the dynamic range has been calculated for all CTU blocks (TRUE in S601), the process proceeds to S605. If a CTU block image whose dynamic range has not been calculated remains (FALSE in S601), the process proceeds to S602.

S602で、ダイナミックレンジ算出部503は、注目するCTUブロックのダイナミックレンジを算出する。例えば、ダイナミックレンジ算出部503は、CTUブロック中の全画素における最大画素値と最小画素値の差を算出し、ダイナミックレンジとする。図7は、非グラデーション画像とグラデーション画像について、画像とそのヒストグラムの例を示す。図7(a)は、非グラデーション画像の例を示し、図7(b)はグラデーション画像の例を示す。図7(c)は、図7(a)に示す非グラデーション画像の画素値に対するヒストグラム例を示す。図7(d)は、図7(b)に示すグラデーション画像の画素値に対するヒストグラム例を示す。図7(c)、(d)で横軸は、注目する領域または画像に含まれる画素の画素値を示す。図7に示すように、被写体・物体を含む図7(a)に示すような画像の場合、そのヒストグラム形状は、図7(c)に示すように、山が複数で広範な画素値分布となり、ダイナミックレンジが広くなる。他方、図7(b)に示すように空などの平坦なグラデーションの画像の場合、画素値に対するヒストグラムは、図7(d)に示すように、ピークが無いかまたは一つの、特定の画素値レンジに集中する狭ダイナミックレンジになる。   In step S602, the dynamic range calculation unit 503 calculates the dynamic range of the CTU block of interest. For example, the dynamic range calculation unit 503 calculates the difference between the maximum pixel value and the minimum pixel value in all the pixels in the CTU block, and sets it as the dynamic range. FIG. 7 shows an example of an image and its histogram for a non-gradation image and a gradation image. FIG. 7A shows an example of a non-gradation image, and FIG. 7B shows an example of a gradation image. FIG. 7C shows an example of a histogram for the pixel values of the non-gradation image shown in FIG. FIG. 7D shows an example of a histogram for the pixel values of the gradation image shown in FIG. 7C and 7D, the horizontal axis indicates the pixel value of the pixel included in the region of interest or the image. As shown in FIG. 7, in the case of the image as shown in FIG. 7A including the subject / object, the histogram shape has a wide pixel value distribution with a plurality of mountains as shown in FIG. 7C. The dynamic range becomes wider. On the other hand, in the case of a flat gradation image such as the sky as shown in FIG. 7 (b), the histogram for the pixel value has no specific peak or one specific pixel value as shown in FIG. 7 (d). A narrow dynamic range that concentrates on the range.

S602に続くS603で、グラデーション検出部502は、S602で算出されたダイナミックレンジが閾値未満かどうかを判断する。この閾値は、グラデーション画像のような平坦な絵柄の場合に取り得る値として予め定められる。例えば、入力画像が8ビットで表現される場合、最大255階調のダイナミックレンジを有するが、その内の数パーセントから数十パーセント程度に、閾値を設定する。グラデーション検出部502は、輝度変化の少ない又は無い平坦な色調の画像を検出していることになる。   In step S603 following step S602, the gradation detection unit 502 determines whether the dynamic range calculated in step S602 is less than a threshold value. This threshold value is determined in advance as a value that can be taken in the case of a flat pattern such as a gradation image. For example, when the input image is expressed by 8 bits, the threshold value is set from several percent to several tens of percent of the dynamic range with a maximum of 255 gradations. The gradation detection unit 502 detects an image with a flat color tone with little or no change in luminance.

ブロック画像のダイナミックレンジが閾値未満である場合(S603でTRUE)、S604に遷移する。他方、ブロック画像のダイナミックレンジが閾値以上である場合(S603でFALSE)、S601に戻って、次のCTUブロック画像について処理を繰り返す。   When the dynamic range of the block image is less than the threshold (TRUE in S603), the process proceeds to S604. On the other hand, if the dynamic range of the block image is greater than or equal to the threshold (FALSE in S603), the process returns to S601 and the process is repeated for the next CTU block image.

S605以降の処理は、図3のS305以降の処理と同じなので、説明を省略する。   The processing after S605 is the same as the processing after S305 in FIG.

このように、実施例2では、入力画像データのダイナミックレンジを用いてグラデーション画像かどうかを判定し、この判断結果に基づいて画面内予測時におけるイントラスムージング処理を制御する。   As described above, in the second embodiment, it is determined whether the image is a gradation image using the dynamic range of the input image data, and the intra smoothing process at the time of intra prediction is controlled based on the determination result.

入力画像を小さな複数のブロック画像に分割し、各ブロック画像の周波数変換係数中に高周波成分が出現しない場合に、DC成分値によりグラデーション画像かどうかを判定する実施例3を説明する。図8は、実施例3を採用する撮像装置の概略構成ブロック図を示す。図1と同じ機能の構成要素には同じ符号を付してあり、詳細な説明を省略する。   Embodiment 3 will be described in which an input image is divided into a plurality of small block images, and when a high frequency component does not appear in the frequency conversion coefficient of each block image, it is determined whether or not the image is a gradation image based on a DC component value. FIG. 8 shows a schematic block diagram of an imaging apparatus that employs the third embodiment. Components having the same functions as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.

グラデーション検出部102に代わるグラデーション検出部802は、分散値算出部103に代えて、周波数変換部806及びDC成分取得部807を有する。周波数変換部806は、入力画像をCTUブロックより小さいサイズのブロック画像に分割し、各ブロック画像の画素値を周波数変換する。DC成分取得部807は、周波数変換部806による周波数変換の結果からCTUブロックサイズ内のDC成分値を抽出し、DC成分の最大値と最小値の差を計算する。この差は、実施例2におけるダイナミックレンジに相当する。グラデーション検出部502は、DC成分取得部807により算出されるDC成分の最大値と最小値の差によりグラデーション画像かどうかを判定することで、グラデーション画像を検出する。   A gradation detection unit 802 that replaces the gradation detection unit 102 includes a frequency conversion unit 806 and a DC component acquisition unit 807 instead of the variance value calculation unit 103. The frequency conversion unit 806 divides the input image into block images having a size smaller than the CTU block, and frequency-converts the pixel values of each block image. The DC component acquisition unit 807 extracts the DC component value within the CTU block size from the frequency conversion result by the frequency conversion unit 806, and calculates the difference between the maximum value and the minimum value of the DC component. This difference corresponds to the dynamic range in the second embodiment. The gradation detection unit 502 detects a gradation image by determining whether the image is a gradation image based on the difference between the maximum value and the minimum value of the DC component calculated by the DC component acquisition unit 807.

図9は、図8に示す実施例3の動作フローチャートを示す。図9を参照して、実施例3の動作を説明する。   FIG. 9 shows an operation flowchart of the third embodiment shown in FIG. The operation of the third embodiment will be described with reference to FIG.

S901で、グラデーション検出部802は、入力フレーム画像データの全CTUブロックについてグラデーション画像か否かを判定済みかどうかを判断する。全CTUブロックについてグラデーション画像か否かを判定した場合(S901でTRUE)、S908に遷移し、未判定のCTUブロック画像が残っている場合(S901でFALSE)、S902に遷移する。   In step S901, the gradation detection unit 802 determines whether all CTU blocks of the input frame image data have been determined as gradation images. If it is determined whether all CTU blocks are gradation images (TRUE in S901), the process proceeds to S908, and if an undetermined CTU block image remains (FALSE in S901), the process proceeds to S902.

S902で、グラデーション検出部802は、周波数変換を行うために、注目するCTUブロック画像をさらに小さな複数のブロック画像に分割する。CTUサイズを32×32画素または64×64画素としてグラデ-ション判定を行う単位としている場合、分割後のブロックサイズを16×16画素または8×8画素等の約数で表現できるサイズに設定する。   In step S902, the gradation detection unit 802 divides the CTU block image of interest into a plurality of smaller block images in order to perform frequency conversion. If the CTU size is 32 × 32 pixels or 64 × 64 pixels and the unit for performing the gradation determination is set, the divided block size is set to a size that can be expressed by a divisor such as 16 × 16 pixels or 8 × 8 pixels. .

S903で、グラデーション検出部802は周波数変換部806により、S902で分割したブロック画像を周波数変換させる。周波数変換方式は、アダマール変換、整数精度の離散コサイン変換(DCT)及び実数精度DCT等の公知技術のいずれかを適用してもよい。本発明は、特定の周波数変換方式に限定されない。   In step S903, the gradation detection unit 802 causes the frequency conversion unit 806 to perform frequency conversion on the block image divided in step S902. As the frequency conversion method, any of known techniques such as Hadamard transform, integer precision discrete cosine transform (DCT), and real number precision DCT may be applied. The present invention is not limited to a specific frequency conversion method.

S904で、グラデーション検出部802は、周波数変換部806の出力から周波数変換の係数値を取得し、高周波成分の係数値が書定数以上存在するか否かを判断する。高周波成分の信号を多く持つことは、画像の特性としてエッジやテクスチャを含むことを示すものであり、イントラスムージング処理を施すに適したグラデーション画像ではないと判断できる。逆に、CTUブロック中の分割小ブロック画像に高周波成分が存在しないか少ない場合、グラデーション画像である可能性が高い。そこで、CTUブロック中の分割小ブロック画像に高周波成分が存在しないか少ない場合(S904でFALSE)、S905に遷移する。当該ブロック画像に高周波成分を多く含まれる場合(S904でTRUE)、S901に戻り、次のCTUブロック画像について処理を繰り返す。   In step S <b> 904, the gradation detection unit 802 obtains a frequency conversion coefficient value from the output of the frequency conversion unit 806, and determines whether the coefficient value of the high frequency component is greater than or equal to the writing constant. Having a lot of high-frequency component signals indicates that the image characteristics include edges and textures, and it can be determined that the image is not a gradation image suitable for performing the smoothing process. On the other hand, when the divided small block image in the CTU block has no high frequency component or a small amount, the possibility of a gradation image is high. Therefore, when the high-frequency component does not exist or is small in the divided small block image in the CTU block (FALSE in S904), the process proceeds to S905. If the block image includes a lot of high-frequency components (TRUE in S904), the process returns to S901, and the process is repeated for the next CTU block image.

S905で、グラデーション検出部802のDC成分取得部807が、S903で求めたCTUブロック内の全周波数成分の係数の内、図10に示すように分割小ブロック単位で導出した周波数領域のDC成分を取得する。図10(a)は、CTUブロック画像の直交変換の関係を示す。図10(b)は非グラデーション画像のDC成分値の分布例を示し、図10(c)は、グラデーション画像のDC成分値の分布例を示す。   In S905, the DC component acquisition unit 807 of the gradation detection unit 802 calculates the DC component in the frequency domain derived in units of divided small blocks, as shown in FIG. 10, among the coefficients of all frequency components in the CTU block obtained in S903. get. FIG. 10A shows the relationship of orthogonal transformation of CTU block images. FIG. 10B shows a distribution example of DC component values of a non-gradation image, and FIG. 10C shows a distribution example of DC component values of a gradation image.

DC成分は分割小ブロック内の画素値の平均値であり、分割小ブロックの明るさを示す指標である。DC成分が画像明るさを示す指標であることから、平坦ではあるがグラデーションを含まない画像では、CTUサイズ内でも明るさの変化が存在する。この場合、図10(b)に示すように、DC成分の最小値と最大値の差が大きくなる。他方、グラデーション画像の場合、分割小ブロック単位での明るさがCTU単位でもほとんど変わらず、この結果、図10(c)に示すように、DC成分の最小値と最大値の差が少なくなる。   The DC component is an average value of pixel values in the divided small block and is an index indicating the brightness of the divided small block. Since the DC component is an index indicating the image brightness, in a flat image that does not include gradation, a change in brightness exists even within the CTU size. In this case, as shown in FIG. 10B, the difference between the minimum value and the maximum value of the DC component becomes large. On the other hand, in the case of a gradation image, the brightness in divided small block units hardly changes even in CTU units. As a result, as shown in FIG. 10C, the difference between the minimum value and the maximum value of the DC component is reduced.

S906で、グラデーション検出部802は、このような画像特性に基づいて、グラデーション画像かどうかを判定する。すなわち、グラデーション検出部802は、DC成分の最大値と最小値の差を算出し、この差値が予め定めた所定値未満か否かでグラデーション画像かどうかを判定し、グラデーション画像を決定する。差値が所定値未満であった場合(S906でTRUE)、S907に遷移する。他方、差値が所定値以上である場合(S906でFALSE)、S901に戻って、次のCTUブロック画像について処理を繰り返す。   In step S906, the gradation detection unit 802 determines whether the image is a gradation image based on such image characteristics. That is, the gradation detection unit 802 calculates the difference between the maximum value and the minimum value of the DC component, determines whether the difference value is less than a predetermined value, and determines whether the gradation image is a gradation image. If the difference value is less than the predetermined value (TRUE in S906), the process proceeds to S907. On the other hand, if the difference value is equal to or greater than the predetermined value (FALSE in S906), the process returns to S901 and the process is repeated for the next CTU block image.

S907で、S304と同様に、グラデーション検出部802は、入力画像中に含まれるグラデーション画像と推定されるCTUブロック数の値をインクリメントする。この後、S901に戻って、次のCTUブロック画像について処理が繰り返される。   In S907, as in S304, the gradation detection unit 802 increments the value of the number of CTU blocks estimated as a gradation image included in the input image. Thereafter, the process returns to S901, and the process is repeated for the next CTU block image.

S908〜S912の処理は、それぞれ、図3のS305〜S309の処理と同じである。   The processing of S908 to S912 is the same as the processing of S305 to S309 in FIG.

このように、実施例3では、DC成分の最大値と最小値の差によりグラデーション画像を判定し、この判定結果に基づいてイントラスムージング処理を有効または無効に制御する。   As described above, in the third embodiment, the gradation image is determined based on the difference between the maximum value and the minimum value of the DC component, and the intra smoothing process is controlled to be valid or invalid based on the determination result.

連続して所定回数以上グラデーション検出し、または検出しないときに、イントラスムージング処理の有効/無効を切り替えるようにした実施例4を説明する。実施例4では、動作シーケンス中のフラッシュや点滅等、一瞬だけオブジェクトが画面内に現れたような時にイントラスムージング処理を無効化または有効化されてしまうことで動画画質を損なうことを防止できる。   Embodiment 4 will be described in which the gradation smoothing processing is switched between valid / invalid when gradation is continuously detected a predetermined number of times or not. In the fourth embodiment, it is possible to prevent the image quality from being deteriorated by invalidating or enabling the intra smoothing process when an object appears on the screen for a moment, such as flashing or blinking in an operation sequence.

図11は、実施例4を採用する撮像装置の概略構成ブロック図を示す。図1と同じ機能の構成要素には同じ符号を付してあり、詳細な説明を省略する。   FIG. 11 is a block diagram illustrating a schematic configuration of an imaging apparatus that employs the fourth embodiment. Components having the same functions as those in FIG. 1 are denoted by the same reference numerals, and detailed description thereof is omitted.

グラデーション検出部102に代わるグラデーション検出部1102は、分散値算出部103に加えて、連続検出回数計数部1107を有する。連続検出回数計数部1107は、グラデーション検出の連続回数及び非グラデーション検出の連続回数を計算する。本実施例では、グラデーション画像または非グラデーション画像の連続検出回数に応じて、符号化のイントラスムージング処理の有効化・無効化を制御する。実施例2および実施例3に示す構成においても、連続検出回数計数部1107の処理を追加することもできる。   A gradation detection unit 1102 instead of the gradation detection unit 102 includes a continuous detection number counting unit 1107 in addition to the variance value calculation unit 103. The continuous detection number counting unit 1107 calculates the continuous number of gradation detections and the continuous number of non-gradation detections. In the present embodiment, the validity / invalidity of the encoding intra-smoothing process is controlled in accordance with the number of continuous detections of the gradation image or the non-gradation image. Also in the configurations shown in the second and third embodiments, the processing of the continuous detection number counting unit 1107 can be added.

CPU1116は、図11に示す撮像装置を全体的に制御する。特に、CPU1116は、操作部1117によるユーザ操作に従い、符号化部105の符号化の開始と終了を制御する。CPU1116が、グラデーション検出部1102及びイントラスムージング処理決定部104の機能をCPU1116上で動作するプログラムにより実現しても良い。   The CPU 1116 generally controls the imaging apparatus illustrated in FIG. In particular, the CPU 1116 controls the start and end of encoding of the encoding unit 105 in accordance with a user operation by the operation unit 1117. The CPU 1116 may realize the functions of the gradation detection unit 1102 and the intra smoothing process determination unit 104 by a program operating on the CPU 1116.

図12は、実施例4の動作フローチャートを示す。図12に示す処理は、符号化すべき入力画像データが無くなるまで、繰り返し実行される。   FIG. 12 shows an operation flowchart of the fourth embodiment. The process shown in FIG. 12 is repeatedly executed until there is no input image data to be encoded.

S1201で、CPU1116は、符号化部105に入力するフレーム画像が符号化すべき最終フレームかどうかを判定する。これは例えば、ユーザが操作部1117により録画停止をCPU1116に指示したときに発生しうる。最終フレームの場合(S1201でTRUE)、CPU1116は、図12に示すフローを終了する。最終フレームでない場合、すなわち、符号化すべき入力画像がある場合(S1201でFALSE)、S1202に遷移する。ス入力フレーム画像データの全CTUブロックについて分散値を算出済みの場合(S1202でTRUE)、S1206に遷移し、分散値を未算出のCTUブロック画像が残っている場合(S1202でFALSE)、S1203に遷移する。テップS1202〜S1205はそれぞれ、S301〜S305の処理と同じなので、説明を省略する。   In step S1201, the CPU 1116 determines whether the frame image input to the encoding unit 105 is the final frame to be encoded. This can occur, for example, when the user instructs the CPU 1116 to stop recording using the operation unit 1117. In the case of the final frame (S1201: TRUE), the CPU 1116 ends the flow shown in FIG. If it is not the last frame, that is, if there is an input image to be encoded (FALSE in S1201), the process proceeds to S1202. If the variance value has been calculated for all CTU blocks of the input frame image data (TRUE in S1202), the process proceeds to S1206, and if the CTU block image for which the variance value has not been calculated remains (FALSE in S1202), Transition. Steps S1202 to S1205 are the same as the processes of S301 to S305, respectively, and thus description thereof is omitted.

S1206で、グラデーション検出部1102は、S305と同様に、グラデーション画像と推定したCTUブロック数が予め定めた閾値以上であるかどうかを判断する。入力フレーム画像がグラデーション画像を多く含む場合(S1205でTRUE)、S1207に遷移する。入力フレーム画像に多くのオブジェクトやテクスチャ等の複雑な絵柄を含む分散値の大きな画像である場合(S1206でFALSE)、S1214に遷移する。   In step S1206, the gradation detection unit 1102 determines whether the number of CTU blocks estimated as a gradation image is equal to or greater than a predetermined threshold, as in step S305. When the input frame image includes a lot of gradation images (TRUE in S1205), the process proceeds to S1207. When the input frame image is an image with a large variance value including many patterns such as many objects and textures (FALSE in S1206), the process proceeds to S1214.

S1207で、グラデーション検出部1102は、連続検出回数計数部1107の非グラデーション画像連続フレーム数CNGRをゼロに初期化する。S1208で、グラデーション検出部1102は、グラデーション画像連続フレーム数CGRDに1を加算するインクリメント処理を行い、S1209に遷移する。 In step S <b> 1207, the gradation detection unit 1102 initializes the non-gradation image continuous frame number C NGR of the continuous detection number counting unit 1107 to zero. In step S1208, the gradation detection unit 1102 performs an increment process of adding 1 to the gradation image continuous frame number C GRD , and the process proceeds to step S1209.

S1209で、グラデーション検出部1102は、グラデーション画像連続フレーム数CGRDが所定値以上か否かを判断する。所定フレーム期間以上連続してグラデーション画像であった場合(S1209でTRUE)、ステップS1210に遷移する。グラデーション画像連続フレーム数CGRDが所定フレーム期間未満の場合は(S1209でFALSE)、ステップS1212に遷移する。 In step S1209, the gradation detection unit 1102 determines whether the gradation image continuous frame number C GRD is equal to or greater than a predetermined value. If the image is a gradation image continuously for a predetermined frame period or longer (TRUE in S1209), the process proceeds to step S1210. When the gradation image continuous frame number C GRD is less than the predetermined frame period (FALSE in S1209), the process proceeds to step S1212.

S1210で、イントラスムージング処理決定部104は、S306と同様に、イントラスムージング処理有効化信号を符号化部105に出力する。符号化部105は、このイントラスムージング処理有効化信号に従い入力フレーム画像データを符号化する。S1211で、ビットストリーム生成部213はS307と同じようにビットストリームを生成する。すなわち、ビットストリーム生成部213は符号化したピクチャデータについてstrong_intra_smoothing_enabled_flagを1に設定したSPSとスライスヘッダを関連付けたビットストリームを生成する。S1211の後、S1201に戻る。   In S1210, the intra smoothing process determination unit 104 outputs an intra smoothing process enable signal to the encoding unit 105, as in S306. The encoding unit 105 encodes the input frame image data in accordance with the intra smoothing processing enabling signal. In step S1211, the bit stream generation unit 213 generates a bit stream in the same manner as in step S307. That is, the bit stream generation unit 213 generates a bit stream in which the SPS and the slice header associated with the strong_intra_smoothing_enabled_flag are set to 1 for the encoded picture data. After S1211, the process returns to S1201.

S1212で、符号化部105は、S308と同様に、フレーム画像データを、イントラスムージング処理を無効にして圧縮符号化する。S1213で、ビットストリーム生成部213は、S309と同様に、符号化したピクチャデータについて、strong_intra_smoothing_enabled_flagを0に設定したSPSとスライスヘッダを関連付けてビットストリーム生成する。S1213の後、S1201に戻る。   In S1212, the encoding unit 105 compresses and encodes the frame image data with the intra smoothing process disabled as in S308. In step S1213, the bit stream generation unit 213 generates a bit stream for the encoded picture data by associating the SPS with strong_intra_smoothing_enabled_flag set to 0 and the slice header for the encoded picture data. After S1213, the process returns to S1201.

S1214で、グラデーション検出部1102は、連続検出回数計数部1107のグラデーション画像連続フレーム数CGRDをゼロに初期化する。S1215で、グラデーション検出部1102は、非グラデーション画像連続フレーム数CNGRに1を加算するインクリメント処理を行い、S1216に遷移する。 In step S1214, the gradation detection unit 1102 initializes the gradation image continuous frame number C GRD of the continuous detection number counting unit 1107 to zero. In step S1215, the gradation detection unit 1102 performs an increment process of adding 1 to the non-gradation image continuous frame number CNGR , and the process proceeds to step S1216.

S1218で、グラデーション検出部1102は、非グラデーション画像連続フレーム数CNGRが所定値以上か否かを判断する。所定フレーム期間以上連続して非グラデーション画像であった場合(S1218でTRUE)、ステップS1212に遷移する。非グラデーション画像連続フレーム数CNGRが所定フレーム期間未満の場合(S1218でFALSE),ステップS1210に遷移する。 In step S1218, the gradation detection unit 1102 determines whether the non-gradation image continuous frame number C NGR is equal to or greater than a predetermined value. If it is a non-gradation image continuously for a predetermined frame period or longer (TRUE in S1218), the process proceeds to step S1212. When the non-gradation image continuous frame number C NGR is less than the predetermined frame period (FALSE in S1218), the process proceeds to step S1210.

グラデーション画像連続フレーム数CGRDの閾値(S1209)は例えば、ランダムアクセス再生を行う画面内符号化ピクチャ(Iピクチャ)から次のIピクチャまでのフレーム枚数に設定される。他には、いわゆるGOP長に相当するフレーム数、またはIピクチャおよび前方参照ピクチャ(Pピクチャ)の参照フレーム間の距離に相当するフレーム数でもよい。非グラデーション画像連続フレーム数CNGRの閾値(S1216)も、これらの何れかに設定されるのが好ましい。 The threshold value of the gradation image continuous frame number C GRD (S1209) is set to, for example, the number of frames from the intra-picture coded picture (I picture) to be subjected to random access reproduction to the next I picture. Alternatively, it may be the number of frames corresponding to the so-called GOP length or the number of frames corresponding to the distance between the reference frames of the I picture and the forward reference picture (P picture). The threshold value of the non-gradation image continuous frame number CNGR (S1216) is also preferably set to any one of these.

図13は、実施例4における画像とスムージング処理の制御の例を示す。図13(a)は、比較用に、実施例4による連続回数による制御を適用しない例を示し、図13(b)は、本実施例4による例を示す。図13では、入力画像例として、グラデーションを背景として、小さなオブジェクトが画面左下から右上に時間経過とともに移動するシーンを示している。そして、シーン途中の3番目のフレームに突然画面内に多くのエッジとテクスチャを含むオブジェクトが出現する。画像例の下側に、イントラスムージング処理の有効(ON)・無効(OFF)状態を示した。   FIG. 13 shows an example of image and smoothing control in the fourth embodiment. FIG. 13A shows an example in which the control based on the continuous number according to the fourth embodiment is not applied for comparison, and FIG. 13B shows an example according to the fourth embodiment. FIG. 13 shows a scene in which a small object moves from the lower left to the upper right of the screen as time elapses as an input image example with gradation as the background. Then, an object containing many edges and textures suddenly appears in the third frame in the middle of the scene. On the lower side of the image example, the valid (ON) / invalid (OFF) state of the intra smoothing process is shown.

実施例1から3では、図13(a)に例示したように、急な入力画像のシーンが切り替わると、そのフレームだけスムージング処理が無効になる。他方、実施例4による連続検出回数計数部1107を用いたフィルタ処理の切替えを行った場合、図中(b)に示すように、3番目のフレームに対してもスムージング処理を有効(ON)にしたまま、符号化が行われる。このような制御によって、視覚上ユーザに対して急な画質変化の発生を抑止でき、動画像としての画質を維持または向上できる。   In the first to third embodiments, as illustrated in FIG. 13A, when a scene of a sudden input image is switched, the smoothing process is invalidated only for that frame. On the other hand, when the filter processing is switched using the continuous detection number counting unit 1107 according to the fourth embodiment, the smoothing processing is enabled (ON) for the third frame as shown in FIG. Then, encoding is performed. By such control, it is possible to suppress a sudden change in image quality visually for the user, and maintain or improve the image quality as a moving image.

グラデーション検出部102,502,802,1102、イントラスムージング処理決定部104及び符号化部105の機能の一部または全部は、コンピュータ上で動作するコンピュータプログラムにより実現できる。また、動画の符号化に適用した実施例を説明したが、画面内予測に限る機能は、静止画の符号化にも適用可能である。   Part or all of the functions of the gradation detection units 102, 502, 802, and 1102, the intra smoothing processing determination unit 104, and the encoding unit 105 can be realized by a computer program that runs on a computer. Moreover, although the Example applied to the encoding of a moving image was demonstrated, the function limited to the prediction in a screen is applicable also to the encoding of a still image.

Claims (10)

入力画像を符号化する画像符号化装置であって、
前記入力画像を符号化ブロック単位で符号化する符号化手段であって、画面内予測モードにおいて符号化ブロック境界の参照画素を線形補間するモードを有する符号化手段と、
前記符号化手段が符号化しようとする前記符号化ブロックに対して所定の画素ブロック単位でグラデーション画像かいなかを検出するグラデーション検出手段と、
前記符号化手段が符号化対象ブロック画像に対して前記画面内予測モードでの参照画像の線形補間処理の適用可否を決定するイントラスムージング処理決定手段であって、前記グラデーション検出手段により前記グラデーション画像と判定された前記画素ブロック数が所定数以上になったとき、前記線形補間の有効化を前記符号化手段に指示するイントラスムージング処理決定手段
とを有することを特徴とする画像符号化装置。
An image encoding device for encoding an input image,
Coding means for coding the input image in coding block units, the coding means having a mode for linearly interpolating reference pixels at the coding block boundary in the intra prediction mode;
Gradation detecting means for detecting whether or not the gradation image is in a predetermined pixel block unit with respect to the encoded block to be encoded by the encoding means;
The encoding means is an intra-smoothing process determining means for determining whether or not to apply a linear interpolation process of the reference image in the intra prediction mode to the block image to be encoded, the gradation detecting means and the gradation image An image encoding apparatus comprising: an intra-smoothing process determining unit that instructs the encoding unit to validate the linear interpolation when the determined number of pixel blocks exceeds a predetermined number.
前記グラデーション検出手段は、前記所定の画素ブロック単位の画像データの画素値から分散値を算出する分散値算出手段を有し、
当該分散値が所定値未満だった場合、前記所定の画素ブロック単位の画像データがグラデーション画像を含むと判断する
ことを特徴とする請求項1に記載の画像符号化装置。
The gradation detection means includes a dispersion value calculation means for calculating a dispersion value from a pixel value of the image data of the predetermined pixel block unit,
2. The image encoding apparatus according to claim 1, wherein if the variance value is less than a predetermined value, it is determined that the image data in the predetermined pixel block unit includes a gradation image.
前記グラデーション検出手段は、前記所定の画素ブロック単位の画像データについて画素値の最大値と最小値の差を計算するダイナミックレンジ算出手段を有し、
前記ダイナミックレンジが所定値未満だった場合、当該所定の画素ブロック単位の画像データがグラデーション画像を含むと判断する
ことを特徴とする請求項1に記載に画像符号化装置。
The gradation detection means includes dynamic range calculation means for calculating a difference between a maximum value and a minimum value of pixel values for the image data in the predetermined pixel block unit,
2. The image encoding apparatus according to claim 1, wherein when the dynamic range is less than a predetermined value, it is determined that the image data of the predetermined pixel block unit includes a gradation image.
前記グラデーション検出手段は、
前記所定の画素ブロック単位の画像データをさらに小さな画素ブロックに分割して、周波数変換する周波数変換手段と、
前記周波数変換手段による周波数変換の係数値からDC成分のみを抽出するDC成分取得手段
とを有し、
前記DC成分取得手段で取得したDC成分値の最大と最小の差が所定値未満だった場合、前記所定の画素ブロック単位の画像データはグラデーション画像を含むと判断する
ことを特徴とする請求項1に記載の画像符号化装置。
The gradation detecting means includes
Frequency conversion means for dividing the image data of the predetermined pixel block unit into smaller pixel blocks and performing frequency conversion;
DC component acquisition means for extracting only the DC component from the coefficient value of the frequency conversion by the frequency conversion means,
2. The image data of the predetermined pixel block unit is determined to include a gradation image when the difference between the maximum and minimum DC component values acquired by the DC component acquisition means is less than a predetermined value. The image encoding device described in 1.
前記グラデーション検出手段は、グラデーション検出の結果の連続検出回数を計数する連続検出回数計数手段を有し、
前記イントラスムージング処理決定手段は、前記連続検出回数計数手段に従い、前記グラデーション画像が所定フレーム期間、連続する場合に、符号化対象ブロック画像に対するイントラスムージング処理の適用可否を切り替える
ことを特徴とする請求項1から6のいずれか1項に記載の画像符号化装置。
The gradation detection means has continuous detection number counting means for counting the number of continuous detections of the result of gradation detection,
The intra-smoothing process determining means switches whether to apply the intra-smoothing process to the encoding target block image when the gradation image continues for a predetermined frame period according to the continuous detection frequency counting means. The image encoding device according to any one of 1 to 6.
前記イントラスムージング処理決定手段は、前記連続検出回数計数手段に従い、前記グラデーション画像でない非グラデーション画像が所定フレーム期間、連続する場合に、符号化画像に対するイントラスムージング処理の適用可否を切り替えることを特徴とする請求項5に記載の画像符号化装置。   The intra-smoothing process determining means switches whether to apply the intra-smoothing process to the encoded image when the non-gradation image that is not the gradation image continues for a predetermined frame period according to the continuous detection frequency counting means. The image encoding device according to claim 5. 前記グラデーション検出手段は、グラデーション検出の結果の連続検出回数を計数する連続検出回数計数手段を有し、
前記イントラスムージング処理決定手段は、前記連続検出回数計数手段に従い、前記グラデーション画像でない非グラデーション画像が所定フレーム期間、連続する場合に、符号化対象ブロック画像に対するイントラスムージング処理の適用可否を切り替える
ことを特徴とする請求項1から6のいずれか1項に記載の画像符号化装置。
The gradation detection means has continuous detection number counting means for counting the number of continuous detections of the result of gradation detection,
The intra-smoothing process determining means switches whether to apply the intra-smoothing process to the encoding target block image when the non-gradation image that is not the gradation image continues for a predetermined frame period according to the continuous detection number counting means. The image encoding device according to any one of claims 1 to 6.
前記所定の画素ブロックのサイズは、HEVC規格(ISO/IEC 23008−2)で定義されるCoding Tree Unitであることを特徴とする請求項1から7のいずれか1項に記載の画像符号化装置。   8. The image encoding device according to claim 1, wherein a size of the predetermined pixel block is a coding tree unit defined by the HEVC standard (ISO / IEC 23008-2). 9. . 入力画像を符号化する画像符号化方法であって、
前記入力画像の符号化しようとする符号化ブロックに対して所定の画素ブロック単位でグラデーション画像かいなかを検出するグラデーション検出ステップと、
前記グラデーション検出ステップにより前記グラデーション画像と判定された前記画素ブロック数が所定数以上になったとき、画面内予測モードにおいて符号化ブロック境界の参照画素の線形補間を有効化するイントラスムージング処理決定ステップと、
前記入力画像を前記符号化ブロック単位で符号化する符号化ステップであって、前記線形補間の有効化に従い、前記画面内予測モードにおいて符号化ブロックの境界の参照画素を線形補間する符号化ステップ
とを有することを特徴とする画像符号化方法。
An image encoding method for encoding an input image, comprising:
A gradation detection step of detecting whether the input image is a gradation image in units of a predetermined pixel block with respect to an encoding block to be encoded;
An intra-smoothing process determining step for enabling linear interpolation of reference pixels at the encoding block boundary in the intra prediction mode when the number of pixel blocks determined as the gradation image by the gradation detection step exceeds a predetermined number; ,
An encoding step for encoding the input image in units of the encoding block, and an encoding step for linearly interpolating reference pixels at the boundary of the encoding block in the intra prediction mode according to the validation of the linear interpolation; An image encoding method characterized by comprising:
請求項1から8の何れか1項に記載の画像符号化装置としてコンピュータを機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as the image encoding device according to claim 1.
JP2016183834A 2016-09-21 2016-09-21 Image coding apparatus, image coding method, and computer program Pending JP2018050150A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016183834A JP2018050150A (en) 2016-09-21 2016-09-21 Image coding apparatus, image coding method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183834A JP2018050150A (en) 2016-09-21 2016-09-21 Image coding apparatus, image coding method, and computer program

Publications (1)

Publication Number Publication Date
JP2018050150A true JP2018050150A (en) 2018-03-29

Family

ID=61766555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183834A Pending JP2018050150A (en) 2016-09-21 2016-09-21 Image coding apparatus, image coding method, and computer program

Country Status (1)

Country Link
JP (1) JP2018050150A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118678101A (en) * 2019-12-30 2024-09-20 北京达佳互联信息技术有限公司 Cross-component determination of chrominance and luminance components of video data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118678101A (en) * 2019-12-30 2024-09-20 北京达佳互联信息技术有限公司 Cross-component determination of chrominance and luminance components of video data

Similar Documents

Publication Publication Date Title
JP6667609B2 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
KR102819129B1 (en) Method and device for inter-picture prediction using virtual reference images for video coding
KR101045199B1 (en) Method and apparatus for adaptive noise filtering of pixel data
KR101344425B1 (en) Multi-view image coding method, multi-view image decoding method, multi-view image coding device, multi-view image decoding device, multi-view image coding program, and multi-view image decoding program
JP4901772B2 (en) Moving picture coding method and moving picture coding apparatus
KR101482896B1 (en) Optimized deblocking filters
JP5195032B2 (en) Encoding device / decoding device, encoding method / decoding method, and program
KR20090100402A (en) Compress and Decompress Images
WO2005006762A2 (en) Optical flow estimation method
CN101009839A (en) Method for video encoding or decoding based on orthogonal transform and vector quantization, and apparatus thereof
CN107646194B (en) Apparatus and method for video motion compensation
US20150189276A1 (en) Video encoding method and apparatus, video decoding method and apparatus, and programs therefor
US9094687B2 (en) Video encoder and video decoder
JP2004241869A (en) Watermark embedding and image compression unit
CN105103546A (en) Method and device for encoding multiple input images, and storage medium for storing programs
CN117941352A (en) Inter prediction method, encoder, decoder, and storage medium
CN104919806B (en) Image processing device and method
JP2001251627A (en) Encoding device, encoding method, and recording medium recording program
JP2009055236A (en) Video encoding apparatus and method
JP2018050150A (en) Image coding apparatus, image coding method, and computer program
KR101668133B1 (en) Method for predicting a block of image data, decoding and coding devices implementing said method
CN105075256A (en) Method and device for encoding multiple input images, and storage medium for storing programs
JP7118604B2 (en) Video encoding device, video decoding device and program
JP7323685B2 (en) Video decoding device and program
KR100728032B1 (en) Warping-based intra prediction method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180227