[go: up one dir, main page]

JP2010011075A - 動画像符号化及び動画像復号化の方法及び装置 - Google Patents

動画像符号化及び動画像復号化の方法及び装置 Download PDF

Info

Publication number
JP2010011075A
JP2010011075A JP2008167884A JP2008167884A JP2010011075A JP 2010011075 A JP2010011075 A JP 2010011075A JP 2008167884 A JP2008167884 A JP 2008167884A JP 2008167884 A JP2008167884 A JP 2008167884A JP 2010011075 A JP2010011075 A JP 2010011075A
Authority
JP
Japan
Prior art keywords
moving
prediction
image signal
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008167884A
Other languages
English (en)
Other versions
JP2010011075A5 (ja
Inventor
Akiyuki Tanizawa
昭行 谷沢
Takeshi Nakajo
健 中條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008167884A priority Critical patent/JP2010011075A/ja
Publication of JP2010011075A publication Critical patent/JP2010011075A/ja
Publication of JP2010011075A5 publication Critical patent/JP2010011075A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

【課題】動画像から背景領域と動領域を分離し、分離した動領域に対して動き補償予測処理を行う動画像符号化方法を提供する。
【解決手段】各参照画像の信号毎に動領域と背景領域とを示す二値の動領域分離マスクを生成し、2つ以上の前記参照画像の信号の比較或いは前記参照画像の信号毎の二値の前記動領域分離マスクの値により、1つの背景画像の信号を生成或いは更新し、前記動領域分離マスクを用いて、前記動領域に対応する、予測対象画像の第1部分に対して動き補償処理を行い、前記背景領域に対応する、前記予測対象画像の第2部分には前記背景画像の信号を補間した信号を補填することによって予測画像信号を生成する。
【選択図】 図3

Description

本発明は、動画像から背景領域と動領域を分離し、分離した動領域に対して動き補償予測処理を行う動画像符号化及び動画像復号化の方法及び装置に関する。
近年、大幅に符号化効率を向上させた動画像符号化方法がITU-TとISO/IECとの共同で、ITU-T Rec. H. 264及びISO/IEC 14496-10(以下、H. 264という)として勧告されている。H.264では、予測処理・変換処理・エントロピー符号化処理が矩形ブロック単位(16x16,8x8等)で行われる。このため、H. 264では矩形ブロックで表現出来ないオブジェクトを予測する際に、より小さな予測ブロック形状(4×4等)を選択することで予測効率を高めている。このようなオブジェクトを効果的に予測するために、矩形ブロックに複数の予測パターンを用意する方法や、ブロックを任意の線分で分割し、分割した形状毎に動き補償を適応する方法などが提案されている。
背景画像と前景画像を分離する予測方法として、2枚の参照画像に挟まれた符号化スライス(B-slice)に着目して、前景・後景を分離し、別々に動き補償する手法が提案されている[特許文献1]。また、既に符号化が完了した複数の参照画像間の差分から、それぞれの参照画像に対応する背景画像マスクと背景参照画像を作成し、動き補償予測の際に合成する手法が提案されている[非特許文献1]。
特許文献1の方法では、前景・後景に対応した動きベクトル情報やブロック分割情報を符号化する必要があるため、低ビットレート時に対して符号化効率が低下する問題がある。また、エンコーダでは、最適な予測モードを選択するために、繰り返し符号化する必要があり演算量が増大する。
非特許文献1の方法では、画像間の絶対差分値を基準として画素毎に領域を分離するため、符号化する映像に含まれるノイズや、高圧縮に符号化する際などに発生する量子化誤差などの影響によって、オブジェクトと背景領域との分離が困難となり、予測効率が低下する場合がある。また、参照画像毎に背景画像マスクと背景参照画像メモリを生成する必要があり、デコーダのメモリが増大すると言う問題がある。
特開2002−359854号公報 R. Ding, F. Wang, Q. Dai, W. Xu and D. Zhu, "Composite-Block Model And Joint-Prediction Algorithm For Inter-frame Video Coding," ICASSP-2006 May 2006
本発明の目的は、復号化済みの複数の参照画像から、それぞれの参照画像信号毎に対応する二値の動領域分離マスクとただ1つの背景画像信号を生成し、動領域分離マスクから動領域と判定された領域に対して動き補償予測を実施し、背景領域と判定された領域に対して、背景画像信号を補完した値を補填することによって、過度のブロック細分化による符号量の増加を防ぎ、予測効率を向上させる。
本発明の一態様は、入力画像信号を複数の画素ブロックに分割し、参照画像信号を用いて各画素ブロックの予測処理を行い,前記入力画像信号と予測画像信号との差分信号を符号化する動画像符号化方法において、各参照画像の信号毎に動領域と背景領域とを示す二値の動領域分離マスクを生成するマスク生成ステップと、2つ以上の前記参照画像の信号の比較或いは前記参照画像の信号毎の二値の前記動領域分離マスクの値により、1つの背景画像の信号を生成或いは更新する背景画像生成/更新ステップと、前記動領域分離マスクを用いて、(1)前記動領域に対応する、予測対象画像の第1部分に対して動き補償処理を行い、(2)前記背景領域に対応する、前記予測対象画像の第2部分には前記背景画像の信号を補間した信号を補填する、ことによって予測画像信号を生成する予測画像生成ステップと、を有するように構成される動画像符号化方法を提供する。
本発明の手法を用いることで、矩形ブロックに適さない動オブジェクトを予測するために、過度のブロック分割が施されて、ブロック分割情報が増大することを防ぐ。つまり、付加的な情報を増加させずに、ブロック内の動領域と背景領域を分離し、それぞれに最適な予測方法を適用することによって、符号化効率を向上させると共に主観画質も向上するという効果を奏する。
以下、図面を参照して本発明の第1〜第6の実施形態を説明する。
<動画像符号化装置>
本発明に従った動領域分離予測符号化を実現するための動画像符号化装置100の構成は図1に示されている。動画像符号化装置100の予測部106の詳細なブロック図は図2に示されている。動領域分離予測符号化方法を実施する動領域分離予測符号化に関連するインター予測部のブロック図は図3に示されている。まず、動画像符号化に関する動領域分離予測符号化方法について図1、図2、図3を参照しながら実施形態について説明する。
(第1の実施形態)
図1を参照して、第1の実施形態に従った動画像符号化装置を説明する。この画像符号化装置は、入力画像信号を構成する各々のフレームを複数の画素ブロックに分割し、これら分割した画素ブロックに対して符号化処理を行って圧縮符号化し、符号列を出力するよう構成されている。具体的には、この画像符号化装置100は入力画像信号110と予測画像信号117との差分を計算し、予測誤差信号111を出力する減算値101と、予測誤差信号111を変換及び量子化し、変換係数112を出力する変換・量子化部102と、変換係数112を逆量子化し、逆変換して復元予測誤差信号113を生成する逆量子化・逆変換部103とを含む。更に、画像符号化装置100は復元予測誤差信号113と予測画像信号117とを加算して復号画像信号114を生成する加算器104と、復号画像信号114を参照画像信号として記憶する参照画像メモリ105と、参照画像信号116と入力画像信号110とを用いて予測画像信号117を生成する予測部106を備えている。更に、動画像符号化装置100は変換係数112を符号化列に符号化し、符号列を出力バッファ109に出力する符号列符号化部108を備えている。この動画像符号化装置100は符号化制御部107によって制御される。
上記構成の動画像符号化装置では、動画像または静止画像の入力画像信号110が小画素ブロック単位、例えばマクロブロック単位に分割され、動画像符号化装置100に入力される。ここで入力画像信号110とは、フレーム及びフィールドの両方を含む1つの符号化の処理単位(ピクチャ)を意味している。また、ここでは、マクロブロックを符号化処理の基本的な処理ブロックサイズとする。マクロブロックは、典型的に例えば図4Aに示すような16×16画素ブロックであるが、32×32画素ブロック単位であっても8×8画素ブロック単位であってもよく、またマクロブロックの形状は正方格子である必要は必ずしもない。以下、入力画像信号110の符号化対象マクロブロックを単に対象ブロックという。本実施形態では、説明を簡単にするために図4Aに示されているように左上から右下に向かって符号化処理がなされていくものとする。
動画像符号化装置100は、ブロックサイズや予測画像信号117の生成方法の異なる複数の予測モードが用意されている。予測画像信号117の生成方法は、具体的には大きく分けて符号化対象のフレーム内(フィールド内)だけで予測画像を生成するイントラ予測(フレーム内予測)と、時間的に異なる複数の参照フレーム(参照フィールド)を用いて予測を行うインター予測(フレーム間予測)がある。
次に、動画像符号化装置100による符号化の流れを説明する。まず、入力画像信号110が、最初に減算器101へと入力される。減算器101には、後述する予測部106から出力された各々の予測モードに応じた予測画像信号117が更に入力される。減算器101は、入力画像信号110から予測画像信号117を減算した予測誤差信号111を算出する。減算器101で生成され、出力された予測誤差信号111は変換・量子化部102へと入力される。変換・量子化部102では、予測誤差信号111に対して例えば離散コサイン変換(DCT)のような直交変換が施されることにより、変換係数が生成される。
変換・量子化部102は、符号化制御部107によって与えられる量子化パラメータ、量子化マトリクス等に代表される量子化情報に従って変換係数を量子化する。量子化後の変換係数112は変換・量子化部102から出力され、符号列符号化部108へと入力されるとともに、逆量子化・逆変換部103へも出力される。ここで、変換・量子化部102における変換には、H.264で用いられているような離散コサイン変換について説明したが、離散サイン変換、ウェーブレット変換や独立成分解析などの手法を用いてもよい。
符号列符号化部108では、量子化後の変換係数112と共に、符号化制御部107から出力された予測情報119などを含んだ、対象ブロックを符号化したときに用いた様々な符号化パラメータに対してエントロピー符号化、例えばハフマン符号化や算術符号化などが行われ、符号化データが生成される。ここで符号化パラメータとは、予測情報119はもとより、変換係数に関する情報、量子化に関する情報、などの復号の際に必要になるあらゆるパラメータを指す。
符号列符号化部108により生成された符号化データ118は動画像符号化装置100から出力され、多重化器(図示せず)によって復号に必要なパラメータと多重化され、出力バッファ109に一旦蓄積される。出力バッファ109の符号化データ118は、符号化制御部107が管理する出力タイミングに従って動画像符号化装置100外へ出力される。符号化データ118は、図示しない蓄積系(蓄積メディア)または伝送系(通信回線)へ送出される。
一方、変換・量子化部102から出力された量子化後の変換係数112は、逆量子化・逆変換部103へと入力される。逆量子化・逆変換部103では、変換係数112は最初に逆量子化処理が行われる。ここでは、変換・量子化部102で使用されたものと同様の量子化パラメータ、量子化マトリクス等に代表される量子化情報が、符号化制御部107からロードされて変換係数112は逆量子化処理が行われる。
逆量子化後の変換係数は、逆離散コサイン変換(IDCT)のような逆直交変換が施されることによって、復号後の予測誤差信号113が再生される。復号予測誤差信号113は、加算器104に入力される。加算器104では、復号予測誤差信号113と予測部106から出力された予測画像信号117とが加算されることにより、復号画像信号114(局所復号画像信号)が生成される。復号画像信号114は、参照画像メモリ105に参照画像信号116として蓄積される。参照画像メモリ105に蓄積された参照画像信号116は、予測部106に出力され予測の際などに参照される。予測部106から出力された動領域分離マスク115は参照画像メモリ105に入力され、同時刻の復号画像信号114とともに参照画像メモリ105内に蓄積される。以後、参照画像信号116とは、同一時刻に符号化又は局所復号化処理された復号画像信号114と動領域分離マスク115のセットを指す。
予測部106では、参照画像メモリ105に蓄積された参照画像信号116の画素(復号化済み参照画素と生成済みの動領域分離マスクの画素)を利用して、インター予測またはイントラ予測が行われ、対象ブロックに対して選択可能な予測画像信号117が生成される。ただし、H. 264のイントラ予測、例えば図4Cに示される4×4画素ブロックに対応するイントラ予測または図4Dに示される8×8画素ブロックに対するイントラ予測のように、対象ブロック内で局部復号信号を作成しないと次の予測ができないような予測モードに関しては、予測部106の内部で変換/量子化及び逆量子化/逆変換或いは、それぞれ対応する画素ブロック毎の復号化処理などを行ってもよい。
図2に予測部106のブロック図を示す。予測部106は、イントラ予測部201、インター予測部202、動きベクトル推定部203、モード判定スイッチ204、モード判定部205を備えている。予測部106に参照画像信号116が入力されると、イントラ予測部201とインター予測部202は、画素ブロックにおける利用可能な予測モードの予測画像信号117を生成する。それぞれの予測方法については後述する。イントラ予測部201で生成された予測画像信号とインター予測部202で生成された予測画像信号がモード判定スイッチ204へと出力される。モード判定スイッチ204は、入力されてきた予測画像信号のどちらを利用するかを切り替える機能を有する。スイッチを切り替える情報は、モード判定部205から提供される予測情報206に基づいている。モード判定部205の動作については後述する。
イントラ予測部201における予測モードの例として、H.264のイントラ予測について説明する。H.264のイントラ予測では、4×4画素イントラ予測(図4C参照)、8×8画素イントラ予測(図4D参照)、16x16画素イントラ予測(図4B参照)が規定されている。このイントラ予測では、参照画像メモリ105に保存されている参照画像信号116から、補間画素を作成し、空間方向にコピーすることによって予測値を生成する。
次に、図3を参照してインター予測部202の構成及び動作を説明する。図3によると、インター予測部202は参照画像信号116が入力される動き補償部301及び動領域分離予測部302並びに背景画像生成部303を備えている。動領域分離予測部302には、動領域分離予測するために動領域分離マスク115,参照画像信号116,動きベクトル207及び背景画像信号306が入力される。動き補償部301及び動領域分離予測部302は予測分離スイッチ305によって切換えられる。予測分離スイッチ305の切換えは予測切換部304によって行われる。
上記構成のインター予測部202では、図2の動きベクトル推定部203で算出された予測対象ブロックの動きベクトル207と参照画像信号116を元に、補間処理を行って予測画像信号117を生成する。図5にインター予測の動き補償予測の一例を示す。インター予測では、参照画像メモリ105に蓄積されている複数の参照画像信号116を用いて補間処理を行い、作成した補間画像と原画像信号との同位置の画素ブロックからのズレ量を元に予測画像信号117が生成される。補間処理としては、1/2画素精度の補間処理や、1/4画素精度の補間処理などが用いられ、参照画像信号116に対してフィルタリング処理を行うことによって、補間画素の値を生成する。例えば輝度信号に対して1/4画素精度までの補間処理が可能なH.264では、ズレ量は整数画素精度の4倍で表現される。このズレ量を動きベクトルと呼ぶ。
インター予測では、複数の予測ブロックの中から現在の予測対象ブロックに適したブロックサイズを選択することが可能である。図6Aにマクロブロック単位の動き補償ブロックのサイズを、図6Bにサブブロック(8×8画素ブロック以下)単位の動き補償ブロックのサイズを示す。これらの予測ブロックのサイズ毎に、動きベクトルを求めることが可能であるため、入力画像信号110の局所的な性質に従って、最適な予測ブロックの形状と動きベクトルを利用することが可能である。また、どの参照画像信号に対して動きベクトルを計算したかの情報はRef_idxとして最小で8×8画素ブロック毎に変更することが可能である。
次に、動きベクトル推定部203について説明する。動きベクトル推定部203は、入力画像信号110と参照画像信号116を用いて、予測対象ブロックに適した動きベクトル207を算出する機能を有する。動きベクトル207の算出では、入力画像信号110の予測対象ブロックと、参照画像信号116の補間画像との間でブロックマッチングを行う。マッチングの評価基準としては、入力画像信号110とマッチング後の補間画像との差分を画素毎に累積した値を用いる。最適な動きベクトル207の決定では、前述した方法の他に予測された画像と原画像との差を変換した値を用いても良いし、動きベクトルの大きさを加味したり、動きベクトルの符号量などを加味したりして、判定してもよい良い。また後述する式(1)(2)などを利用しても良い。また、マッチングのやり方は、符号化装置の外部から提供される探索範囲情報に基づいてマッチングの範囲内を全探索しても良いし、画素精度毎に階層的に実施しても良い。
このようにして複数の参照画像信号(時間的に異なる局部復号画像信号を指す)に対して算出された動きベクトル207は、インター予測部202へと入力され、予測画像信号117の生成に利用される。算出された動きベクトル207は、対応する画素ブロック形状などの予測に係わる情報とともに予測情報119として符号化制御部107に保持され、符号列符号化部108へ予測情報119として渡されて、エントロピー符号化された後、符号化データに多重化される。
次に、モード判定部205について概要を説明する。モード判定部205は、現在符号化しているスライスの情報に応じて、スイッチ切替情報206をモード判定スイッチ204へ出力する。スイッチ切替情報206には、イントラ予測部201の出力端とインター予測部202の出力端のどちらと、スイッチを繋ぐかの情報が記述されている。
次に、モード判定部205の機能を説明する。現在符号化しているスライスがイントラ符号化スライスである場合、モード判定部205は、モード判定スイッチ204の出力端をイントラ予測部201に接続する。一方、現在符号化しているスライスがインター符号化スライスである場合、モード判定部205はモード判定スイッチ204をイントラ予測部201の出力端に繋ぐか、インター予測部202の出力端へ繋ぐかを判定する。
より具体的に説明すると、上記の場合、モード判定部205では次式(1)のようなコストを用いたモード判定を行う。予測モードを選択した際に必要となる予測情報119に関する符号量(例えば動きベクトルの符号量やブロック形状の符号量など)をOH、入力画像信号110と予測画像信号117の差分絶対和(予測誤差信号111の絶対累積和を意味する)をSADとすると、以下のモード判定式を用いる。
Figure 2010011075
ここでKはコスト、λは定数をそれぞれ表す。λは量子化スケールや量子化パラメータの値に基づいて決められるラグランジュ未定乗数である。このようにして得られたコストKを基に、モード判定が行われる。すなわち、コストKが最も小さい値を与えるモードが最適な予測モードとして選択される。
モード判定部205においては、式(1)に代えて(a)予測情報119のみ、(b)SADのみ、を用いてモード判定を行ってもよいし、これら(a)予測情報119のみ、(b)SADのみにアダマール変換を施した値、またはそれに近似した値を利用してもよい。さらに、モード判定部205において入力画像信号110のアクテビティ(信号値の分散)を用いてコストを作成してもよいし、量子化スケールまたは量子化パラメータを利用してコスト関数を作成してもよい。
さらに別の例として、仮符号化ユニットを用意し、仮符号化ユニットによりある予測モードで生成された予測誤差信号111を実際に符号化した場合の符号量と、入力画像信号110と復号画像信号114との間の二乗誤差を用いてモード判定を行ってもよい。この場合のモード判定式は、以下のようになる。
Figure 2010011075
ここで、Jは符号化コスト、Dは入力画像信号110と復号画像信号114との間の二乗誤差を表す符号化歪みである。一方、Rは仮符号化によって見積もられた符号量を表している。
式(2)の符号化コストJを用いると、予測モード毎に仮符号化と局部復号処理が必要となるため、回路規模または演算量は増大する。反面、より正確な符号量と符号化歪みを用いるため、高い符号化効率を維持することができる。式(2)に代えてRのみ、またはDのみを用いてコストを算出してもよいし、RまたはDを近似した値を用いてコスト関数を作成してもよい。
以上のようにして、イントラ予測部201で生成された予測画像信号を選ぶか、インター予測部202で生成された予測画像信号を選ぶか、を判定し、モード判定スイッチ204の出力端を切り替える。ここで選択された予測モードの予測画像信号117が予測部106から出力されて、減算器101へ入力されるとともに、加算器104へ出力される。
次に、インター予測部202についてより詳細に説明する。図3にインター予測部202のブロック図が示されている。インター予測部202は、上述したように動き補償部301、動領域分離予測部302、背景画像生成部303、予測切替部304、予測分離スイッチ305を備えている。
参照画像メモリ105から出力された参照画像信号116は、予測部106へと入力され、インター予測部202へと入力される。同時に動きベクトル推定部203で推定された動きベクトル207が入力される。動き補償部301では、まず動きベクトル207の情報に従って、予測画素ブロックの位置から、次式(3)を用いて動きベクトル207で参照されている位置を割り出す。ここでは前述の通り、H.264の1/4画素精度の補間を例に挙げて説明する。つまり、動きベクトルの各成分が4の倍数である場合は、整数画素位置を指していることを意味する。それ以外の場合は、分数精度の補間位置に対応する予測位置であることがわかる。
Figure 2010011075
ここで、(x,y)は予測対象ブロックの先頭位置を表す垂直、水平方向のインデックスであり、(x_pos,y_pos)は参照画像信号の対応する予測位置を表している。(mv_x,mv_y)は1/4画素精度を持つ動きベクトルを示している。次に割り出した画素位置に対して、参照画像信号116の対応する画素位置の補填又は補間処理によって予測画素を生成する。
図7にH.264の予測画素生成の例を示す。図中大文字で示されるアルファベット(斜線で表示された正方形)は整数位置の画素を示しており、網掛けで表示されている正方形は1/2画素位置の補間画素を示している。また、白塗りで表示された正方形は1/4画素位置に対応する補間画素を示している。例えば、図中でアルファベットb、hの位置に対応する1/2画素の補間処理は次式(4)で算出される。
Figure 2010011075
また、図中でアルファベットa、dの位置に対応する1/4画素の補間処理は次式(5)で算出される。
Figure 2010011075
このように1/2画素位置の補間画素は、6タップFIRフィルタ(タップ係数:(1,−5,20,20、−5,1)/32)を用いて生成し、1/4画素位置の補間画素は、2タップの平均値フィルタ(タップ係数:(1/2,1/2))を用いて算出される。4つの整数画素位置の中間に存在するアルファベットjに対応する1/2画素の補間処理は、垂直方向6タップと水平方向6タップの両方向を行うことによって生成される。説明した以外の画素位置も同様のルールで補間値が生成できる。以上が、動き補償部301おける予測画像信号生成の例である。
次に、背景画像生成部303について説明する。背景画像生成部303は、入力された参照画像信号116を用いて、背景画像信号306及び動領域分離マスク115を生成する機能と、生成した背景画像信号306を保持するメモリとしての機能を有する。まず、動領域分離マスク115の生成について説明する。動領域分離マスク115は、参照画像信号116で提供された各々の時刻で復号された復号画像信号114に対してそれぞれ1つずつ存在する。動領域分離マスク115は、同時刻に復号された復号画像信号114の各画素に対して、それ以前に復号された復号画像信号114との時間的な輝度変化(差分値)が予め定めた規定値THよりも小さい場合に背景画素と認定し、輝度変化が規定値THを超える場合を動画素と判定する2値のマスクマップである。
Figure 2010011075
利用可能な参照画像信号116が複数ある場合は、時間方向に同位置の全ての画素に対して差分値を算出して、後述する代表値を確定し、確定した差分値に対して規定値を用いて背景画素であるか、動画素であるかを判定する。
Figure 2010011075
ここで、LDは局所復号画像信号を表している。sは時間方向の変位を表すインデックスであり、s=0は予測対象画像そのものを指している。例えば参照画像信号のインデックスに対応する。図8に複数の参照画像信号に対して差分値を求める際の参照画素と対象画素の対応関係を示す。wは時間的な距離に応じて重み付けを行う変数である。例えば時間的に近い復号画像信号に対して大きな重みを与え、時間的に距離の遠い復号画像信号に対しては小さな重みを与えることによって、時間相関を考慮することが可能となる。図9に予測対象画素ブロックからの時間的距離に応じて重みwを変える例を示す。
尚、上記では単純に差分値のみによって画素の領域判定を行う例を示したが、代表値を決める指標として、利用可能な複数の復号画像信号間(時間方向)の画素の差分値の絶対和、差分値の最大値、差分値の平均値、差分値のメディアン値、差分値の分散を用いて判定しても良いし、復号画像信号の領域判定を行う画素に隣接する画素(空間方向)の差分値の絶対和、差分値の最大値、差分値の平均値、差分値のメディアン値、差分値の分散、などの指標を用いて判定しても良い。
また、一度生成した動領域分離マスクに対して補正を行っても良い。例えば、生成した動領域分離マスクの補正対象画素において、隣接位置に対応する上下左右の4点、或いは対角方向も含めた9点のマスクの値を用いて、孤立点となるような領域を補正したり、予測ブロック形状に合わせてブロック境界のマスクの値を修正したりしても良い。この場合の例を次式(8)で示す。
Figure 2010011075
ここで(i,j)は、対象画素に隣接する画素のインデックスを示しており、(i,j)=(0,0)は補正対象画素を示している。図10に対象画素と隣接画素の関係を示す。丸印の密度が高くなるほど対象画素との距離が離れることを意味している。また、vは隣接画素の位置関係に応じて重み付けを行う変数である。例えば、空間的距離が近い(i,j)=(0,1)、(1,0)、(0,-1)、(-1,0)に対して重みを大きくし、空間的距離が大きい(i,j)=(1,1)、(1,-1)、(-1,1)、(-1,-1)などの画素の重みを小さくする、などの空間的相関を考慮するために利用される。
図11に空間方向の市街地距離に応じて、重みvを変更する例を示す。算出されたDiffが予め定めた規定値TVより大きい場合は、隣接画素の動領域分離マスクの値が異なっており、相関が低いと判定できることから、対象画素のマスクの値を変更する。一方、規定値TVより小さい場合は、空間相関が高いために値を変更しない、などの処理を行う。このように空間方向に対して重みvを適切に設定することによって、生成された動領域分離マスクを補正することができ、孤立点の除去、不連続点の連結、矩形ブロックへの領域拡大・縮小、エッジ修正、画素補填、画素マッチング等が可能となる。尚、本実施の形態では、市街地距離による重み変更例を示したが、距離の定義は市街地距離、マンハッタン距離などを含む、ミンコフスキー距離の中から1つを用いて計算することが可能である。
次に、背景画像信号306の生成について説明する。背景画像信号306とは、時間方向で輝度変化が少ない背景領域のみを集めた信号となっており、動領域分離マスク115と時間的に最近接の復号画像信号114に基づいて画素毎に導出される。前述した動領域分離マスク115から次式(9)を用いて背景画像信号306を生成する。
Figure 2010011075
ここでBGは背景画像信号306を表しており、LDは更新するフレームに対して時間的に最近接の復号画像信号114を表している。
上式の通り、当該時刻の背景画像信号306の更新時は、参照画像信号116の中の時間的に最近接の復号画像信号114と動領域分離マスク115を利用し、マスクの値が0(背景画素の場合)のみ、最近接の復号画像信号114と更新前の背景画像信号306の重み付き和で更新が行われる。重み付き和は例えばwt=1/2に設定することで平均値フィルタとなる。一方、マスクの値が1(動画素)の場合には、更新は行われない。尚、背景画像信号306の初期値は、予め定めた輝度値(例えば輝度信号であれば0や最大輝度値(8ビットでは256)、色差信号であれば中間輝度値(8ビットで128))で埋めておいても良いし、画面内予測だけで符号化されるようなI-sliceの輝度値を用いたりしても良い。背景画像信号306のリフレッシュは、入力画像信号においてシーンチェンジが行われるような場合や、IDRピクチャが挿入される場合に行われる。本実施の形態ではI-sliceのタイミングで必ず背景画像信号306のリフレッシュが行われる例を示している。以上のような過程で背景画像信号306が適切なタイミングで更新される。
尚、背景画像信号306は、背景画像生成部303の内部メモリに保持されており、更新された信号が動領域分離予測部302へと出力される。また、生成された動領域分離マスク115は、インター予測部202から出力され、予測部106を経て、同じ時刻の復号画像信号114とともに参照画像信号105として参照画像メモリ105へと保存される。
ここでは、時間的に最近接の復号画像信号を用いた例を説明したが、(1)ディスプレイの表示時間的に利用可能な最近接の参照画像の画素値を補填する方法、(2)符号化の実行時間的に利用可能な最近接の参照画像の画素値を補填する方法、(3)次に符号化される画像に対して時間的に利用可能な最近接の参照画像の画素値を補填する方法、(4)前記背景画像メモリに蓄積されている画素と前記表示時間的に利用可能な最近接の参照画像の画素の線形和で生成された画素を補填する方法、(5)前記背景画像メモリに蓄積されている画素と前記符号化時間的に利用可能な最近接の参照画像の画素の線形和で生成された画素を補填する方法、(6)前記背景画像メモリに蓄積されている画素と前記次に符号化される画像に時間的に利用可能な最近接の参照画像の画素の線形和で生成された画素を補填する方法、の中からいずれか1つの方法を利用してもよい。
次に、動領域分離予測部302について説明する。動領域分離予測部302は、動きベクトル推定部203から出力された動きベクトル207、参照画像メモリ105から出力された参照画像信号116、及び背景画像信号生成部303から出力された背景画像信号306が入力される。動領域分離予測部302は、入力された動領域分離マスク115を用いて、動領域に対して動き補償処理を、背景領域に対しては、背景画像信号の補填を行い、別々の予測方法で予測された信号を合成する機能を有する。尚、入力された動きベクトル207を用いて動領域分離マスク115にもマッチングを行う。つまり、動き補償部301の説明で述べた動きベクトルから補間位置の導出を動領域分離マスク115にも適用する。この場合、動領域分離マスクは整数画素精度のみなので、分数精度の動きベクトルの場合は、整数画素精度へのマッピングを行う。1/4画素精度の動き補償処理の場合の整数画素位置へのマッピングは次式(10)で表される。
Figure 2010011075
ここで、(mv_x,mv_y)はそれぞれ1/4画素精度の動きベクトルの水平成分、垂直成分を表しており、(imv_x,imv_y)はそれぞれ整数画素精度の動きベクトルの水平成分、垂直成分を表している。導出された整数精度の動きベクトルを用いて次式(11)のようにして動領域分離予測が行われる。
Figure 2010011075
ここでPは動領域分離予測によって生成される予測画像信号を表している。MCは、動き補償予測部301で行われる動き補償予測によって生成される予測画像信号であり、既に動き補償部301の説明で詳細を述べているため、ここでは説明を省略する。例えば図7で生成された補間画素a、b、jなどの値や整数画素G、H、Mなどの値が予測画像信号MCに入る。同時刻の復号画像信号114と動領域分離マスク115に対して動きベクトル207が適用され、動領域に対しては通常の動き補償予測を、背景領域に対しては背景画像信号306を補填することによって、動オブジェクトの形状によらずに予測精度を上げることが可能となる。図12に、参照画像信号が時間方向に4枚利用可能な場合の、復号画像信号114と動領域分離マスク115の例と背景画像信号306の例を示す。このようにして作成された予測画像信号が動領域分離予測部302から出力されるとともに、この時利用したブロック形状、動きベクトルなどの予測情報119が、符号化制御部107に記録される。
次に、予測切替部304と予測分離スイッチ305について説明する。予測切替部304は、入力されてきた動領域分離マスク115の情報に基づいて、予測分離スイッチ305を制御するための予測切替情報307を出力する。予測分離スイッチ305は、予測切替情報307に従って、スイッチの出力端を動き補償部301側に接続するか、動領域分離予測部302側に接続するかを切り替える機能を有する。より具体的に説明すると、当該予測対象画素ブロック内に含まれる動領域分離マスクの比率を算出し、動領域が予め設定した規定値TPより大きいか、小さいかによって予測切替情報307を更新する。例えば、予測対象とした8×8画素ブロック内に含まれる64個のマスク値の内、4個の画素のみが0を、残り60個の画素が1を取っている場合、対象とする画素ブロックは9割以上が動領域であるため、スイッチの出力端を動き補償部301へと接続する。このように、予測対象画素ブロック内の動領域分離マスクの比率を算出し、この比率の値の大きさによって、どちらの予測部と接続するかを動的に切り替えることができる。図13に、TP=90%に設定した場合の切替の例を示している。このようにして、予測対象画素ブロックのインター予測の予測方法(動き補償予測と動領域分離予測)が切り替えられ、インター予測部202から予測画像信号117が出力される。
次に、図15を用いてインター予測部202内の背景画像生成部303の処理フローを説明する。まず、背景画像生成部303で行われる動領域分離マスク115の生成と背景画像信号306の更新は、1枚のフレーム又はスライスの符号化処理或いは局所復号処理が完了した後、或いは次のフレーム又はスライスの符号化処理が行われる直前に行われる(S501)。まず、背景画像生成部303は、現在の符号化スライス(次に予測が行われる符号化スライス)のスライスの種類をチェックする。当該符号化スライスがイントラ符号化スライス(I-slice)である場合(S502の判定がYES)、背景画像信号306が初期化される(S503)。当該符号化スライスがI-slice以外の場合(S502の判定がNO)、参照画像信号116を用いて、動領域分離マスク115が生成される(S504)。更に参照画像信号116と生成された動領域分離マスク115などを用いて背景画像信号306の更新を行う(S505)。この背景画像信号306は、背景画像生成部303に存在する内部メモリに保持されている。生成した動領域分離マスク115が出力(S506)されるとともに、背景画像信号306が動領域分離予測部302へと出力される(S507)。次に、当該符号化スライスが最終符号化フレームかどうかの判定(S508)が行われ、かかる判定がNOの場合、当該符号化スライスが符号化されるのを待って、処理がS502へと戻る。一方かかる判定がYESの場合、処理を終了する(S509)。
次に図16を用いて、上述した詳細機能を除いた、インター予測部202内の背景画像生成部303の全体の処理フローを説明する。動領域分離予測部302へ、動きベクトル207と参照画像信号116及び背景画像信号306が入力されると(S601)、入力ベクトル207を用いて参照画像信号116中の対応する復号画像信号114の予測位置を導出する(S602)。次に動きベクトル207を用いて整数精度の動きベクトルを導出し、動領域分離マスクの対応位置を導出する(S603)。また、動領域分離マスク115内の予測対象ブロック内に含まれる動画素の比率を算出する(S604)。算出された動画素の比率が予め設定した規定値TPよりも大きいかどうかをチェックする(S605)。かかる判定がYESの場合、画素idxを0に初期化し(S613)、画素idxに対応する画素に対して動き補償予測処理を行い(S614)、画素idxをインクリメントする(S616)。インクリメント後の画素idxが予め定めた対象予測ブロックの最後の画素に対応する値であるかどうかを判定し(S616)、かかる判定がNOの場合は、インクリメントされた画素idxで再度画素idxに対応する画素に対して動き補償予測を行う(S614)。一方、かかる判定がYESの場合、予測画像信号117を出力(S617)して処理を終了する(S618)。
S605の判定がNOの場合、まず、画素idxを0に初期化する。画素idxに対して、動領域分離マスクの対応する位置の値をチェックし(S607)、当該画素のマスク値が動画素であった場合(S607がYES)、当該画素に対して動き補償予測処理を実施する(S612)。一方、当該画素のマスク値が背景画素であった場合(S607がNO)、背景画像信号の予測位置を導出し(S608)、当該予測位置の背景画像信号を補填する(S609)。次に、画素idxの値をインクリメントし(S610)、画素idxが予め定めた対象予測ブロックの最後の画素に対応する値であるかどうかを判定し(S611)、かかる判定がNOの場合は、インクリメントされた画素idxで再度動領域分離マスクの対応する位置の値をチェックする(S607)。かかる判定がYESの場合、予測画像信号117を出力(S617)して処理を終了する(S618)。フローチャートの各ステップの内、S604、S605は予測切替部304の有する機能であり、ステップS613-S616までは動き補償部301が有する機能である。また、ステップS602、S603及びS607−S611までが主に動領域分離予測部302が有する機能である。
次に、本動画像符号化装置100におけるシンタクス構造について説明する。図23に示すとおり、シンタクスは主に3つのパートからなり、ハイレベルシンタクス1601は、スライス以上の上位レイヤのシンタクス情報が詰め込まれている。スライスレベルシンタクス1602では、スライス毎に必要な情報が明記されており、マクロブロックレベルシンタクス1603では、マクロブロック毎に必要とされるデータが明記されている。
それぞれは、更に詳細なシンタクスで構成されており、ハイレベルシンタクス1601では、シーケンスパラメータセットシンタクス1604とピクチャパラメータセットシンタクス1605などのシーケンス、ピクチャレベルのシンタクスから構成されている。スライスレベルシンタクス1602では、スライスヘッダーシンタクス1605、スライスデータシンタクス1606などから成る。更に、マクロブロックレベルシンタクス1603は、マクロブロックレイヤーシンタクス1607、マクロブロックプレディクションシンタクス1608などから構成されている。
図24にスライスヘッダーシンタクスの例を示す。図中に示されるslice_motion_region_separation_flagは、インター予測部202中の予測切替部304から出力される予測切替情報307に利用される。slice_motion_region_separation_flagが0である場合、予測切替部304は、スライスにおいて常に動き補償予測部301の出力端を出力するように予測切替情報307を設定して予測分離スイッチ305を切り替える。つまり、必ず動き補償予測が行われることを意味している。一方、slice_motion_region_separation_flagが1である場合、前述の通り、スライスにおいて背景画像生成部303から出力された動領域分離マスク115の信号に基づいて動き補償予測と動領域分離予測が動的に切り替わる。
図25に符号化パラメータの例としてマクロブロックレイヤーシンタクスの例を示す。表中に示されるmb_typeは、マクロブロックタイプ情報を示している。すなわち、現在のマクロブロックがイントラ符号化されているか、インター符号化されているか、或いはどのようなブロック形状で予測が行われているか、などの情報を含んでいる。表中に示されるcoded_block_patternは、8×8画素ブロック毎に、変換係数が存在するかどうかを示している。例えばこの値が0である時、対象ブロックに変換係数が存在しないことを意味している。表中のmb_qp_deltaは、量子化パラメータに関する情報を示している。この情報は対象ブロックの1つ前に符号化されたブロックの量子化パラメータからの差分値を表している。表中のintra_pred_modeは、イントラ予測の予測方法を示す予測モードを示している。表中のref_idx_l0及びref_idx_l1は、インター予測が選択されているときに、対象ブロックがどの参照画像を用いて予測されたか、を表す参照画像のインデックスを示している。表中のmv_l0、mv_l1は動きベクトル情報を示している。表中のtransform_8x8_flagは、対象ブロックが8×8変換であるかどうかを示す変換情報を表している。
表中の行間には、本発明で規定していないシンタクス要素が挿入されることも可能であるし、それ以外の条件分岐に関する記述が含まれていても良い。或いは、シンタクステーブルを複数のテーブルに分割、統合することも可能である。また、必ずしも同一の用語を用いる必要は無く、利用する形態によって任意に変更しても良い。更に、当該マクロブロックレイヤーシンタクスに記述されている各々のシンタクスエレメントは、後述するマクロブロックデータシンタクスに明記されるように変更しても良い。
以上が、本発明に係わる動画像符号化装置100の説明である。
(第1の実施形態:変更例1:切替情報のシグナリング)
本実施の形態では、インター予測部202内の予測方法として、動き補償部301と動領域分離予測部302の2つを予測切替部304によって動的に切り替える例を示したが、動き補償予測と動領域分離予測の切替を動的に行わない実施の形態も可能である。この場合、どちらの予測方法が利用されたかのインデックスを符号化する必要が生じる。このインデックスは、予測切替情報307に記述されており、選択された予測画像信号117に対するインデックスが予測切替情報307に記述されるとともに、この情報は符号化制御部107に保持される。予測方法を用いて生成された予測画像信号117が符号化されるのと同時に、符号化制御部107から予測情報119として、保持されていた予測切替情報307がロードされ、符号列符号化部108へと入力されるとともに符号化処理が行われる。
図14にマクロブロック毎に利用した予測方法を示すインデックスを符号化する例を示す。9割以上の画素が動画素である場合は、動き補償予測が選択され、背景画素で占められているマクロブロックは動領域分離予測を行っている。更に、動画素と背景画素の比率が規定値THMAXからTHMINの間に含まれる場合は、どちらの予測を利用したかを示すインデックスを符号化する。
図26に本実施の形態におけるマクロブロックレイヤーシンタクスの例を示す。図中に示されるmb_motion_region_separation_flagは、インター予測部202中の予測切替部304から出力される予測切替情報307に利用される。mb_motion_region_separation_flagが0である場合、予測切替部304は、マクロブロックにおいて常に動き補償予測部301の出力端を出力するように予測切替情報307を設定して予測分離スイッチ305を切り替える。つまり、必ず動き補償予測が行われることを意味している。一方、mb_motion_region_separation_flagが1である場合、予測切替部304は、当該マクロブロックにおいて常に動領域分離予測部302の出力端を出力するように予測切替情報307を設定して予測分離スイッチ305を切り替える。つまり、必ず動領域分離予測が行われることを意味している。SignalingFlagはmb_motion_region_separation_flagを符号化するかどうかを決定するための内部パラメータである。SignalingFlagが1の場合、動画素の比率が規定値THMAXからTHMINの間に含まれることを意味する。一方、SignalingFlagが0の場合、動画素の比率が規定値THMAXからTHMINの間に含まれないことを意味する。
(第1の実施形態:変更例2:予測画像信号の使いまわし)
本実施の形態では、動き補償部301と動領域分離予測部302をそれぞれ別々の予測方法として記述しているが、図16のフローチャートでも示したとおり、動領域分離予測部302内で動き補償部301と同様の予測方法も用いている。このように同様の処理を複数回行うことによる演算量の増加を避けるため、図17に示すように動き補償部301で算出した予測画像信号117を動領域分離予測部302へと入力する構造としても良い。或いは動き補償部301の機能を動領域分離予測部302と統合させても良い。
(第1の実施形態:変更例3:切替構造の削除)
本実施の形態では、動き補償部301と動領域分離予測部302をそれぞれ別々の予測方法として記述しているが、予測方法を動領域分離予測302に単一化して、予測切替部304を削除する構造としても良い。図18に、動き補償部301、予測切替部304、予測分離スイッチ305を削除した実施例を示す。予測構造が簡略化するため、ハードウェア規模などの増大を防ぐことが可能となる。
(第2の実施形態:グローバルMC)
本実施の形態では、動画像符号化装置100の構造は図2と同一であるため、説明を省略する。但し、予測部106の機能が異なっているため、予測701が設けられている。図19に第2の実施形態における予測部701の構造を示す。尚、既に説明した機能と同様の機能を持つものに対しては同じインデックスを与えて、その説明を省略する。尚、図2のインター予測部202とは、機能の違いのために異なるインデックスとしてインター予測部801が設けられている。
予測部701では、インター予測部801に加えて、グローバルベクトル推定部802が備えられている。グローバルベクトル推定部802は、符号化フレーム毎、符号化スライス毎或いはマクロブロック毎に、カメラなどの撮像系の変化によって生じる画面全体の変化量を表すベクトル(グローバルMV(動きベクトル)803)を算出する機能を有する。本実施の形態では、画面全体の動きを求めるための枠組みとして平行移動モデルについて説明するが、動きのモデルとしてアフィン変換を用いたモデルや、相似変換、射影変換などに基づいたモデルを用いても良い。平行移動モデルでは、撮影した映像のカメラのパン・チルトに対応することが出来るが、アフィン変換モデルなどを使うことにより、拡大・縮小などにも対応が可能である。また、グローバルMVの精度は整数画素精度の場合について説明を行うが、前述の通り分数精度への拡張も容易である。
グローバルベクトル推定部802の基本的なベクトル推定機能は、既に説明した動きベクトル推定部203と同様であるが、ブロックなどの領域毎に算出した局所的な動きベクトル(ローカル動きベクトル)を統合して、グローバルMV803を算出する機能が追加されている。例えば4×4画素ブロックごとの画面内の動きベクトルを算出し、算出した動きベクトルのヒストグラムを作成する。局所的なブロックで算出した局所動きベクトルでは、画面内の移動オブジェクトの影響により、カメラの動きに追随できない場合がある。そこで、グローバルな動きベクトルを求めるため、この中でもっとも出現頻度が高い動きベクトルをグローバル動きベクトル702に設定する。グローバルベクトル推定部802で算出されたグローバルMV803は、インター予測部801へと入力される。
次に、インター予測部801について説明する。図20はインター予測部801のブロック図である。第1の実施形態の背景画像生成部303及び動領域分離予測部302に、グローバルMV803が入力されている以外は図1と同一であるが、背景画像信号生成部901、動領域分離予測部902の処理が異なる。
まず、背景画像生成部901について説明する。背景画像生成部901は、参照画像メモリ105から出力された参照画像信号116及びグローバルMV803が入力される。背景画像生成部901は、グローバルMV803を利用することによって、カメラが動いているような映像に対しても、背景画像信号306を生成することが可能である。まず、動領域分離マスク115の生成方法について説明する。動領域分離マスク115は、参照画像信号116とグローバルMV803を用いて次式(12)で算出される。
Figure 2010011075
ここで、(gmv_x,gmv_y)はグローバルMV803の水平・垂直成分を表している。また、MCLDは、動き補償処理を施した復号画像信号を表しており、グローバルMV803が分数精度の場合は、動き補償部301で説明したような動き補償処理を適用する。例えば1/4画素精度の場合は、式中の(gmv_x,gmv_y)をそれぞれ(gmv_x/4,gmv_y/4)に置き換える。グローバルMV803が整数精度の場合は、式(12)のMCLDをLDに置き換えた処理となる。
ここで、差分値の代表値を決める指標は、第1の実施形態で述べた方法を当てはめることが可能である。また、第1の実施形態と同様に一度生成した動領域分離マスクに対して補正を行っても良い。
次に、背景画像信号306の生成について説明する。背景画像信号306は、前述した動領域分離マスク115と復号画像信号114、及びグローバルMV803を用いてから次式(13)で導出される。
Figure 2010011075
ここで、MCBGは背景画像信号306に対してグローバルMV803を用いて動き補償処理を行った値を示している。上式の通り、当該時刻の背景画像信号306の更新時は、参照画像信号116の中の時間的に最近接の復号画像信号114と動領域分離マスク115を利用し、マスクの値が0(背景画素)の場合は、最近接の復号画像信号114と更新前の背景画像信号306にグローバルMV803を考慮したものの重み付き和で更新が行われる。
次に、動領域分離予測部902について説明する。動領域分離予測部902は、動きベクトル推定部203から出力された動きベクトル207、参照画像メモリ105から出力された参照画像信号116、及び背景画像信号生成部901から出力された背景画像信号306、及びグローバルMV803が入力される。動領域分離予測部902は、入力された動領域分離マスク115を用いて、動領域に対して動き補償処理を、背景領域に対しては、グローバルMV803を用いた動き補償処理を行い、別々の予測方法で予測された信号を合成する機能を有する。尚、入力された動きベクトル207を用いて動領域分離マスク115にもマッチングを行う。つまり、動き補償部301の説明で述べた動きベクトルから補間位置の導出を動領域分離マスク115にも適用する。この場合、動領域分離マスクは整数画素精度のみなので、分数精度の動きベクトルの場合は、整数画素精度へのマッピングを行う。1/4画素精度の動き補償処理の場合の整数画素位置へのマッピングは式(11)で表される。導出された整数精度の動きベクトルを用いて次式(14)のようにして動領域分離予測が行われる。
Figure 2010011075
ここでPは動領域分離予測によって生成される予測画像信号を表している。動領域に対しては通常の動き補償予測を、背景領域に対しては、背景画像信号306を、グローバルMV803を用いて動き補償することによって、動オブジェクトの形状によらずに予測精度を上げることが可能となる。このようにして作成された予測画像信号が動領域分離予測部302から出力されるとともに、この時利用したブロック形状、動きベクトル207、及びグローバルMV803などの予測情報119が、符号化制御部107に記録され、エントロピー符号化され、最終的に符号化データに多重化される。
図27に本実施の形態におけるスライスヘッダーシンタクスの例を示す。図中に示されるslice_global_motion_flagは、グローバルMV803を利用した動領域分離予測を行うかどうかを示すフラグである。slice_global_motion_flagが0である場合、背景画像生成部901及び動領域分離予測部902は、第1の実施の形態で説明した背景画像生成部303及び動領域分離予測部302と同様の予測を行う。つまり、グローバルMV803は送られず、利用しない。一方、slice_global_motion_flagが1である場合、予め定められたグローバルMV803のパラメータの数を示すNumOfGMPの数だけ、gmv_paramを符号化する。これらの情報を用いて、背景画像生成部901及び動領域分離予測902で対応する予測画像信号が生成される。本実施の形態では、NumOfGMP=2の例を示しており、gmv_param[0]は水平方向の動きベクトルを、gmv_param[1]は垂直方向の動きベクトルを表している。これらの情報は、グローバルベクトル推定部802によって算出され、符号化制御部107が与える予測情報119として符号列符号化部108で符号化される。
ここで、本実施の形態ではgmv_paramが直接グローバルMV803のパラメータとして与えられる例を示したが、直近に符号化されたスライスのグローバルMV803からの差分値を符号化しても良いし、予め定めた予測方法によってグローバルMV803を算出し、そこからの差分値を符号化しても良い。
以上が、本発明に係わる動画像符号化装置100のインター予測部801の説明である。
(第3の実施形態:適応補間フィルタ)
本実施の形態では、動画像符号化装置100の構造は図2と同一であるため、説明を省略する。但し、予測部106の機能が異なっているため、予測部1001が設けられている。図21に第3の実施形態における予測部1001を示す。尚、既に説明した機能と同様の機能を持つものに対しては同じインデックスを与えて、その説明を省略する。尚、インター予測部202は、機能の違いのためにインター予測部1101が設けられている。
予測部1001では、インター予測部1101に加えて、動き補償フィルタ係数推定部1102が設けられている。動き補償フィルタ係数推定部1102は、符号化フレーム毎、符号化スライス毎或いはマクロブロック毎に、インター予測の動き補償処理で用いるフィルタ係数1103を算出する機能を有する。本実施の形態では、動き補償処理として二次元6タップのFIRフィルタを例に挙げて説明するが、タップ数はNタップと仮定することが可能であり、利用するハードウェア等の制限によって自由に選択できる。また、一次元フィルタ、二次元フィルタや三次元フィルタなども適用可能である。
動き補償フィルタ係数推定部1102では、入力画像信号110や予測画像信号117の性質に応じてフィルタ係数を設計する。例えば、既に第1、2の実施の形態中の動き補償部301で説明したように、フィルタ係数固定の動き補償フィルタで予測したときの予測誤差と動きベクトルとの対応関係を累積し、動きベクトルが指す分数位置毎の予測誤差が最小になるように、最小二乗法を用いてフィルタ係数を算出する。このときの評価基準として次式(15)を用いる。
Figure 2010011075
ここで、Oは入力画像信号110を示しており、MCは固定フィルタを用いて算出された予測画像信号である。hは導出するフィルタ係数1103を示しており、(i,j)はフィルタリング処理を行う分数位置を示している。また、(a,b)はフィルタオフセットを示す固定値である。式(15)の二乗コストが最小となるようにフィルタ係数hを設計する。設計されたフィルタ係数1103は、インター予測部1101へと入力される。
本実施の形態では、通常の固定動き補償フィルタを用いてフィルタを設計する方法について説明したが、入力画像信号110の特徴量を用いてフィルタを設計しても良い。例えば、高周波数成分用のフィルタ係数セット、中周波数成分用のフィルタ係数セット、低周波数成分用のフィルタ係数セットを用意しておき、入力画像信号の周波数特性に応じて、選択的にフィルタ係数を入力しても良い。
次に、インター予測部1101について説明する。図22はインター予測部1101のブロック図である。第1の実施形態の動領域分離予測部302に対してフィルタ係数1103が入力されている以外は図1と同一であるため、それ以外の説明を省略する。
先ず動領域分離予測部1201について説明する。動領域分離予測部1201は、動きベクトル推定部203から出力された動きベクトル207、参照画像メモリ105から出力された参照画像信号116、及び背景画像信号生成部901から出力された背景画像信号306、及びフィルタ係数1103が入力される。動領域分離予測部1201は、入力された動領域分離マスク115を用いて、動領域に対して適応動き補償処理を、背景領域に対しては、背景画像信号306の補填を行い、別々の予測方法で予測された信号を合成する機能を有する。尚、入力された動きベクトル207を用いて動領域分離マスク115にもマッチングを行う。つまり、動き補償部301の説明で述べた動きベクトルから補間位置の導出を動領域分離マスク115にも適用する。この場合、動領域分離マスクは整数画素精度のみなので、分数精度の動きベクトルの場合は、整数画素精度へのマッピングを行う。1/4画素精度の動き補償処理の場合の整数画素位置へのマッピングは式(10)で表される。導出された整数精度の動きベクトルを用いて次式(16)によって予測画像信号が生成される。
Figure 2010011075
ここでAMCは適応動き補償予測によって導出された予測値を示している。より具体的に図7を参照しながら適応動き補償予測を説明する。
最初に1/2画素位置に対応するa,b,c,d,h,nの画素位置の予測値を6タップの1次元フィルタで生成する。例えばa、dの画素位置に対応する予測値は次式(17)で生成される。
Figure 2010011075
次に残りの分数精度位置に対応するe,f,g,i,j,k,p,q,rの画素位置の予測値を6タップの2次元フィルタで生成する。例えばeの画素位置に対応する予測は次式(18)で生成される。
Figure 2010011075
上記生成方法で予測画像を作成する場合、フィルタ係数が最大360個程度発生する。そこで、空間的対照性を加味してフィルタ係数を統合する。例えば、上記画素a,c,d,lの対象性を利用して次式(19)でフィルタ係数を統合する。
Figure 2010011075
このような対照性を利用した係数を利用することで、適応動き補償予測で用いるフィルタ係数を削減することが可能である。
このように動き補償フィルタ係数推定部1102で算出され、入力されたフィルタ係数1103を利用して式(16)のAMCの予測画像信号を生成する。
動領域に対しては、算出されたフィルタ係数1103を用いて、適応動き補償を行い、背景領域に対しては、背景画像信号306を補填することによって、動いているオブジェクトと背景領域毎に最適な予測画像信号が生成できるため、予測精度を高めることが可能となる。このようにして作成された予測画像信号117が動領域分離予測部1201から出力されるとともに、この時利用したブロック形状、動きベクトル207、及びフィルタ係数1103などの予測情報119が、符号化制御部107に記録され、エントロピー符号化され、最終的に符号化データに多重化される。
図27に本実施の形態におけるスライスヘッダーシンタクスの例を示す。図中に示されるslice_adaptive_filter_flagは、適応動き補償予測を利用した動領域分離予測を行うかどうかを示すフラグである。slice_adaptive_filter_flagが0である場合、動領域分離予測部1201は、第1の実施の形態で説明した動領域分離予測部302と同様の予測を行う。つまり、動画素に対する適応動き補償予測は行われず、フィルタ係数も利用しない。一方、slice_adaptive_filter_flagが1である場合、予め定められた二次元のフィルタ係数1103の個数を示すNumOfPosXとNumOfPosYの数だけ、filter_coeffを符号化する。これらの情報を用いて、動領域分離予測1201で動画素に対して適応動き補償予測が行われ、予測画像信号が生成される。これらの情報は、動き補償フィルタ係数推定部1102によって算出され、符号化制御部107が与える予測情報119として符号列符号化部108で符号化される。
ここで、本実施の形態ではfilter_coeffが直接フィルタ係数1103のパラメータとして与えられる例を示したが、直近に符号化されたスライスのフィルタ係数1103からの差分値を符号化しても良いし、予め定めた予測方法によってフィルタ係数1103を算出し、そこからの差分値を符号化しても良い。
以上が、本発明に係わる動画像符号化装置100のインター予測部1101の説明である。
以上説明したように、本実施形態では、矩形ブロックに適さない動オブジェクトを予測するために、過度のブロック分割が施されて、ブロック分割情報が増大することを防ぐ。つまり、付加的な情報を増加させずに、ブロック内の動領域と背景領域を分離し、それぞれに最適な予測方法を適用することによって、符号化効率を向上させると共に主観画質も向上するという効果を奏する。
<動画像復号化装置>
次に、動画像復号化に関する第4〜第6の実施形態について述べる。
(第4の実施形態)
図29は、図1〜図28を用いて説明した第1〜第3の実施形態に従う動画像符号化装置に対応する、第4の実施形態に従う動画像復号化装置を示している。動画像復号化装置400は、入力バッファ401から入力される符号化データ409を復号する符号列復号部402、符号列復号部402からの変換係数を逆量子化し、逆変換する逆量子化・逆変換部403、逆量子化・逆変換部403からの予測誤差信号411と予測画像信号415とを加算する加算器404、加算器404からの復号画像信号を参照画像として記憶する参照画像メモリ405、参照画像信号413,動領域マスク414,予測情報および動きベクトル417を受けて予測画像信号415を生成する予測部406を備えている。動画像符号化装置400は符号化制御部408によって制御され、復号画像信号を出力バッファ407に出力する。
上記構成において、図1に示した動画像符号化装置100などから送出され、蓄積系または伝送系を経て送られてきた符号化データ409は入力バッファ401に一度蓄えられ、多重化された符号化データが動画像復号化装置400に入力される。
動画像復号化装置400では、符号化データが符号列復号部402に入力され、1フレームまたは1フィールド毎にシンタクスに基づいて構文解析による解読が行われる。すなわち、符号列復号部402では、順次各シンタクスの符号列がエントロピー復号化され、予測情報416、変換係数410、対象ブロックの符号化パラメータなどが再生される。本実施の形態においては、符号化パラメータとは、予測情報416はもとより、変換係数に関する情報、量子化に関する情報、などの復号の際に必要になるあらゆるパラメータを指す。
符号列復号部402で解読が行われた変換係数410は、逆量子化・逆変換部403へと入力される。符号列復号部402によって解読された量子化に関する様々な情報、すなわち、量子化パラメータや量子化マトリクスは、復号化制御部408に設定され、逆量子化処理として利用される際にロードされる。ロードされた量子化に関する情報を用いて、逆量子化・逆変換部403では、最初に逆量子化処理が行われる。逆量子化された変換係数410は、続いて逆変換処理(例えば逆離散コサイン変換など)が実行される。ここでは、逆直交変換について説明したが、符号化装置でウェーブレット変換などが行われている場合、逆量子化・逆変換部403は、対応する逆量子化及び逆ウェーブレット変換などが実行されても良い。
逆量子化・逆変換部403を通って、復元された予測誤差信号411は加算器404へと入力され、ここで後述する予測部406で生成された予測画像信号415と加算され、復号画像信号412が生成される。生成された復号画像信号412は、動画像復号化装置400から出力されて、出力バッファ407に一旦蓄積された後、復号化制御部408が管理する出力タイミングに従って出力される。また、この復号画像信号412は参照画像メモリ405へと保存され、参照画像信号413となる。参照画像信号413は参照画像メモリ405から、順次フレーム毎或いはフィールド毎に読み出され、予測部406へと入力される。
次に、予測部406について説明する。符号列復号部402で解読された予測方法を示す予測情報416が予測部406に入力されるとともに、参照画像メモリ405に蓄積されている既に符号化済みの復号画像信号412が参照画像413として予測部406へと入力される。尚、本図では、説明時の簡略化のために、動き補償予測と動領域分離予測で利用される予測情報416中の動きベクトル417を分けて入力している。
図30に予測部406のブロック図を示す。予測部406は、予測切替スイッチ503、イントラ予測部501、インター予測部502を備えている。予測部406に入力された予測情報416に含まれる予測モードに従って予測切替スイッチ503は、どの予測方法で予測するかを切り替える機能を有する。予測モードがイントラ予測であった場合、予測切替スイッチ503はイントラ予測部501へと接続される。一方、予測モードがインター予測であった場合、予測切替スイッチはインター予想部502へと接続される。
イントラ予測部501は、第1の実施の形態で説明した処理を行って予測画像信号417を生成する。本実施の形態では、4×4画素イントラ予測(図4C参照)、8×8画素イントラ予測(図4D参照)、16x16画素イントラ予測(図4B参照)が規定されている。このイントラ予測では、参照画像メモリ405に保存されている参照画像信号413から、補間画素を作成し、空間方向にコピーすることによって予測値を生成している。
次に、インター予測部502について説明する。インター予測部502の構造は図2で説明した動画像符号化装置におけるインター予測部202と全く同じである。但し、予測部406内で生成される予測画像信号415は、予測情報416で与えられる予測モードのみの予測画像信号生成処理だけを行えばよい。つまり、与えられた予測モード以外の予測画像信号415を生成する必要はない。例えば、予測情報416で与えられる予測モードがインター予測である場合、符号列復号部402にて解読され、生成された動きベクトル417と予測情報416内に含まれるブロック形状情報、利用する参照画像信号のインデックスなどが与えられ、対象ブロックに対してこれらの与えられた情報からただ1つの予測画像信号415を生成すればよい。
インター予測部502(202)内の動き補償部301についてより詳細に説明する。動き補償部301では、まず動きベクトル417(207)の情報に従って、当該予測画素ブロックの位置から、式(3)を用いて動きベクトル417(207)で参照されている位置を割り出す。ここでは、H.264の1/4画素精度の補間を例に挙げて説明する。動きベクトルの各成分が4の倍数である場合は、整数画素位置を指していることを意味する。それ以外の場合は、分数精度の補間位置に対応する予測位置であることがわかる。次に割り出した画素位置に対して、参照画像信号413(116)の対応する画素位置の補填もしくは補間処理によって予測画素を生成する。図8にH.264の予測画素生成の例を示す。例えば、図中でアルファベットb、hの位置に対応する1/2画素の補間処理は式(4)で算出される。また、図中でアルファベットa、dの位置に対応する1/4画素の補間処理は式(5)で算出される。このように1/2画素位置の補間画素は、6タップFIRフィルタ(タップ係数:(1,−5,20,20、−5,1)/32)を用いて生成し、1/4画素位置の補間画素は、2タップの平均値フィルタ(タップ係数:(1/2,1/2))を用いて算出される。4つの整数画素位置の中間に存在するアルファベットjに対応する1/2画素の補間処理は、垂直方向6タップと水平方向6タップの両方向を行うことによって生成される。説明した以外の画素位置も同様のルールで補間値が生成できる。以上が、動き補償部301おける予測画像信号生成の例である。
次に、背景画像生成部303について説明する。背景画像生成部303は、入力された参照画像信号413(116)を用いて、背景画像信号306及び動領域分離マスク414(115)を生成する機能と、生成した背景画像信号306を保持するメモリとしての機能を有する。まず、動領域分離マスク414(115)の生成について説明する。動領域分離マスク414(115)は、参照画像信号413(116)で提供された各々の時刻で復号された復号画像信号114に対してそれぞれ1つずつ存在する。動領域分離マスク414(115)は、同時刻に復号された復号画像信号412の各画素に対して、それ以前に復号された復号画像信号412との時間的な輝度変化(差分値)が予め定めた規定値THよりも小さい場合に背景画素と認定し、輝度変化が規定値THを超える場合を動画素と判定する2値のマスクマップであり式(6)で表される。
利用可能な参照画像信号413(116)が複数ある場合は、式(7)を用いて背景画素であるか、動画素であるかを判定する。図9に複数の参照画像信号に対して差分値を求める際の対応関係を示す。また、図11に予測対象画素ブロックからの時間的距離に応じて重みwを変える例を示す。
尚、上記では単純に差分値のみによって画素の領域判定を行う例を示したが、代表値を決める指標として、利用可能な複数の復号画像信号間(時間方向)の画素の差分値、差分値の最大値、差分値の平均値、差分値のメディアン値、差分値の分散を用いて判定しても良いし、復号画像信号の領域判定を行う画素に隣接する画素(空間方向)の差分値の最大値、差分値の平均値、差分値のメディアン値、差分値の分散、などの指標を用いて判定しても良い。
また、一度生成した動領域分離マスクに対して補正を行っても良い。例えば、生成した動領域分離マスクの補正対象画素において、隣接位置に対応する上下左右の4点、或いは対角方向も含めた9点のマスクの値を用いて、孤立点となるような領域を補正したり、予測ブロック形状に合わせてブロック境界のマスクの値を修正したりしても良い。この場合の例が式(8)に示されている。図11に対象画素と隣接画素の関係を示す。図10の丸印の密度が高くなるほど対象画素との距離が離れることを意味している。更に図12に空間方向の市街地距離に応じて、重みvを変更する例を示す。このように空間方向に対して重みvを適切に設定することによって、生成された動領域分離マスクを補正することができ、孤立点の除去、不連続点の連結、矩形ブロックへの領域拡大・縮小、エッジ修正、画素補填、画素マッチング等が可能となる。尚、本発明の本実施の形態では、市街地距離による重み変更例を示したが、距離の定義は市街地距離、マンハッタン距離などを含む、ミンコフスキー距離の中から1つを用いて計算することが可能である。
次に、背景画像信号306の生成について説明する。背景画像信号306とは、時間方向で輝度変化が少ない背景領域のみを集めた信号となっており、動領域分離マスク414(115)と時間的に最近接の復号画像信号412に基づいて画素毎に導出される。前述した動領域分離マスク414(115)から式(9)を用いて背景画像信号306を生成する。当該時刻の背景画像信号306の更新時は、参照画像信号413(116)の中の時間的に最近接の復号画像信号412と動領域分離マスク414(115)を利用し、マスクの値が0(背景画素の場合)のみ、最近接の復号画像信号114と更新前の背景画像信号306の重み付き和で更新が行われる。重み付き和は例えばwt=1/2に設定することで平均値フィルタとなる。一方、マスクの値が1(動画素の場合)には、更新は行われない。尚、背景画像信号306の初期値は、予め定めた輝度値(例えば輝度信号であれば0や最大輝度値(8ビットでは256)、色差信号であれば中間輝度値(8ビットで128))で埋めておいても良いし、画面内予測だけで符号化されるようなI-sliceの輝度値を用いたりしても良い。背景画像信号306のリフレッシュは、I-sliceが挿入された場合や、IDRピクチャが挿入された場合に行われる。本実施の形態ではI-sliceのタイミングで必ず背景画像信号306のリフレッシュが行われる例を示している。以上のような過程で背景画像信号306が適切なタイミングで更新される。
尚、背景画像信号306は、背景画像生成部303の内部メモリに保持されており、更新された信号が動領域分離予測部302へと出力される。また、生成された動領域分離マスク414(115)は、インター予測部202から出力され、予測部106を経て、同じ時刻の復号画像信号412とともに参照画像信号413として参照画像メモリ405へと保存される。
次に、動領域分離予測部302について説明する。動領域分離予測部302は、符号列復号部402で解読された動きベクトル417(207)、参照画像メモリ405から出力された参照画像信号413(116)、及び背景画像信号生成部303から出力された背景画像信号306が入力される。動領域分離予測部302は、入力された動領域分離マスク414(115)を用いて、動領域に対して動き補償処理を、背景領域に対しては、背景画像信号の補填を行い、別々の予測方法で予測された信号を合成する機能を有する。尚、入力された動きベクトル417(207)を用いて動領域分離マスク414(115)にもマッチングを行う。つまり、動き補償部301の説明で述べた動きベクトルから補間位置の導出を動領域分離マスク115にも適用する。この場合、動領域分離マスクは整数画素精度のみなので、分数精度の動きベクトルの場合は、整数画素精度へのマッピングを行う。1/4画素精度の動き補償処理の場合の整数画素位置へのマッピングは式(10)で表される。導出された整数精度の動きベクトルを用いて式(11)のようにして動領域分離予測が行われる。
例えば図8で生成された補間画素a、b、jなどの値や整数画素G、H、Mなどの値がMCに入る。図13に、参照画像信号が時間方向に4枚利用可能な場合の、復号画像信号412と動領域分離マスク414(115)の例と背景画像信号306の例を示す。このようにして作成された予測画像信号が動領域分離予測部302から出力される。
次に、予測切替部304と予測分離スイッチ305について説明する。予測切替部304は、入力されてきた動領域分離マスク414(115)の情報に基づいて、予測分離スイッチ305を制御するための予測切替情報307を出力する。予測分離スイッチ305は、予測切替情報307に従って、スイッチの出力端を動き補償部301側に接続するか、動領域分離予測部302側に接続するかを切り替える機能を有する。より具体的に説明すると、当該予測対象画素ブロック内に含まれる動領域分離マスクの比率を算出し、動領域が予め設定した規定値TPより大きいか、小さいかによって予測切替情報307を更新する。図14に、TP=90%に設定した場合の切替の例を示している。このようにして、予測対象画素ブロックのインター予測の予測方法(動き補償予測と動領域分離予測)が動的に切り替えられ、インター予測部202から予測画像信号415(117)が出力される。
次に、本動画像復号化装置400におけるシンタクス構造について説明する。図24に示すとおり、シンタクスは主に3つのパートからなり、ハイレベルシンタクス1601は、スライス以上の上位レイヤのシンタクス情報が詰め込まれている。スライスレベルシンタクス1602では、スライス毎に必要な情報が明記されており、マクロブロックレベルシンタクス1603では、マクロブロック毎に必要とされるデータが明記されている。
それぞれは、更に詳細なシンタクスで構成されており、ハイレベルシンタクス1601では、シーケンスパラメータセットシンタクス1604とピクチャパラメータセットシンタクス1605などのシーケンス、ピクチャレベルのシンタクスから構成されている。スライスレベルシンタクス1602では、スライスヘッダーシンタクス1605、スライスデータシンタクス1606などから成る。更に、マクロブロックレベルシンタクス1603は、マクロブロックレイヤーシンタクス1607、マクロブロックプレディクションシンタクス1608などから構成されている。
図25にスライスヘッダーシンタクスの例を示す。図中に示されるslice_motion_region_separation_flagは、インター予測部502(202)中の予測切替部304から出力される予測切替情報307に利用される。slice_motion_region_separation_flagが0である場合、予測切替部304は、スライスにおいて常に動き補償予測部301の出力端を出力するように予測切替情報307を設定して予測分離スイッチ305を切り替える。つまり、必ず動き補償予測が行われることを意味している。一方、slice_motion_region_separation_flagが1である場合、前述の通り、スライスにおいて背景画像生成部303から出力された動領域分離マスク414(115)の信号に基づいて動き補償予測と動領域分離予測が動的に切り替わる。
図26に符号化パラメータの例としてマクロブロックレイヤーシンタクスの例を示す。表中に示されるmb_typeは、マクロブロックタイプ情報を示している。すなわち、現在のマクロブロックがイントラ符号化されているか、インター符号化されているか、或いはどのようなブロック形状で予測が行われているか、などの情報を含んでいる。表中に示されるcoded_block_patternは、8×8画素ブロック毎に、変換係数が存在するかどうかを示している。例えばこの値が0である時、対象ブロックに変換係数が存在しないことを意味している。表中のmb_qp_deltaは、量子化パラメータに関する情報を示している。対象ブロックの1つ前に符号化されたブロックの量子化パラメータからの差分値を表している。表中のintra_pred_modeは、イントラ予測の予測方法を示す予測モードを示している。表中のref_idx_l0及びref_idx_l1は、インター予測が選択されているときに、対象ブロックがどの参照画像を用いて予測されたか、を表す参照画像のインデックスを示している。表中のmv_l0、mv_l1は動きベクトル情報を示している。表中のtransform_8x8_flagは、対象ブロックが8×8変換であるかどうかを示す変換情報を表している。
表中の行間には、本発明で規定していないシンタクス要素が挿入されることも可能であるし、それ以外の条件分岐に関する記述が含まれていても良い。或いは、シンタクステーブルを複数のテーブルに分割、統合することも可能である。また、必ずしも同一の用語を用いる必要は無く、利用する形態によって任意に変更しても良い。更に、マクロブロックレイヤーシンタクスに記述されている各々のシンタクスエレメントは、後述するマクロブロックデータシンタクスに明記されるように変更しても良い。
以上が、本発明に係わる動画像復号化装置400の説明である。
(第4の実施形態:変更例1:切替情報のシグナリング)
本実施の形態では、インター予測部502(202)内の予測方法として、動き補償部301と動領域分離予測部302の2つを予測切替部304によって動的に切り替える例を示したが、動き補償予測と動領域分離予測の切替を動的に行わない実施の形態も可能である。この場合、どちらの予測方法が利用されたかのインデックスを復号化する必要が生じる。このインデックスは、予測切替情報307に記述されており、選択された予測画像信号117に対するインデックスが予測切替情報307に記述されている。
図15にマクロブロック毎に利用した予測方法を示すインデックスを復号化する例を示す。また、図27に本実施の形態におけるマクロブロックレイヤーシンタクスの例を示す。図中に示されるmb_motion_region_separation_flagは、インター予測部502(202)中の予測切替部304から出力される予測切替情報307に利用される。mb_motion_region_separation_flagが0である場合、予測切替部304は、マクロブロックにおいて常に動き補償予測部301の出力端を出力するように予測切替情報307を設定して予測分離スイッチ305を切り替える。つまり、必ず動き補償予測が行われることを意味している。一方、mb_motion_region_separation_flagが1である場合、予測切替部304は、マクロブロックにおいて常に動領域分離予測部302の出力端を出力するように予測切替情報307を設定して予測分離スイッチ305を切り替える。つまり、必ず動領域分離予測が行われることを意味している。SignalingFlagはmb_motion_region_separation_flagを符号化するかどうかを決定するための内部パラメータである。SignalingFlagが1の場合、動画素の比率が規定値THMAXからTHMINの間に含まれることを意味する。一方、SignalingFlagが0の場合、動画素の比率が規定値THMAXからTHMINの間に含まれないことを意味する。
(第4の実施形態:変更例2:予測画像信号の使いまわし)
本実施の形態では、動き補償部301と動領域分離予測部302をそれぞれ別々の予測方法として記述しているが、動領域分離予測部302内で動き補償部301と同様の予測方法も用いている。このように同様の処理を複数回行うことによる演算量の増加を避けるため、図18に示すように動き補償部301で算出した予測画像信号415(117)を動領域分離予測部302へと入力する構造としても良い。或いは動き補償部301の機能を動領域分離予測部302と統合させても良い。
(第4の実施形態:変更例3:切替構造の削除)
本実施の形態では、動き補償部301と動領域分離予測部302をそれぞれ別々の予測方法として記述しているが、予測方法を動領域分離予測302に単一化して、予測切替部304を削除する構造としても良い。図19に、動き補償部301、予測切替部304、予測分離スイッチ305を削除した実施形態を示す。予測構造が簡略化するため、ハードウェア規模などの増大を防ぐことが可能となる。
(第5の実施形態:グローバルMC)
本実施の形態では、動画像復号化装置400において、予測情報416にグローバルMV1401の情報が含まれている。尚、動画像復号化装置400としての構造は図29と変わらないため、同じ構成要素に関する説明は省略する。但し、予測部406の機能が異なるため、図31に示されるように新たに予測部1400が設けられている。予測部1400は、構造としては予測部406と同一であるが、予測情報416に含まれているグローバルMV1401がインター予測部801へと入力されている点だけが異なる。
インター予測部801内の機能について図20を用いて説明する。まず、背景画像生成部901について説明する。背景画像生成部901は、参照画像メモリ405(105)から出力された参照画像信号413(116)及びグローバルMV1401(803)が入力される。背景画像生成部901は、グローバルMV1401(803)を利用することによって、カメラが動いているような映像に対しても、背景画像信号306を生成することが可能である。まず、動領域分離マスク414(115)の生成方法について説明する。動領域分離マスク414(115)は、参照画像信号413(116)とグローバルMV1401(803)を用いて式(12)で算出される。ここで、差分値の代表値を決める指標は、第4の実施形態で述べた方法を当てはめることが可能である。また、第4の実施形態と同様に一度生成した動領域分離マスクに対して補正を行っても良い。
次に、背景画像信号306の生成について説明する。背景画像信号306は、前述した動領域分離マスク414(115)と復号画像信号412、及びグローバルMV1401(803)を用いてから式(13)で導出される。
次に、動領域分離予測部902について説明する。動領域分離予測部902は、動きベクトル417(207)、参照画像信号413、及び背景画像信号生成部901から出力された背景画像信号306、及びグローバルMV1401(803)が入力される。動領域分離予測部902は、入力された動領域分離マスク414(115)を用いて、動領域に対して動き補償処理を、背景領域に対しては、グローバルMV1401(803)を用いた動き補償処理を行い、別々の予測方法で予測された信号を合成する機能を有する。尚、入力された動きベクトル417(207)を用いて動領域分離マスク414(115)にもマッチングを行う。つまり、動き補償部301の説明で述べた動きベクトルから補間位置の導出を動領域分離マスク414(115)にも適用する。この場合、動領域分離マスクは整数画素精度のみなので、分数精度の動きベクトルの場合は、整数画素精度へのマッピングを行う。1/4画素精度の動き補償処理の場合の整数画素位置へのマッピングは式(10)で表される。導出された整数精度の動きベクトルを用いて式(14)のようにして動領域分離予測が行われる。
動領域に対しては通常の動き補償予測を、背景領域に対しては、背景画像信号306を、グローバルMV1401(803)を用いて動き補償することによって、動オブジェクトの形状によらずに予測精度を挙げることが可能となる。
図27に本実施の形態におけるスライスヘッダーシンタクスの例を示す。図中に示されるslice_global_motion_flagは、グローバルMV1401(803)を利用した動領域分離予測を行うかどうかを示すフラグである。slice_global_motion_flagが0である場合、背景画像生成部901及び動領域分離予測部902は、第4の実施の形態で説明した背景画像生成部303及び動領域分離予測部302と同様の予測を行う。つまり、グローバルMV1401(803)は復号されず、利用できない。
一方、slice_global_motion_flagが1である場合、予め定められたグローバルMV1401(803)のパラメータの数を示すNumOfGMPの数だけ、gmv_paramを復号化する。これらの情報を用いて、背景画像生成部901及び動領域分離予測902で対応する予測画像信号が生成される。本実施の形態では、NumOfGMP=2の例を示しており、gmv_param[0]は水平方向の動きベクトルを、gmv_param[1]は垂直方向の動きベクトルを表している。
ここで、本実施の形態ではgmv_paramが直接グローバルMV1401(803)のパラメータとして与えられる例を示したが、直近に復号されたスライスのグローバルMV1401(803)からの差分値を符号化しても良いし、予め定めた予測方法によってグローバルMV1401(803)を算出し、そこからの差分値を復号しても良い。
以上が、本発明に係わる動画像復号化装置の説明である。
(第6の実施形態:適応補間フィルタ)
本発明の本実施の形態では、動画像復号化装置400において、予測情報416にフィルタ係数1501の情報が含まれている。尚、動画像復号化装置400としての構造は図29と変わらないため、同じ構成要素に関する説明は省略する。但し、予測部406の機能が異なるため、新たに予測部1500のインデックスを与え、図32で説明する。予測部1500は、構造としては予測部406と同一であるが、予測情報416に含まれているフィルタ係数1501がインター予測部1101へと入力されている点だけが異なる。
インター予測部1101内の機能について図22を用いて説明する。動領域分離予測部1201は、動きベクトル417(207)、参照画像信号413(116)、及び背景画像信号生成部901から出力された背景画像信号306、及びフィルタ係数1501(1103)が入力される。動領域分離予測部1202は、入力された動領域分離マスク414(115)を用いて、動領域に対して適応動き補償処理を、背景領域に対しては、背景画像信号306の補填を行い、別々の予測方法で予測された信号を合成する機能を有する。尚、入力された動きベクトル417(207)を用いて動領域分離マスク414(115)にもマッチングを行う。つまり、動き補償部301の説明で述べた動きベクトルから補間位置の導出を動領域分離マスク414(115)にも適用する。この場合、動領域分離マスクは整数画素精度のみなので、分数精度の動きベクトルの場合は、整数画素精度へのマッピングを行う。1/4画素精度の動き補償処理の場合の整数画素位置へのマッピングは式(10)で表される。導出された整数精度の動きベクトルを用いて式(16)によって予測画像信号が生成される。
より具体的に図8を参照しながら適応動き補償予測を説明する。最初に1/2画素位置に対応するa,b,c,d,h,nの画素位置の予測値を6タップの1次元フィルタで生成する。例えばa、dの画素位置に対応する予測値は式(17)で生成される。次に残りの分数精度位置に対応するe,f,g,i,j,k,p,q,rの画素位置の予測値を6タップの2次元フィルタで生成する。例えばeの画素位置に対応する予測は式(18)で生成される。尚フィルタの対照性を考慮して、式(19)を用いてフィルタ係数1501(1103)を統合する。このような対照性を利用した係数を利用することで、適応動き補償予測で用いるフィルタ係数1501(1103)を削減することが可能である。
動領域に対しては復号されたフィルタ係数1501(1103)を用いて、適応動き補償を行い、背景領域に対しては、背景画像信号306を補填することによって、動いているオブジェクトと背景領域毎に最適な予測画像信号が生成できるため、予測精度を高めることが可能となる。
図28に本実施の形態におけるスライスヘッダーシンタクスの例を示す。図中に示されるslice_adaptive_filter_flagは、適応動き補償予測を利用した動領域分離予測を行うかどうかを示すフラグである。slice_adaptive_filter_flagが0である場合、動領域分離予測部1201は、第3の実施の形態で説明した動領域分離予測部302と同様の予測を行う。つまり、動画素に対する適応動き補償予測は行われず、フィルタ係数も利用しない。一方、slice_adaptive_filter_flagが1である場合、予め定められた二次元のフィルタ係数の個数を示すNumOfPosXとNumOfPosYの数だけ、filter_coeffを復号する。これらの情報を用いて、動領域分離予測1201で動画素に対して適応動き補償予測が行われ、予測画像信号が生成される。
ここで、本実施の形態ではfilter_coeffが直接フィルタ係数1501(1103)のパラメータとして与えられる例を示したが、直近に復号化されたスライスのフィルタ係数1501(1103)からの差分値を復号化しても良いし、予め定めた予測方法によってフィルタ係数を算出し、そこからの差分値を復号化しても良い。
以上が、本発明に係わる動画像復号化装置の説明である。
(第1〜第6の実施形態の変形例)
(1)第1〜第6の実施形態においては、処理対象フレームを16×16画素サイズなどの短形ブロックに分割し、図4Aに示したように画面左上のブロックから右下に向かって順に符号化/復号化する場合について説明しているが、符号化/復号化順序はこれに限られない。例えば、右下から左上に向かって順に符号化/復号化を行ってもよいし、画面中央から渦巻状に向かって順に符号化/復号化を行ってもよい。さらに、右上から左下に向かって順に符号化/復号化を行ってもよいし、画面の周辺部から中心部に向かって順に符号化/復号化を行ってもよい。
(2)第1〜第6の実施形態においては、ブロックサイズを4×4画素ブロック、8×8画素ブロックとして説明を行ったが、対象ブロックは均一なブロック形状にする必要なく、16×8画素ブロック、8×16画素ブロック、8×4画素ブロック、4×8画素ブロックなどのブロックサイズであってもよい。また、1つのマクロブロック内でも均一なブロックサイズを取る必要はなく、それぞれ異なるサイズのブロックを混在させてもよい。この場合、分割数が増えると分割情報を符号化するための符号量が増加するが、変換係数の符号量と局部復号画像とのバランスを考慮して、ブロックサイズを選択すればよい。
(3)第1〜第6の実施形態においては、輝度信号と色差信号を分割せず、一方の色信号成分に限定した例として記述した。しかし、予測処理が輝度信号と色差信号で異なる場合、それぞれ異なる予測方法を用いてもよいし、同一の予測方法を用いても良い。異なる予測方法を用いる場合は、色差信号に対して選択した予測方法を輝度信号と同様の方法で符号化/復号化する。
(4)第1及び第4の実施形態においては、図17で説明したように、動き補償部301で生成された予測画像信号を動領域分離予測部302で使いまわす変更例や、図18で説明したように、動き補償部301を削除して、常に動領域分離予測部302を利用する変更例を示したが、これらの変更例は第2、3実施の形態及び第5,6実施の形態においても同様の枠組みが適応可能である。また、第2及び5実施の形態におけるグローバルMV803を利用した動き補償予測を、動き補償部301に適用しても良いし、実施の形態3及び6におけるフィルタ係数1103を利用する適応動き補償予測を動き補償部301に適応しても一向に構わない。
なお、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
第1の実施形態に従う動画像符号化装置を示すブロック図 第1の実施形態に従う予測部を示すブロック図 第1の実施形態に従うインター予測部を示すブロック図 符号化の処理の流れを示す図 16×16画素ブロックを示す図 4×4画素ブロックを示す図 8×8画素ブロックを示す図 参照画像信号と予測対象画像との位置関係と動きベクトルとの関係を示す図 マクロブロック単位の動き補償ブロックのサイズを示す図 サブブロック単位の動き補償ブロックのサイズを示す図 動き補償予測の際の整数画素と分数画素の位置関係を示す図 複数の参照画像信号に対する対象画素と時間的に同位置の画素との関係を示す図 予測対象画素ブロックからの時間的距離と重みとの関係を示す図 対象画素と隣接画素の空間的位置関係と距離を示す図 予測対象画素ブロックからの空間的距離と重みとの関係を示す図 複数の復号画像信号と動領域分離マスク及び背景画像信号の予測の概要を示す図 動領域分離マスク上の動画素と背景画素の比率によって予測方法が変わることを示す図 動領域分離マスク上の動画素と背景画素の比率によって予測の切替を行うことを示す図 背景画像信号生成部の処理の流れを示すフローチャート 動領域分離予測部の処理の流れを示すフローチャート 第1の実施形態の変形例として示されるインター予測部のブロック図 第1の実施形態の変形例として示されるインター予測部のブロック図 第2の実施形態に従った動画像符号化装置に設けられる予測部のブロック図 図19の予測部に設けられるインター予測部のブロック図 第3の実施形態に従った動画像符号化装置に設けられる予測部のブロック図 図21の予測部に設けられるインター予測部のブロック図 シンタクス構造を示す図 スライスヘッダーに含まれる情報を示す図 第1の実施の形態におけるマクロブロックレイヤーに含まれる情報を示す図 第1の実施の形態の変更例におけるマクロブロックレイヤーに含まれる情報を示す図 第2の実施の形態におけるスライスヘッダーシンタクスに含まれる情報を示す図 第3の実施の形態におけるスライスヘッダーシンタクスに含まれる情報を示す図 第4、5、6の実施形態に従う動画像復号化装置のブロック図 第4の実施形態に従う動画像復号化装置に設けられる予測部を示すブロック図 第5の実施形態に従う動画像復号化装置に設けられる予測部を示すブロック図 第6の実施形態に従う動画像復号化装置に設けられる予測部を示すブロック図
符号の説明
101…減算器、102…変換・量子化部、103…逆変換・逆量子化部、104…加算器、105…参照画像メモリ、106…予測部、107…符号化制御部、108…符号列符号化部、109…出力バッファ、114…復号画像信号、115…動領域分離マスク、116…参照画像信号、117…予測画像信号、201…イントラ予測部、202…インター予測部、203…動きベクトル推定部、204…モード判定スイッチ、205…モード判定部、301…動き補償部、302…動領域分離予測部、303…背景画像生成部、304…予測切替部、305…予測分離スイッチ、306…背景画像信号

Claims (36)

  1. 入力画像信号を複数の画素ブロックに分割し、参照画像信号を用いて各画素ブロックの予測処理を行い,前記入力画像信号と予測画像信号との差分信号を符号化する動画像符号化方法において、
    各参照画像の信号毎に動領域と背景領域とを示す二値の動領域分離マスクを生成するマスク生成ステップと、
    2つ以上の前記参照画像の信号の比較或いは前記参照画像の信号毎の二値の前記動領域分離マスクの値により、1つの背景画像の信号を生成或いは更新する背景画像生成/更新ステップと、
    前記動領域分離マスクを用いて、(1)前記動領域に対応する、予測対象画像の第1部分に対して動き補償処理を行い、(2)前記背景領域に対応する、前記予測対象画像の第2部分には前記背景画像の信号を補間した信号を補填する、ことによって予測画像信号を生成する予測画像生成ステップと、
    を有するように構成される動画像符号化方法。
  2. 前記マスク生成ステップは、前記参照画像の画素を前記動領域或いは前記背景領域と決定する基準を、利用可能な2つ以上の参照画像間或いは参照画像内の画素の差分値から導出される値に従って決定する、ことを特徴とする請求項1記載の動画像符号化方法。
  3. 前記マスク生成ステップ及び前記背景画像生成/更新ステップは、
    利用可能な2つ以上の参照画像のいずれかと前記予測対象画像間に対して、撮像系の変化に起因する画像間の変化量を補正するためのグローバルベクトルを推定するステップと、推定されたグローバルベクトルに基づいて補間した画像を用いて、前記動領域分離マスクを生成及び前記背景画像の信号を生成或いは更新するステップと、
    前記グローバルベクトルに関する情報を、シーケンス毎、画像毎、スライス毎、ブロック毎のいずれかの単位で符号化するステップと、
    を含むことを特徴とする請求項1又は2記載の動画像符号化方法。
  4. 前記予測画像生成ステップは、前記動領域分離マスクが動領域と決定された画素に対して、整数精度或いは分数精度の補間画像を生成するフィルタの係数を画素位置ごとに変更するステップと、前記変更したフィルタ係数に関する情報を、シーケンス毎、画像毎、スライス毎、ブロック毎のいずれかの単位で符号化するステップと、
    を含むことを特徴とする請求項1乃至3のいずれか1項記載の動画像符号化方法。
  5. 前記マスク生成ステップは、生成された前記動領域分離マスクに関して、空間的、或いは時間的に近接する、前記動領域分離マスクの複数の画素の距離に基づいた重みと、前記画素の差分値から導出される値に基づいて、孤立点の除去、不連続点の連結、矩形ブロックへの領域拡大・縮小、エッジ修正、画素補填、画素マッチング等の補正を行うステップを含むことを特徴とする請求項1乃至4のいずれか1項記載の動画像符号化方法。
  6. 前記予測画像生成ステップは、
    前記予測対象画像の前記第1部分のブロックと同位置又は前記整数精度にマッピングしたローカル動きベクトルに基づいて導出された位置のいずれか1つ以上の動領域分割マスクに対して、前記動領域の比率或いは前記背景領域の比率を算出するステップと、
    前記動領域の比率或いは前記背景領域の比率のいずれかが予め定めた規定値より大きいか、小さいか、に従って予測方法を切り替えるステップと、
    を含むことを特徴とする請求項4項記載の動画像符号化方法。
  7. 前記予測画像生成ステップは、
    前記動領域分離マスクに基づいて前記動領域と前記背景領域に対してそれぞれ異なる予測方法を適用する第1の予測方法と、前記予測対象画像のブロックに含まれる前記動領域分離マスクの値が全て動領域とみなして、単一の予測方法で予測する第2の予測方法を持ち、前記第1及び第2の予測方法のいずれの予測方法を用いたかを示す情報を符号化するステップを更に含むことを特徴とする請求項1乃至4のいずれか1項記載の動画像符号化方法。
  8. 前記予測画像生成ステップは、
    前記動領域分離マスクで前記背景領域と決定された画素に対して、前記背景画像の信号を前記グローバルベクトルに基づいて補間した画素値を用いることによって前記予測画像信号を生成するステップと、
    前記動領域と決定された画素に対して、前記参照画像信号を前記ローカル動きベクトルに基づいて補間した画素値を用いることによって前記予測画像信号を生成するステップと、
    を含むことを特徴とする請求項1乃至3のいずれか1項記載の動画像符号化方法。
  9. 前記予測画像生成ステップは、輝度成分と色差成分毎又は、各々の色成分毎に、同じ動領域分離マスク又は異なる動領域分離マスクを利用できる予測方法を用いて前記予測画像信号を生成することを特徴とする請求項1乃至4のいずれか1項記載の動画像符号化方法。
  10. 入力画像信号を構成する各フレームを画素ブロック単位に符号化処理して得られた動画像符号化データを解読し、規定された方法で復号化処理する動画像復号化方法において、
    各参照画像の信号毎に動領域と背景領域とを示す二値の動領域分離マスクを生成するマスク生成ステップと
    前記2つ以上の参照画像の信号の比較或いは前記参照画像の信号毎の二値の前記動領域分離マスクの値により、1つの背景画像信号を生成或いは更新する背景画像生成/更新ステップと、
    前記動領域分離マスクを用いて、(1)前記動領域に対応する、予測対象画像の第1部分に動き補償処理を行い、(2)前記背景領域に対応する、前記予測対象画像の第2部分には前記背景画像の信号を補間した信号を補填することによって予測画像信号を生成する予測画像信号生成ステップと、
    を有することを特徴とする動画像復号化方法。
  11. 前記マスク生成ステップは、前記動領域或いは前記背景領域と判定する基準を、利用可能な2つ以上の参照画像間或いは参照画像内の画素の差分値から導出される値に従って決定する、ことを特徴とする請求項10記載の動画像復号化方法。
  12. (動画像復号化:動領域分離マスクのカメラ補正:中位概念)
    前記マスク生成ステップ及び前記背景画像生成/更新ステップは、
    利用可能な2つ以上の参照画像の信号のいずれかと前記予測対象画像間に対して、撮像系の変化に起因する画像間の変化量を補正するためのグローバルベクトルの推定を行い、推定されたグローバルベクトルに基づいて補間した画像を用いて、前記動領域分離マスクを生成及び前記背景画像信号を生成或いは更新するステップと、
    前記グローバルベクトルに関する情報を、シーケンス毎、画像毎、スライス毎、ブロック毎のいずれかの単位で符号化するステップと、
    を含むことを特徴とする請求項10又は11記載の動画像復号化方法。
  13. 前記予測画像生成ステップは、
    前記動領域分割マスクが動領域と判定された画素に対して、整数精度或いは分数精度の補間画像を生成するフィルタの係数を画素位置ごとに変更するステップと、
    前記変更したフィルタ係数に関する情報を、シーケンス毎、画像毎、スライス毎、ブロック毎のいずれかの単位で符号化するステップと、
    を含むことを特徴とする前記請求項10乃至12のいずれか1項記載の動画像復号化方法。
  14. 前記マスク生成ステップは、生成された前記動領域分離マスクに関して、空間的、或いは時間的に近接する、前記動領域分離マスクの複数の画素の距離に基づいた重みと、前記画素の差分値から導出される値に基づいて、孤立点の除去、不連続点の連結、矩形ブロックへの領域拡大・縮小、エッジ修正、画素補填、画素マッチング等の補正を行うステップを含む、ことを特徴とする前記請求項10乃至13のいずれか1項記載の動画像復号化方法。
  15. 前記予測画像生成ステップは、前記予測対象画像の前記一部のブロックと同位置又は前記整数精度にマッピングしたローカル動きベクトルに基づいて導出された位置のいずれか1つ以上の動領域分割マスクに対して、前記動領域の比率或いは前記背景領域の比率を算出するステップと、前記動領域の比率或いは前記背景領域の比率のいずれかが予め定めた規定値より大きいか、小さいか、に従って予測方法を切り替えるステップと、
    を含むことを特徴とする前記請求項10乃至13のいずれか1項記載の動画像復号化方法。
  16. 前記予測画像生成ステップは、
    前記動領域分離マスクに基づいて前記動領域と前記背景領域に対してそれぞれ異なる予測方法を適用する第1の予測方法と、前記予測対象画像の前記第1部分のブロックに含まれる前記動領域分離マスクの値が全て動領域とみなして、単一の予測方法で予測する第2の予測方法を持ち、前記第1の予測方法と前記第2の予測方法のいずれの予測方法を用いたかを示す情報を復号化するステップを含む、ことを特徴とする前記請求項10乃至13のいずれか1項記載の動画像復号化方法。
  17. 前記予測画像生成ステップは、
    前記動領域分離マスクで前記背景領域と判定された画素に対して、前記背景画像信号を前記グローバルベクトルに基づいて補間した画素値を用いることによって前記予測画像信号を生成するステップと、
    前記動領域と判定された画素に対して、前記参照画像信号を前記ローカル動きベクトルに基づいて補間した画素値を用いることによって前記予測画像信号を生成するステップと、
    を含むことを特徴とする前記請求項10乃至12のいずれか1項記載の動画像復号化方法。
  18. 前記予測画像生成ステップは、輝度成分と色差成分毎又は、各々の色成分毎に、同じ動領域分離マスク又は異なる動領域分離マスクを利用できる予測方法を用いて前記予測画像信号を生成することを特徴とする前記請求項10乃至13のいずれか1項記載の動画像復号化方法。
  19. 入力画像信号を複数の画素ブロックに分割し、参照画像信号を用いて各画素ブロックの予測処理を行い,前記入力画像信号と予測画像信号との差分信号を符号化する動画像符号化装置において、
    各参照画像の信号毎に動領域と背景領域とを示す二値の動領域分離マスクを生成するマスク生成手段と、
    2つ以上の前記参照画像の信号の比較或いは前記参照画像の信号毎の二値の前記動領域分離マスクの値によって、1つの背景画像の信号を生成或いは更新する背景画像生成/更新手段と、
    前記動領域分離マスクを用いて、(1)前記動領域に対応する、予測対象画像の第1部分に対して動き補償処理を行い、(2)前記背景領域に対応する、前記予測対象画像の第2部分には背景画像信号を補間した信号を補填することによって予測画像信号を生成する予測画像生成手段と、
    を有するように構成される動画像符号化装置。
  20. 前記マスク生成手段は、前記参照画像の画素を前記動領域或いは前記背景領域と決定する基準を、利用可能な2つ以上の参照画像間或いは参照画像内の画素の差分値から導出される値に従って決定する手段を含むことを特徴とする請求項19記載の動画像符号化装置。
  21. 利用可能な2つ以上の参照画像のいずれかと前記予測対象画像間に対して、撮像系の変化に起因する画像間の変化量を補正するためのグローバルベクトルを推定する推定手段と、前記グローバルベクトルに関する情報を、シーケンス毎、画像毎、スライス毎、ブロック毎のいずれかの単位で符号化する符号化手段と、を更に含み、
    前記マスク生成手段及び前記背景画像生成/更新手段は、推定された前記グローバルベクトルに基づいて補間した画像を用いて、前記動領域分離マスクを生成するマスク生成手段及び前記背景画像の信号を生成或いは更新する背景画像生成/更新手段によって構成される、
    ことを特徴とする請求項19又は20記載の動画像符号化装置。
  22. 前記予測画像手段は、前記動領域分離マスクが動領域と決定された画素に対して、整数精度或いは分数精度の補間画像を生成するフィルタの係数を画素位置ごとに変更する変更手段と、前記変更したフィルタ係数に関する情報を、シーケンス毎、画像毎、スライス毎、ブロック毎のいずれかの単位で符号化する符号化手段と、
    を含むことを特徴とする請求項19乃至21のいずれか1項記載の動画像符号化装置。
  23. 前記マスク生成手段は、生成された前記動領域分離マスクに関して、空間的、或いは時間的に近接する、前記動領域分離マスクの複数の画素の距離に基づいた重みと、前記画素の差分値から導出される値に基づいて、孤立点の除去、不連続点の連結、矩形ブロックへの領域拡大・縮小、エッジ修正、画素補填、画素マッチング等の補正を行う補正手段を含むことを特徴とする請求項19乃至22のいずれか1項記載の動画像符号化装置。
  24. 前記予測画像手段は、
    前記予測対象画像の前記第1部分のブロックと同位置又は前記整数精度にマッピングしたローカル動きベクトルに基づいて導出された位置のいずれか1つ以上の動領域分割マスクに対して、前記動領域の比率或いは前記背景領域の比率を算出する算出手段と、
    前記動領域の比率或いは前記背景領域の比率のいずれかが予め定めた規定値より大きいか、小さいか、に従って予測方法を切り替える切替手段と、
    を含むことを特徴とする請求項22項記載の動画像符号化装置。
  25. 前記予測画像生成手段は、
    前記動領域分離マスクに基づいて前記動領域と前記背景領域に対してそれぞれ異なる予測方法を適用する第1の予測方法と、前記予測対象画像のブロックに含まれる前記動領域分離マスクの値が全て動領域とみなして、単一の予測方法で予測する第2の予測方法を持ち、前記第1及び第2の予測方法のいずれの予測方法を用いたかを示す情報を符号化する符号化手段を更に含むことを特徴とする請求項19乃至22のいずれか1項記載の動画像符号化装置。
  26. 前記予測画像生成手段は、
    前記動領域分離マスクで前記背景領域と決定された画素に対して、前記背景画像の信号を前記グローバルベクトルに基づいて補間した画素値を用いることによって前記予測画像信号を生成する生成手段と、
    前記動領域と決定された画素に対して、前記参照画像の信号を前記ローカル動きベクトルに基づいて補間した画素値を用いることによって前記予測画像信号を生成する生成手段と、
    を含むことを特徴とする請求項19乃至22のいずれか1項記載の動画像符号化装置。
  27. 前記予測画像生成手段は、輝度成分と色差成分毎又は、各々の色成分毎に、同じ動領域分離マスク又は異なる動領域分離マスクを利用できる予測方法を用いて前記予測画像信号を生成することを特徴とする請求項19乃至22のいずれか1項記載の動画像符号化装置。
  28. 入力画像信号を構成する各フレームを画素ブロック単位に符号化処理して得られた動画像符号化データを解読し、規定された方法で復号化処理する動画像復号化装置において、
    各参照画像の信号毎に動領域と背景領域とを示す二値の動領域分離マスクを生成するマスク生成手段と
    前記2つ以上の参照画像の信号の比較或いは前記参照画像の信号毎の二値の前記動領域分離マスクの値により、1つの背景画像信号を生成或いは更新する背景画像生成/更新手段と、
    前記動領域分離マスクを用いて、(1)前記動領域に対応する、予測対象画像の第1部分に動き補償処理を行い、(2)前記背景領域に対応する、前記予測対象画像の第2部分には前記背景画像の信号を補間した信号を補填することによって予測画像信号を生成する予測画像信号生成手段と、
    を有することを特徴とする動画像復号化装置。
  29. 前記マスク生成手段は、前記動領域或いは前記背景領域と判定する基準を、利用可能な2つ以上の参照画像間或いは参照画像内の画素の差分値から導出される値に従って決定する手段を含むことを特徴とする請求項28記載の動画像復号化装置。
  30. 利用可能な2つ以上の参照画像の信号のいずれかと前記予測対象画像間に対して、撮像系の変化に起因する画像間の変化量を補正するためのグローバルベクトルの推定を行う推定手段と、前記グローバルベクトルに関する情報を、シーケンス毎、画像毎、スライス毎、ブロック毎のいずれかの単位で符号化する符号化手段と、を含み、
    前記マスク生成手段及び前記背景画像生成/更新手段は、推定された前記グローバルベクトルに基づいて補間した画像を用いて、前記動領域分離マスクを生成するマスク生成手段及び前記背景画像信号を生成或いは更新する背景画像生成/更新手段とで構成される、
    ことを特徴とする請求項28又は29記載の動画像復号化装置。
  31. 前記予測画像生成手段は、
    前記動領域分割マスクが動領域と判定された画素に対して、整数精度或いは分数精度の補間画像を生成するフィルタの係数を画素位置ごとに変更する変更手段と、
    前記変更したフィルタ係数に関する情報を、シーケンス毎、画像毎、スライス毎、ブロック毎のいずれかの単位で符号化する符号化手段と、
    を含むことを特徴とする前記請求項28乃至30のいずれか1項記載の動画像復号化装置。
  32. 前記マスク生成手段は、生成された前記動領域分離マスクに関して、空間的、或いは時間的に近接する、前記動領域分離マスクの複数の画素の距離に基づいた重みと、前記画素の差分値から導出される値に基づいて、孤立点の除去、不連続点の連結、矩形ブロックへの領域拡大・縮小、エッジ修正、画素補填、画素マッチング等の補正を行う補正手段を含む、ことを特徴とする請求項28乃至31のいずれか1項記載の動画像復号化装置。
  33. 前記予測画像生成手段は、前記予測対象画像の前記一部のブロックと同位置又は前記整数精度にマッピングしたローカル動きベクトルに基づいて導出された位置のいずれか1つ以上の動領域分割マスクに対して、前記動領域の比率或いは前記背景領域の比率を算出する算出手段と、前記動領域の比率或いは前記背景領域の比率のいずれかが予め定めた規定値より大きいか、小さいか、に従って予測方法を切り替える切替手段と、
    を含むことを特徴とする前記請求項28乃至31のいずれか1項記載の動画像復号化装置。
  34. 前記予測画像生成手段は、
    前記動領域分離マスクに基づいて前記動領域と前記背景領域に対してそれぞれ異なる予測方法を適用する第1の予測方法と、前記予測対象画像の前記第1部分のブロックに含まれる前記動領域分離マスクの値が全て動領域とみなして、単一の予測方法で予測する第2の予測方法を持ち、前記第1の予測方法と前記第2の予測方法のいずれの予測方法を用いたかを示す情報を復号化する復号手段を含む、ことを特徴とする前記請求項28乃至31のいずれか1項記載の動画像復号化装置。
  35. 前記予測画像生成手段は、
    前記動領域分離マスクで前記背景領域と判定された画素に対して、前記背景画像信号を前記グローバルベクトルに基づいて補間した画素値を用いることによって前記予測画像信号を生成する生成手段と、
    前記動領域と判定された画素に対して、前記参照画像信号を前記ローカル動きベクトルに基づいて補間した画素値を用いることによって前記予測画像信号を生成する生成手段と、
    を含むことを特徴とする前記請求項28乃至30のいずれか1項記載の動画像復号化装置。
  36. 前記予測画像生成手段、輝度成分と色差成分毎又は、各々の色成分毎に、同じ動領域分離マスク又は異なる動領域分離マスクを利用できる予測方法を用いて前記予測画像信号を生成することを特徴とする前記請求項28乃至30のいずれか1項記載の動画像復号化装置。
JP2008167884A 2008-06-26 2008-06-26 動画像符号化及び動画像復号化の方法及び装置 Pending JP2010011075A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008167884A JP2010011075A (ja) 2008-06-26 2008-06-26 動画像符号化及び動画像復号化の方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008167884A JP2010011075A (ja) 2008-06-26 2008-06-26 動画像符号化及び動画像復号化の方法及び装置

Publications (2)

Publication Number Publication Date
JP2010011075A true JP2010011075A (ja) 2010-01-14
JP2010011075A5 JP2010011075A5 (ja) 2011-07-14

Family

ID=41591028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008167884A Pending JP2010011075A (ja) 2008-06-26 2008-06-26 動画像符号化及び動画像復号化の方法及び装置

Country Status (1)

Country Link
JP (1) JP2010011075A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142279A1 (ja) * 2010-05-13 2011-11-17 シャープ株式会社 符号化装置、復号装置、およびデータ構造
WO2011152518A1 (ja) * 2010-06-04 2011-12-08 ソニー株式会社 画像処理装置および方法
JP2012186573A (ja) * 2011-03-04 2012-09-27 Kddi Corp 動画像符号化装置、動画像符号化方法、およびプログラム
CN103299644A (zh) * 2011-01-03 2013-09-11 苹果公司 使用暗示参考帧的视频编码系统
RU2716229C2 (ru) * 2011-09-09 2020-03-06 Кт Корпорейшен Способ декодирования видеосигнала
JP2022529509A (ja) * 2019-04-25 2022-06-22 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける候補
JP2022529510A (ja) * 2019-04-25 2022-06-22 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける選択的運動ベクトル予測候補
JP2022529508A (ja) * 2019-04-25 2022-06-22 オーピー ソリューションズ, エルエルシー インタ予測における大域的運動制約運動ベクトル
JP2022529736A (ja) * 2019-04-25 2022-06-23 オーピー ソリューションズ, エルエルシー 運動ベクトルインタ予測のための大域的運動モデル
JP2022529737A (ja) * 2019-04-25 2022-06-23 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける適応型運動ベクトル予測候補
JP2022529735A (ja) * 2019-04-25 2022-06-23 オーピー ソリューションズ, エルエルシー 大域的運動ベクトルの効率的なコーディング
JP2022530054A (ja) * 2019-04-25 2022-06-27 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP2022530411A (ja) * 2019-04-25 2022-06-29 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP2022531131A (ja) * 2019-04-25 2022-07-06 オーピー ソリューションズ, エルエルシー インタ予測における融合モード候補のための大域的運動
WO2023091780A1 (en) * 2021-11-22 2023-05-25 Beijing Dajia Internet Information Technology Co., Ltd. Planar mode improvement for intra prediction
CN116708931A (zh) * 2022-11-14 2023-09-05 荣耀终端有限公司 图像处理方法及电子设备
RU2808638C2 (ru) * 2019-04-25 2023-11-30 Оп Солюшнз, Ллк Сигнализация глобального вектора движения в заголовке изображения

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001507541A (ja) * 1996-12-30 2001-06-05 シャープ株式会社 スプライトベースによるビデオ符号化システム
WO2007002437A2 (en) * 2005-06-24 2007-01-04 Ntt Docomo, Inc. Method and apparatus for video encoding and decoding using adaptive interpolation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001507541A (ja) * 1996-12-30 2001-06-05 シャープ株式会社 スプライトベースによるビデオ符号化システム
WO2007002437A2 (en) * 2005-06-24 2007-01-04 Ntt Docomo, Inc. Method and apparatus for video encoding and decoding using adaptive interpolation

Cited By (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011142279A1 (ja) * 2010-05-13 2011-11-17 シャープ株式会社 符号化装置、復号装置、およびデータ構造
US10306251B2 (en) 2010-05-13 2019-05-28 Sharp Kabushiki Kaisha Encoding device, decoding device, and data structure
US11336912B2 (en) 2010-05-13 2022-05-17 Sharp Kabushiki Kaisha Image decoding device, image encoding device, and image decoding method
JP5670444B2 (ja) * 2010-05-13 2015-02-18 シャープ株式会社 符号化装置および復号装置
US10904547B2 (en) 2010-05-13 2021-01-26 Sharp Kabushikikaisha Image decoding device, image encoding device, and image decoding method
US8731310B2 (en) 2010-06-04 2014-05-20 Sony Corporation Image processing apparatus and method
CN103369323A (zh) * 2010-06-04 2013-10-23 索尼公司 图像处理设备和方法
CN103369322A (zh) * 2010-06-04 2013-10-23 索尼公司 图像处理设备和方法
US10230964B2 (en) 2010-06-04 2019-03-12 Sony Corporation Image processing apparatus and method
US8849052B2 (en) 2010-06-04 2014-09-30 Sony Corporation Image processing apparatus and method
CN102918837A (zh) * 2010-06-04 2013-02-06 索尼公司 图像处理设备和方法
CN102918837B (zh) * 2010-06-04 2015-09-30 索尼公司 图像处理设备和方法
US10375403B2 (en) 2010-06-04 2019-08-06 Sony Corporation Image processing apparatus and method
US9369704B2 (en) 2010-06-04 2016-06-14 Sony Corporation Image processing apparatus and method
US9380299B2 (en) 2010-06-04 2016-06-28 Sony Corporation Image processing apparatus and method
WO2011152518A1 (ja) * 2010-06-04 2011-12-08 ソニー株式会社 画像処理装置および方法
CN103369323B (zh) * 2010-06-04 2016-12-28 索尼公司 图像处理设备和方法
US9924177B2 (en) 2010-06-04 2018-03-20 Sony Corporation Image processing apparatus and method
JP2014504823A (ja) * 2011-01-03 2014-02-24 アップル インコーポレイテッド 暗黙基準フレームを用いる動画像符号化システム
KR101607735B1 (ko) * 2011-01-03 2016-03-30 애플 인크. 암시 레퍼런스 프레임을 이용하는 비디오 코딩 시스템
CN103299644A (zh) * 2011-01-03 2013-09-11 苹果公司 使用暗示参考帧的视频编码系统
CN102655591B (zh) * 2011-03-04 2016-12-14 Kddi株式会社 运动图像编码装置、运动图像解码装置以及运动图像编码方法
JP2012186573A (ja) * 2011-03-04 2012-09-27 Kddi Corp 動画像符号化装置、動画像符号化方法、およびプログラム
RU2716229C2 (ru) * 2011-09-09 2020-03-06 Кт Корпорейшен Способ декодирования видеосигнала
RU2716231C2 (ru) * 2011-09-09 2020-03-06 Кт Корпорейшен Способ декодирования видеосигнала
RU2716230C2 (ru) * 2011-09-09 2020-03-06 Кт Корпорейшен Способ декодирования видеосигнала
RU2716563C2 (ru) * 2011-09-09 2020-03-12 Кт Корпорейшен Способ декодирования видеосигнала
US10805639B2 (en) 2011-09-09 2020-10-13 Kt Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
US11089333B2 (en) 2011-09-09 2021-08-10 Kt Corporation Method for deriving a temporal predictive motion vector, and apparatus using the method
JP2022530411A (ja) * 2019-04-25 2022-06-29 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
RU2808638C2 (ru) * 2019-04-25 2023-11-30 Оп Солюшнз, Ллк Сигнализация глобального вектора движения в заголовке изображения
JP2022529508A (ja) * 2019-04-25 2022-06-22 オーピー ソリューションズ, エルエルシー インタ予測における大域的運動制約運動ベクトル
JP2022529736A (ja) * 2019-04-25 2022-06-23 オーピー ソリューションズ, エルエルシー 運動ベクトルインタ予測のための大域的運動モデル
JP2022529737A (ja) * 2019-04-25 2022-06-23 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける適応型運動ベクトル予測候補
JP2022529735A (ja) * 2019-04-25 2022-06-23 オーピー ソリューションズ, エルエルシー 大域的運動ベクトルの効率的なコーディング
JP2022530054A (ja) * 2019-04-25 2022-06-27 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP2022529509A (ja) * 2019-04-25 2022-06-22 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける候補
JP2022531131A (ja) * 2019-04-25 2022-07-06 オーピー ソリューションズ, エルエルシー インタ予測における融合モード候補のための大域的運動
JP7741577B2 (ja) 2019-04-25 2025-09-18 オーピー ソリューションズ, エルエルシー 大域的運動ベクトルの効率的なコーディング
JP2023087003A (ja) * 2019-04-25 2023-06-22 オーピー ソリューションズ, エルエルシー 大域的運動ベクトルの効率的なコーディング
JP2023093765A (ja) * 2019-04-25 2023-07-04 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける選択的運動ベクトル予測候補
JP2023105074A (ja) * 2019-04-25 2023-07-28 オーピー ソリューションズ, エルエルシー 運動ベクトルインタ予測のための大域的運動モデル
JP2023105073A (ja) * 2019-04-25 2023-07-28 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける適応型運動ベクトル予測候補
JP2023105072A (ja) * 2019-04-25 2023-07-28 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP7321583B2 (ja) 2019-04-25 2023-08-07 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP7323220B2 (ja) 2019-04-25 2023-08-08 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける候補
JP7716140B2 (ja) 2019-04-25 2025-07-31 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける選択的運動ベクトル予測候補
JP2023126567A (ja) * 2019-04-25 2023-09-07 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP2023126617A (ja) * 2019-04-25 2023-09-07 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける候補
US11785238B2 (en) 2019-04-25 2023-10-10 Op Solutions, Llc Candidates in frames with global motion
US11800137B2 (en) 2019-04-25 2023-10-24 Op Solutions Llc Efficient coding of global motion vectors
US11812053B2 (en) 2019-04-25 2023-11-07 Op Solutions, Llc Adaptive motion vector prediction candidates in frames with global motion
JP2022529510A (ja) * 2019-04-25 2022-06-22 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける選択的運動ベクトル予測候補
JP7428405B2 (ja) 2019-04-25 2024-02-06 オーピー ソリューションズ, エルエルシー インタ予測における融合モード候補のための大域的運動
JP7448975B2 (ja) 2019-04-25 2024-03-13 オーピー ソリューションズ, エルエルシー インタ予測における大域的運動制約運動ベクトル
JP2025023110A (ja) * 2019-04-25 2025-02-14 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける候補
JP2024045720A (ja) * 2019-04-25 2024-04-02 オーピー ソリューションズ, エルエルシー インタ予測における大域的運動制約運動ベクトル
JP7466960B2 (ja) 2019-04-25 2024-04-15 オーピー ソリューションズ, エルエルシー 大域的運動ベクトルの効率的なコーディング
JP2024069706A (ja) * 2019-04-25 2024-05-21 オーピー ソリューションズ, エルエルシー 大域的運動ベクトルの効率的なコーディング
JP7576867B2 (ja) 2019-04-25 2024-11-01 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける選択的運動ベクトル予測候補
JP7602279B2 (ja) 2019-04-25 2024-12-18 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP7602284B2 (ja) 2019-04-25 2024-12-18 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける候補
JP7602280B2 (ja) 2019-04-25 2024-12-18 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける適応型運動ベクトル予測候補
JP7602283B2 (ja) 2019-04-25 2024-12-18 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP7602281B2 (ja) 2019-04-25 2024-12-18 オーピー ソリューションズ, エルエルシー 運動ベクトルインタ予測のための大域的運動モデル
JP2024180554A (ja) * 2019-04-25 2024-12-26 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける選択的運動ベクトル予測候補
JP2025019333A (ja) * 2019-04-25 2025-02-06 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP2025019331A (ja) * 2019-04-25 2025-02-06 オーピー ソリューションズ, エルエルシー 運動ベクトルインタ予測のための大域的運動モデル
JP2025019332A (ja) * 2019-04-25 2025-02-06 オーピー ソリューションズ, エルエルシー ピクチャヘッダ内の大域的運動ベクトルの信号伝達
JP2025023109A (ja) * 2019-04-25 2025-02-14 オーピー ソリューションズ, エルエルシー 大域的運動を伴うフレームにおける適応型運動ベクトル予測候補
WO2023091780A1 (en) * 2021-11-22 2023-05-25 Beijing Dajia Internet Information Technology Co., Ltd. Planar mode improvement for intra prediction
US12425610B2 (en) 2021-11-22 2025-09-23 Beijing Dajia Internet Information Technology Co., Ltd. Planar mode improvement for intra prediction
CN116708931B (zh) * 2022-11-14 2024-03-15 荣耀终端有限公司 图像处理方法及电子设备
CN116708931A (zh) * 2022-11-14 2023-09-05 荣耀终端有限公司 图像处理方法及电子设备

Similar Documents

Publication Publication Date Title
JP2010011075A (ja) 動画像符号化及び動画像復号化の方法及び装置
JP5368631B2 (ja) 画像符号化方法、装置、及びプログラム
JP6065037B2 (ja) 画像処理装置、画像処理方法、プログラム、並びに、記録媒体
KR101581100B1 (ko) 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
RU2739499C1 (ru) Способ декодирования видео для компенсации движения
WO2010001916A1 (ja) 画像処理装置および方法
WO2011013253A1 (ja) 幾何変換動き補償予測を用いる予測信号生成装置、動画像符号化装置及び動画像復号化装置
WO2010090335A1 (ja) 幾何変換動き補償予測を用いる動画像符号化装置及び動画像復号装置
JPWO2009133845A1 (ja) 動画像符号化/復号化装置及び方法
JP5479648B1 (ja) 画像符号化方法及び画像復号化方法
JP5444497B2 (ja) 画像符号化方法及び画像復号化方法
JP2008193501A (ja) 画像符号化装置及び画像符号化方法
JP2014131293A (ja) 画像符号化方法及び画像復号化方法
JP5571262B2 (ja) 画像符号化方法及び画像復号化方法
JP5367161B2 (ja) 画像符号化方法、装置、及びプログラム
JP6609004B2 (ja) 画像符号化方法及び画像復号化方法
JP5649701B2 (ja) 画像復号化方法、装置、及びプログラム
JP5509398B1 (ja) 画像符号化方法及び画像復号化方法
JP5571229B2 (ja) 画像符号化方法及び画像復号化方法
JP2018023126A (ja) 画像符号化方法及び画像復号化方法
JP2017085616A (ja) 画像符号化方法及び画像復号化方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120626