JP3830013B2 - Dissolve image encoding device - Google Patents
Dissolve image encoding device Download PDFInfo
- Publication number
- JP3830013B2 JP3830013B2 JP2000060538A JP2000060538A JP3830013B2 JP 3830013 B2 JP3830013 B2 JP 3830013B2 JP 2000060538 A JP2000060538 A JP 2000060538A JP 2000060538 A JP2000060538 A JP 2000060538A JP 3830013 B2 JP3830013 B2 JP 3830013B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion compensation
- dissolve
- encoding
- compensation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Studio Circuits (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はディゾルブ画像の符号化装置に関し、特にフレーム間動き補償予測符号化を用いたディゾルブ画像の符号化装置に関する。
【0002】
【従来の技術】
動画像のシーンチェンジ時に挿入する特殊効果の一つとして、シーンチェンジに時間的遷移区間を設けて、図1に示されているように、その遷移区間内で徐々にシーンチェンジ前の画像(動画像Aとする)からシーンチェンジ後の画像(動画像Bとする)へと変化させる“ディゾルブ”がある。ディゾルブでは、遷移区間内の映像、2つ入力画像の合成画像となる。
【0003】
ディジタル動画像は、連続的なディジタル静止画像の連続で表現される。また、ディジタル静止画像は空間的に等間隔に配置された画素の集合により表現される。ディジタル動画像において“ディゾルブ”を用いた場合には、合成画像の各画素値は下記の式(1) で表される(図2参照)。
【0004】
Dt (y,x)={(tout −t)/(tout −tin)}・At (y,x)+{(t−tin)/(tout −tin)}・Bt (y,x) …(1)
【0005】
ここに、Dt (y,x)は時刻tの合成画像内の座標(y,x)の画素値、At (y,x)は時刻tの切替わり前の画像内の座標(y,x)の画素値、Bt(y,x)は時刻tの切替わり後の画像内の座標(y,x)の画素値、tinは遷移区間開始時刻、tout は遷移区間終了時刻である。
【0006】
しかし、動画像情報は、その情報量の多さから画像情報の圧縮符号化が盛んに利用されている。特に、圧縮効率を高めるためには時間的に近隣する画像の情報からの動き補償予測情報を利用するフレーム間予測符号化が利用される。MPEGビデオ符号化などがこの方式を利用している。
【0007】
このようなフレーム間予測符号化を用いた圧縮符号化を施された動画像から、遷移区間にディゾルブ効果を用いた合成画像を作成するためには、例えば図17に示されているような動作をさせる必要がある。はじめに対象となる符号化動画像A61を第1の動画像復号部63において復号再生し、また符号化動画像B62を第2の動画像復号部64において復号再生する。該復号再生された画像情報A,Bは画像合成部65へと送られる。画像合成部65においてディゾルブ区間の合成画像作成処理が行われ、作成された合成画像Dは動画像再符号化部66へ送られる。動画像再符号化部66においては、入力された合成画像Dからフレーム間予測を利用した動画像の再符号化が行われ、符号化動画像E67が出力される。
【0008】
図18は、図17内の動画像再符号化部66の詳細を説明したブロック図である。入力された合成画像Dから、動き探索部71により、画像蓄積部72に蓄積されている既に処理された画像との間で動き探索処理を行い、合成画像の再符号化時に利用される動き補償情報aを決定する。次に、得られた動き補償情報aと画像蓄積部72に蓄積されている画像bを用いて、動き補償部73において動き補償画像cの作成を行う。
【0009】
フレーム内/フレーム間符号化決定部74では、該動き補償画像cおよび入力合成画像Dの特徴から、フレーム内符号化を行うか、フレーム間符号化を行うかを決定する。該決定結果により、切替えスイッチSを操作し、フレーム内符号化の場合には入力合成画像Dそのものを、フレーム間符号化の場合には、入力合成画像Dから動き補償画像cを減算した画像を動き補償予測誤差情報dとして出力する。該動き補償予測誤差情報dは、変換部75において離散コサイン変換等を用いて変換され変換領域情報eとなり、該変換領域情報eは符号化部76において符号化され、符号化動画像Eとして出力される。
【0010】
一方、変換部75から出力された変換領域情報eは、逆変換部77で元の動き補償予測誤差量に戻され、動き補償画像と加算されることにより復号再生画像fとなり画像蓄積部72に蓄積され、以降の画像符号化の際に参照画像として利用される。
【0011】
【発明が解決しようとする課題】
しかしながら、前記した従来方式ではディゾルブ画像の合成後の動画像再符号化部66に動き探索部71を含む。該動き探索部71で行う動き探索処理は、対象画像または対象画像内の小ブロックの画像が、参照する画像内のどの部分の画像と類似しているかを探索する処理であり、非常に多くの演算量を必要とする。そのため従来方式では合成画像の再符号化に処理時間がかかるという問題があった。また、動き探索部71を持たない構成では、動画像の再符号化を行うことができないという問題もある。
【0012】
本発明の目的は、前記した従来技術の問題点を解決し、圧縮符号化動画像を入力として遷移区間にディゾルブを実現した圧縮符号化動画像を作成する際に、動き探索処理を行わずに、あるいは該動き探索処理の演算量を大幅に低減して、高速に動画像圧縮符号化処理を行うことのできるディゾルブ画像の符号化装置を提供することにある。
【0013】
【問題を解決するための手段】
前記目的を達成するために、本発明は、合成画像の再符号化時の動き補償情報を動き探索処理を行わず、合成画像の入力である2つの符号化動画像からそれぞれの動き補償情報を抽出し、その抽出された動き補償情報と、処理対象としている合成画像の時間的位置情報から、合成画像における動き補償情報を決定する手段を具備した点に第1の特徴がある。
【0014】
また、本発明は、決定された動き補償情報の示す位置を起点とし、周辺の小領域動き探索を行うことにより、符号化効率を向上させる手段を具備した点に第2の特徴がある。
【0015】
また、本発明は、各合成画像における2つの入力画像の入力比率の高い画像の持つ動き補償情報を利用する手段を具備した点に第3の特徴がある。
【0016】
また、本発明は、2つの入力画像の動き補償情報の選択の基準となる入力比率に、各入力画像の特徴量を反映させ、その結果を元に動き補償情報を利用する入力画像を決定する手段を具備した点に第4の特徴がある。
【0017】
また、本発明は、入力画像の特徴量として、模様情報を利用する手段を具備した点、画像内分散量や画像内平均値との絶対誤差和を利用する手段を具備した点に第5の特徴がある。
【0018】
また、本発明は、ディゾルブ区間の中央付近において、2つの入力画像の入力比率の差が小さい場合には、画面内符号化方式を選択する手段を具備した点に第6の特徴がある。
【0019】
また、本発明は、合成画像の再符号化じに、動き補償情報を参照する画像の符号化方式と同一とする手段を具備した点に第7の特徴がある。
【0020】
また、演算により求めらてた動き補償情報参照画像の切替え時刻を、近隣するフレームの符号化方式により変更する手段を具備した点に第8の特徴がある。
【0021】
また、本発明は、符号化ディゾルブ画像を作成する際に、入力符号化画像データを画素領域情報まで復号して合成作業の後に再符号化する方式と、入力画像データを変換領域情報まで復号して合成作業の後に再符号化を行う方式を選択できる手段を具備した点に第9の特徴がある。
【0022】
また、本発明は、動き補償情報を参照する画像と、再符号化する画像との間で予測フレーム間隔が異なる場合には、動き補償情報を予測フレーム間隔の比に応じてスケーリングする手段を具備した点に第10の特徴がある。
【0023】
前記した特徴によれば、従来の方式で行われていた演算量が非常にかかる動き探索処理を用いずに再符号化処理を行うことが可能となるため、従来の問題を解消することができる。
【0024】
【発明の実施の形態】
以下に、図面を参照して、本発明を詳細に説明する。図3は本発明の符号化装置の一実施形態を示すブロック図である。
【0025】
ディゾルブ効果により結合する前の符号化動画像情報を符号化動画像Aおよび符号化動画像Bとする。第1,第2の動画像復号部1,2は、それぞれ、入力される符号化動画像A,Bを復号する。該動画像復号部1,2は、それぞれ、順次入力されてくる符号化画像情報から、動きベクトル情報や予測フレーム間隔情報等の動き補償情報p,qを抽出し、動き補償情報決定部3に送信する。この動き補償情報p,qとは、対象画像の空間的な一部分または全体が、どの参照画像のどの部分を参照しているかを示すものである。
【0026】
動き補償情報決定部3においては、2つの符号化動画像A,Bから抽出された動き補償情報p,qから、ディゾルブ区間における動き補償情報rを決定する。また、決定した動き補償情報rは動画像再符号化部5に送られる。一方、画像合成部4は、ディゾルブ区間において、復号再生画像A1,B1を合成し、合成画像D1を生成する。
【0027】
動画像再符号化部5では、入力される合成画像D1を、動き補償情報決定部3から入力される動き補償情報rを利用して動き補償、符号化を行い、生成された符号化動画像Eを出力する。
【0028】
図4は図3の動画像復号部1の詳細を説明したブロック図である。入力される符号化画像Aは、復号部11で復号される。該復号された情報のうち、変換領域情報p1 は逆変換部12へと送られ、該逆変換部12において逆離散コサイン変換等の直交変換を施され、動き補償予測誤差情報p2 が再生される。一方、復号部11で復号された動き補償情報pは動き補償部14と動き補償情報決定部3へと送られる。
【0029】
動き補償部14は、動き補償情報pおよび画像蓄積部13に蓄積されている既に復号された画像データから動き補償処理を行い、該処理で得られた画像p3 と動き補償予測誤差情報p2 との和により画像を再生し、復号再生画像A1として出力する。図3の動画像復号部2も、符号化動画像Bについて動画像復号部1と同様の処理を行い、復号再生画像B1を出力する。
【0030】
図5は、図3の動画像再符号化部5の詳細を説明したブロック図である。該動画像再符号化部5は、フレーム内/フレーム間符号化判定部21、変換部22、符号化部23、逆変換部24、画像蓄積部25および動き補償部26からなり、図18に示した従来装置の動画像再符号化部66とは、動き探索部71の存在の有無が異なる。従来装置では、動き補償情報は画像蓄積部72に蓄積されている画像と合成画像Dとの間での動き探索処理により求められる。これに対し、本発明の実施形態においては、図5に示すように動き探索処理を行わず、動き補償情報決定部3から入力される動き補償情報rを利用して、動き補償部26が動き補償処理を行う。
【0031】
図6は、前記動き補償情報決定部3が行うディゾルブ区間における動き補償情報の決定方法の一具体例を説明する図である。以下に、ディゾルブ画像の符号化処理について説明する。
【0032】
入力符号化動画像Aから入力符号化動画像Bへと変わる画像の遷移域にディゾルブを利用したシーンの切替えを行い、新しい符号化動画像Eを作成する。時刻tinをディゾルブ先頭時刻、時刻tout をディゾルブ終端時刻とすると、tin〜tout 間がディゾルブ区間となる。
【0033】
符号化動画像Eにおけるフレーム番号1〜3番は、ディゾルブ区間前の画像となるため、入力符号化動画像Aの情報と同じとなる。フレーム番号4〜7番は、ディゾルブ区間内に存在するフレームである。また、図には、各フレームにおける入力符号化動画像Aおよび入力符号化動画像Bの入力比率(%)を記してある。入力符号化動画像Aおよび入力符号化動画像Bをそれぞれ復号し、各フレームの入力比率に従って合成画像D1を作成する。その後、該合成画像を再符号化して符号化動画像Eを作成する。
【0034】
これらのフレームの中で、フレーム番号4、5番は入力符号化動画像Aの入力比率が入力符号化動画像Bの入力比率より高い。したがって、これらの合成画像の再符号化の際には入力符号化動画像Aの動き補償情報を利用する。一方フレーム番号6,7番は、入力符号化動画像Bの入力比率が入力符号化動画像Aの入力比率より高い。したがって、これらの合成画像の再符号化の際には入力符号化動画像Bの動き補償情報を利用する。合成画像D1におけるフレーム番号8〜10番は、ディゾルブ区間後の画像となるため、入力符号化動画像Bの情報と同じとなる。
【0035】
図6において、動き補償情報を利用する入力符号化画像が、フレーム番号5番と6番の間で切替わる。この切替わりの時刻をtc とすると、tc は下記の式(2-1) で表すことができ、また、合成された符号化動画像Eの動き補償情報r(=MV)Eは下記の式(2-2) で表すことができる。ここでMVA ,MVB は、それぞれ符号化入力動画像A,符号化入力動画像Bの動き補償情報を表す。
tc =tin+(tout −tin)/2 …(2-1)
if t≦tc ,MVE =MVA 、else MVE =MVB …(2-2)
【0036】
また、上式におけるtc を、入力比率からではなく2つの入力画像の特徴量に応じて設定する方式も可能である。入力画像特徴に応じて参照画像を切替える時刻を決定する場合には、下記の式(3) により求めることが可能である。ここで、FA ,FB は、それぞれ、ディゾルブ区間内の符号化入力画像Aおよび符号化入力画像Bの特徴量を表す。
tc =tin+FA (tout −tin)/(FA +FB ) …(3)
【0037】
上式における特徴量には、各入力符号化画像の模様情報を反映させた値を利用することが可能である。この模様情報を反映させる値として、各符号化入力画像の符号化ブロック毎のブロック内画素分散値や、ブロック内の平均値との絶対誤差和、DCT等の変換領域データでの係数の絶対値和といった値を反映させることが可能である。
【0038】
図7は、本発明の第2の実施形態を示す。図7において、図3と同一の符号は、同一または同等物を示す。
【0039】
この実施形態は、動き補償情報決定部3が、動き補償情報rの決定に、入力画像の動き補償情報p,qだけでなく、入力画像の画像特徴情報sを利用するようにした点に特徴がある。本実施形態では、動画像復号部1および動画像復号部2から出力される復号再生画像A1,B1を画像特徴解析部7にも送信し、該画像特徴解析部7において、復号された画像の特徴量の算出、例えば模様情報の算出を行い、算出結果である画像特徴情報sを動き補償情報決定部3へと送信する。
【0040】
さらに、動き補償情報を利用する符号化入力画像をディゾルブ区間の1箇所のみで切り替えるのではなく、以下の式のように入力比率と特徴量の積によって動き補償情報を利用する符号化入力画像を選択する方式も可能である。
if FA ×RA >FB ×RB ,MVD =MVA 、else MVD =MVB
上式において、RA ,RB は、それぞれ、ディゾルブ区間内の同時刻における入力画像Aおよび入力画像Bの入力比率を表す。
【0041】
次に、ディゾルブ区間内の各画像の符号化方式について説明する。フレーム間予測符号化を行う動画像符号化方式においては、高能率符号化と復号再生の利便性から、以下の3種類の画像符号化方式を組み合わせて利用されている。
【0042】
Pフレーム:片方向予測フレーム。フレーム間予測フレームのひとつ。過去に符号化された画像からフレーム間動き補償予測符号化により符号化される。この予測は順方向予測となる。該画像は復号再生され、次のPフレーム符号化のための参照画像となる。参照される画像と参照する画像の類似性が高い場合には符号化効率が向上する。
【0043】
Bフレーム:双方向予測フレーム。フレーム間予測ピクチャのひとつ。過去に符号化された時間的前後2枚の画像からフレーム間動き補償予測により符号化される。該フレームは参照画像として利用されることはない。
【0044】
Iフレーム:フレーム内符号化フレーム。画像間の動きと相関は利用せず、1枚の画像を独立して符号化する。したがって独立したフレームの復号が可能である。
【0045】
本発明においては、ディゾルブ区間内の各フレームの符号化方式は、動き補償情報を参照する画像の符号化方式と同一とさせることを特徴とする。これにより、再符号化時の画質の劣化を低減することが可能となる。さらに、ディゾルブ区間中の動き補償情報を参照する画像を切替えるタイミングtc を、tc 前後に隣接する連続するBフレームの枚数の合計が少なくなる位置t'cへ変更することを特徴とする。これにより、後述する動き補償情報のスケーリング処理の回数を減らすことができ、画質の劣化の低減、および演算回数の低減が可能となる。
【0046】
図8に上記の説明図を示す。同図(a) では、ディゾルブ区間に含まれる画像10フレームのうち、tc がその中央となっている場合を示す。したがって、前半5フレームは入力符号化動画像Aの各フレームの符号化方式および動き補償情報を利用し、後半5フレームは入力符号化動画像Bの各フレームの符号化方式および動き補償情報を利用する。この場合には、線xで囲まれた5枚の画像における動き補償情報は、予測フレーム間隔が変化するために、後述する動き補償情報のスケーリングを行う必要が生じる。
【0047】
一方、同図(b) はtc の位置を、同図(a) から1フレーム後方のt'cに遅らせた例である。この例では、動き補償情報のスケーリングを必要とするフレーム数が2枚となるため、例▲1▼と比較して、画質の劣化の低減、および処理速度の向上が可能である。
【0048】
次に、入力画像と再符号化画像における予測フレーム間隔が異なる場合の処理である、動きベクトル情報のスケーリングについて述べる。動き補償情報は、動きベクトル情報と予測フレーム間隔情報により表現され、上述のように、入力符号化画像における予測フレーム間隔は、ディゾルブ合成画像の再符号化における予測フレーム間隔と異なる場合もある。
【0049】
このような場合には、予測フレーム間隔の比に応じた動きベクトル情報のスケーリングを行う。図9に予測フレーム間隔の比に応じた動きベクトルのスケーリングを説明する。同図(a) は予測フレーム間隔が3フレームの入力画像から予測フレーム間隔が2フレームでの符号化を行う場合を示したものである。この場合には動きベクトル情報に対して2/3のスケーリングを施す。
【0050】
また予測方向が順方向予測と逆方向予測のように異なる場合には、マイナス値を掛けることによってベクトルを反転させることで対処可能である。図9の同図(b) では逆方向予測でフレーム間隔が2フレームである動きベクトルから予測フレーム間隔が1フレームの動きベクトル情報を生成するものを示している。そのため、動きベクトル情報に対して−1/2のスケーリングを施す。
【0051】
さらに、画像のブロック毎の符号化では、フレーム間での動き補償予測を行う動き補償予測符号化以外に、動き補償予測を行わなずに符号化するフレーム内符号化方式がある。この場合には、対象となる領域は動き補償情報を持たない。本発明では、参照した符号化入力画像の対象位置に動き補償情報が存在しない場合には、動きベクトル情報をゼロベクトルに設定し、これを動き補償情報とする。
【0052】
次に、本発明の第3実施形態を図10を参照して説明する。図10において、図3と同一の符号は、同一または同等物を示す。
【0053】
符号化動画像Aは、第1の動画像復号部31において復号され、復号変換領域情報A2として出力される。この復号変換領域情報A2は、動き補償情報と、動き補償予測誤差の変換領域情報とから、変換領域での動き補償を用いて得られた変換領域情報である。例えばMPEG符号化方式においてはDCT係数で表される。また、第2の動画像復号部32において、符号化動画像Bが復号され、復号変換領域情報B2として出力される。また、動き補償情報p,qは,動き補償情報決定部3へと送られる。
【0054】
次に、動画像復号部31および動画像復号部32より出力された復号変換領域情報A2および復号変換領域情報B2から、変換領域画像合成部33においてディゾルブ区間の合成画像である変換領域合成画像情報D2を作成する。動画像再符号化部34は、動き補償情報決定部3から送られてくる動き補償情報を利用して、変換領域合成画像情報D2を再符号化する。そして、該再符号化された情報を符号化動画像情報Eとして出力する。
【0055】
図11に、図10における動画像復号部31の詳細を説明したブロック図を示す。符号化動画像Aはまず復号部41において復号され、動き補償情報pは動き補償情報決定部3および変換領域動き補償部42へと送られる。また、復号部41からは動き補償予測誤差変換領域情報uが出力される。
【0056】
変換領域動き補償部42は、動き補償情報pを用いて、変換領域情報蓄積部43に蓄積されている既に復号された画像情報の変換領域情報に変換領域での動き補償処理を行う。該動き補償処理で得られた変換領域動き補償情報vは、復号部41から出力される動き補償予測誤差変換領域情報uと加算され、復号変換領域情報A2として出力される。図10における第2の動画像復号部32は、符号化画像Bに対して第1の動画像復号部31と同じ処理を行い、復号変換領域情報B2を出力する。
【0057】
図12は、図10の動画像再符号化部34の詳細を説明した図である。動き補償情報決定部3から送られてくる動き補償情報rは、変換領域動き補償部51へと入力され、該変換領域動き補償部51において、既に処理されて変換領域画像情報蓄積部52に蓄積されている復号変換領域画像情報を、該動き補償情報rにより変換領域上での動き補償を行い、該補償結果を変換領域動き補償画像情報yとしてフレーム内/フレーム間符号化判定部53へと送る。
【0058】
フレーム内/フレーム間符号化判定部53は、入力された変換領域動き補償画像情報yと、画像変換領域情報とから、フレーム内符号化、フレーム間符号化のどちらの符号化効率が高くなるか予測を行い、その結果をフレーム内/フレーム間符号化切替え部Sへと送る。該切替え部Sでは、フレーム内符号化を行う場合には画像変換領域情報を、フレーム間符号化を行う場合には画像変換領域情報と変換領域動き補償画像情報yとの差wを符号化部54へと出力する。符号化部54では、可変長符号化処理を行い、結果を符号化動画像情報Eとして出力する。
【0059】
また、符号化部54へ入力される動き補償予測誤差変換領域情報wは、変換領域動き補償部51から出力される変換領域動き補償情報yと加算され、復号変換領域画像情報zとして変換領域画像情報蓄積部52に蓄積される。本実施形態においては、直交変換、および逆直交変換を行う処理が存在しないので演算量を大幅に削減でき、高速処理が可能になる。
【0060】
図13は、本発明の第4の実施形態を示すブロック図である。この実施形態は、ディゾルブ区間内の時間的中央付近の画像については、符号化入力画像Aと符号化入力画像Bの入力比率の差が小さく、どちらの入力符号化画像とも相関が低くなることから、どちらの符号化情報も使用せずに、合成画像における各ブロックの符号化方式を強制的にフレーム内符号化方式とする点に特徴がある。
【0061】
図示されているように、動き補償情報決定部3は、ディゾルブ区間内の時間的中央付近の画像については、フレーム内符号化制御信号r1 を動画像再符号化部5に出力し、ディゾルブ区間内の時間的中央付近以外の画像については、前記第1〜3実施形態で決定された動き補償情報を用いる。なお、図13中の図3、図7および図10と同一の符号は、同一または同等物を示す。
【0062】
図14は、図13の動画像再符号化部5の詳細を示すブロック図である。合成画像D1の再符号化時に、フレーム内/フレーム間符号化判定部21において、フレーム内符号化を行うかフレーム間符号化を行うかを決定する処理を行うが、動き補償情報決定部3からフレーム内符号化制御信号r1 が送られてきた場合には、強制的にフレーム内符号化方式を選択し、切替えスイッチSをフレーム内符号化方式の側に切替える。
【0063】
次に、本発明の第5の実施形態を図15に示す。この実施形態では、動き補償情報決定部3から送られる動き補償情報rは、小領域動き探索部27へ入力される。いま、動き補償情報決定部3から送られてきた動き補償情報が、図16に示されている動き補償情報xm であったとすると、小領域動き探索部27では、該動き補償情報xm を中心とした小領域x'mで動き探索処理を行い、その中の最適な位置を新たな動き補償情報r2 として、動き補償部26へと送信する。この実施形態によれば、従来の図18における動き探索部71の探索領域が例えばxsであったのに対して小領域x'mでよく、動き補償の精度を落とすことなく、動き探索に要する演算量を大幅に低減することができる。
【0064】
なお、前記第1〜第4実施形態の全ての処理、例えば動き補償情報決定部3等の処理は、該第5の実施形態に適用することができるが、その説明は省略する。
【0065】
【発明の効果】
以上の説明から明らかなように、本発明によれば、2つの符号化動画像情報からディゾルブ効果を挿入した符号化動画像を作成する処理をする際に、動画像再符号化部が動き探索部を持たなくても、前記処理が可能となる。また、たとえ、動き探索を施したとしても、演算処理量の小さい動き探索処理をすればよいので高速処理を実現することができるようになる。
【図面の簡単な説明】
【図1】 ディゾルブの概要を示す図である。
【図2】 ディゾルブ区間の遷移状態を説明する図である。
【図3】 本発明のディゾルブ画像符号化装置の第1実施形態を示すブロック図である。
【図4】 図3の動画像復号部の詳細を示すブロック図である。
【図5】 図3の動画像再符号化部の詳細を示すブロック図である。
【図6】 本発明における動き補償情報の決定方法を示す説明図である。
【図7】 本発明の第2実施形態の構成を示すブロック図である。
【図8】 本発明の動き補償情報参照画像切替え時刻の変更を説明する図である。
【図9】 本発明の動き補償情報のスケーリングを示す図である。
【図10】 本発明の第3実施形態の構成を示すブロック図である。
【図11】 図10の動画像復号部の詳細を示すブロック図である。
【図12】 図10の動画像再符号化部の詳細を示すブロック図である。
【図13】 本発明の第4実施形態の構成を示すブロック図である。
【図14】 図13の動画像再符号化部の詳細を示すブロック図である。
【図15】 本発明の第5実施形態の動画像再符号化部の構成を示すブロック図である。
【図16】 本発明における小領域動き探索方式を説明する図である。
【図17】 従来装置の構成を示すブロック図である。
【図18】 従来装置の再符号化部の詳細を示すブロック図である。
【符号の説明】
1、2…第1、第2の動画像復号部、3…動き補償情報決定部、4…画像合成部、5…動画像再符号化部、7…画像特徴解析部、11…復号部、14…動き補償部、21…フレーム内/フレーム間符号化判定部、26…動き補償部、27…小領域動き探索部、31、32…第1、第2の動画像復号部、33…変換領域画像合成部、34…動画像再符号化部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a dissolve image encoding apparatus, and more particularly to a dissolve image encoding apparatus using interframe motion compensated prediction encoding.
[0002]
[Prior art]
As one of the special effects to be inserted at the time of a scene change of a moving image, a temporal transition section is provided in the scene change, and as shown in FIG. There is a “dissolve” that changes from an image A) to a scene-changed image (moving image B). In the dissolve, a video in the transition section and a composite image of two input images are obtained.
[0003]
A digital moving image is represented by a sequence of continuous digital still images. A digital still image is represented by a set of pixels arranged at equal intervals in space. When “dissolve” is used in a digital moving image, each pixel value of the synthesized image is expressed by the following equation (1) (see FIG. 2).
[0004]
Dt (y, x) = {(tout-t) / (tout-tin)}. At (y, x) + {(t-tin) / (tout-tin)}. Bt (y, x) ( 1)
[0005]
Here, Dt (y, x) is the pixel value of the coordinate (y, x) in the composite image at time t, and At (y, x) is the coordinate (y, x) in the image before switching at time t. , Bt (y, x) is the pixel value of the coordinates (y, x) in the image after switching at time t, tin is the transition section start time, and tout is the transition section end time.
[0006]
However, compression encoding of image information is actively used for moving image information because of its large amount of information. In particular, in order to increase the compression efficiency, inter-frame predictive coding that uses motion compensation prediction information from temporally neighboring image information is used. MPEG video encoding uses this method.
[0007]
In order to create a composite image using a dissolve effect in a transition section from a moving image that has been subjected to compression encoding using such inter-frame predictive encoding, for example, an operation as shown in FIG. It is necessary to let First, the target encoded video A61 is decoded and reproduced by the
[0008]
FIG. 18 is a block diagram illustrating details of the moving image re-encoding
[0009]
The intra-frame / inter-frame
[0010]
On the other hand, the transform area information e output from the
[0011]
[Problems to be solved by the invention]
However, in the above-described conventional method, the
[0012]
An object of the present invention is to solve the above-described problems of the prior art and to perform a motion search process when creating a compression-encoded video that realizes a dissolve in a transition section using the compression-encoded video as an input. Alternatively, it is an object of the present invention to provide a dissolve image encoding apparatus capable of performing moving image compression encoding processing at high speed while greatly reducing the amount of calculation of the motion search processing.
[0013]
[Means for solving problems]
In order to achieve the above object, the present invention does not perform motion search processing on motion compensation information at the time of re-encoding a composite image, and obtains motion compensation information from two encoded moving images that are inputs of the composite image. There is a first feature in that a means for determining motion compensation information in a composite image from the extracted motion compensation information and temporal position information of the composite image to be processed is included.
[0014]
In addition, the present invention has a second feature in that it has means for improving coding efficiency by performing a small area motion search in the vicinity from the position indicated by the determined motion compensation information.
[0015]
The third feature of the present invention is that it includes means for using motion compensation information of an image having a high input ratio of two input images in each composite image.
[0016]
Further, the present invention reflects the feature amount of each input image in the input ratio which is a reference for selecting motion compensation information of the two input images, and determines an input image using the motion compensation information based on the result. The fourth feature is that the device is provided.
[0017]
The fifth aspect of the present invention is that a means for using pattern information is provided as a feature quantity of an input image, and a means for using an absolute error sum with a dispersion amount in an image and an average value in an image is provided. There are features.
[0018]
Further, the present invention has a sixth feature in that it includes means for selecting an intra-screen coding method when the difference between the input ratios of two input images is small near the center of the dissolve section.
[0019]
In addition, the present invention has a seventh feature in that it comprises means for making the re-encoding of the composite image the same as the image encoding method that refers to the motion compensation information.
[0020]
In addition, an eighth feature is that a means for changing the switching time of the motion compensation information reference image obtained by calculation is changed according to the encoding method of the neighboring frame.
[0021]
The present invention also provides a method of decoding input encoded image data up to pixel region information and re-encoding it after composition work when creating an encoded dissolve image, and decoding input image data up to transform region information. A ninth feature is that a means for selecting a re-encoding method after the synthesis operation is provided.
[0022]
The present invention also includes means for scaling the motion compensation information according to the ratio of the prediction frame intervals when the prediction frame interval is different between the image referring to the motion compensation information and the image to be re-encoded. This is the tenth feature.
[0023]
According to the above-described feature, it is possible to perform the re-encoding process without using the motion search process that requires a large amount of calculation performed in the conventional method, and thus it is possible to solve the conventional problem. .
[0024]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 3 is a block diagram showing an embodiment of the encoding apparatus of the present invention.
[0025]
The encoded moving image information before being combined by the dissolve effect is referred to as an encoded moving image A and an encoded moving image B. The first and second moving
[0026]
The motion compensation
[0027]
The moving
[0028]
FIG. 4 is a block diagram illustrating details of the moving
[0029]
The
[0030]
FIG. 5 is a block diagram illustrating details of the moving
[0031]
FIG. 6 is a diagram illustrating a specific example of a method for determining motion compensation information in a dissolve section performed by the motion compensation
[0032]
The scene is switched using the dissolve in the transition region of the image that changes from the input encoded video A to the input encoded video B, and a new encoded video E is created. Assuming that time tin is the dissolve start time and time tout is the dissolve end time, the period from tin to tout is the dissolve interval.
[0033]
[0034]
Among these frames,
[0035]
In FIG. 6, the input encoded image using motion compensation information is switched between
tc = tin + (tout-tin) / 2 (2-1)
if t ≦ tc, MVE = MVA, else MVE = MVB (2-2)
[0036]
In addition, a method of setting tc in the above equation according to the feature amount of two input images instead of the input ratio is also possible. When the time for switching the reference image is determined according to the input image feature, it can be obtained by the following equation (3). Here, FA and FB represent the feature amounts of the encoded input image A and the encoded input image B in the dissolve section, respectively.
tc = tin + FA (tout-tin) / (FA + FB) (3)
[0037]
As the feature amount in the above equation, a value reflecting the pattern information of each input encoded image can be used. As a value reflecting this pattern information, the pixel variance value in each block of each encoded input image, the absolute error sum with the average value in the block, and the absolute value of the coefficient in the transform area data such as DCT It is possible to reflect a value such as a sum.
[0038]
FIG. 7 shows a second embodiment of the present invention. 7, the same reference numerals as those in FIG. 3 denote the same or equivalent parts.
[0039]
This embodiment is characterized in that the motion compensation
[0040]
Further, instead of switching the encoded input image using motion compensation information at only one place in the dissolve section, the encoded input image using motion compensation information is calculated by the product of the input ratio and the feature amount as in the following equation. The method of selection is also possible.
if FA x RA> FB x RB, MVD = MVA, else MVD = MVB
In the above equation, RA and RB respectively represent the input ratios of the input image A and the input image B at the same time within the dissolve section.
[0041]
Next, an encoding method for each image in the dissolve section will be described. In a moving picture coding system that performs interframe predictive coding, the following three kinds of video coding systems are used in combination for the convenience of high-efficiency coding and decoding / reproduction.
[0042]
P frame: One-way prediction frame. One of the inter-frame prediction frames. Encoding is performed from an image encoded in the past by interframe motion compensation prediction encoding. This prediction is a forward prediction. The image is decoded and reproduced and becomes a reference image for the next P frame encoding. When the similarity between the referenced image and the referenced image is high, the encoding efficiency is improved.
[0043]
B frame: Bidirectional prediction frame. One of the inter-frame prediction pictures. Encoding is performed by inter-frame motion compensation prediction from two images before and after encoding in the past. The frame is not used as a reference image.
[0044]
I frame: An intra-frame encoded frame. The motion and correlation between images are not used, and one image is encoded independently. Therefore, independent frame decoding is possible.
[0045]
The present invention is characterized in that the encoding method of each frame in the dissolve section is the same as the encoding method of an image referring to motion compensation information. As a result, it is possible to reduce degradation of image quality during re-encoding. Further, the timing tc for switching the image referring to the motion compensation information in the dissolve section is changed to a position t′c where the total number of consecutive B frames adjacent to before and after tc is reduced. As a result, the number of times of scaling processing of motion compensation information, which will be described later, can be reduced, and image quality degradation and the number of computations can be reduced.
[0046]
FIG. 8 shows the above explanatory diagram. FIG. 6A shows a case where tc is the center of 10 frames included in the dissolve section. Therefore, the first 5 frames use the encoding method and motion compensation information of each frame of the input encoded moving image A, and the latter 5 frames use the encoding method and motion compensation information of each frame of the input encoded moving image B. To do. In this case, the motion compensation information in the five images surrounded by the line x needs to be scaled for motion compensation information, which will be described later, because the prediction frame interval changes.
[0047]
On the other hand, FIG. 6B shows an example in which the position of tc is delayed to t′c one frame backward from FIG. In this example, since the number of frames that require scaling of motion compensation information is two, compared to Example (1), it is possible to reduce image quality degradation and improve processing speed.
[0048]
Next, scaling of motion vector information, which is a process when the prediction frame interval between the input image and the re-encoded image is different, will be described. The motion compensation information is expressed by motion vector information and prediction frame interval information. As described above, the prediction frame interval in the input encoded image may be different from the prediction frame interval in re-encoding of the dissolve composite image.
[0049]
In such a case, the motion vector information is scaled according to the prediction frame interval ratio. FIG. 9 illustrates the scaling of motion vectors according to the ratio of predicted frame intervals. FIG. 4A shows a case where encoding is performed with an estimated frame interval of 2 frames from an input image with an estimated frame interval of 3 frames. In this case, 2/3 scaling is applied to the motion vector information.
[0050]
If the prediction direction is different, such as forward prediction and backward prediction, it can be dealt with by inverting the vector by multiplying by a negative value. FIG. 9B shows a case where motion vector information having a prediction frame interval of 1 frame is generated from a motion vector having a frame interval of 2 frames in reverse prediction. Therefore, -1/2 scaling is applied to the motion vector information.
[0051]
Furthermore, in the coding for each block of an image, there is an intra-frame coding method that performs coding without performing motion compensation prediction, in addition to motion compensation prediction coding that performs motion compensation prediction between frames. In this case, the target region does not have motion compensation information. In the present invention, when motion compensation information does not exist at the target position of the referenced encoded input image, the motion vector information is set to a zero vector, which is used as motion compensation information.
[0052]
Next, a third embodiment of the present invention will be described with reference to FIG. 10, the same reference numerals as those in FIG. 3 denote the same or equivalent parts.
[0053]
The encoded moving image A is decoded by the first moving
[0054]
Next, from the decoded transformation area information A2 and the decoded transformation area information B2 output from the moving
[0055]
FIG. 11 is a block diagram illustrating details of the moving
[0056]
The transform region
[0057]
FIG. 12 is a diagram illustrating details of the moving
[0058]
The intra-frame / inter-frame
[0059]
Also, the motion compensation prediction error transform region information w input to the
[0060]
FIG. 13 is a block diagram showing a fourth embodiment of the present invention. In this embodiment, the difference between the input ratios of the encoded input image A and the encoded input image B is small for an image near the temporal center in the dissolve section, and the correlation between both input encoded images is low. This method is characterized in that the coding method of each block in the synthesized image is forcibly set to the intra-frame coding method without using any coding information.
[0061]
As shown in the figure, the motion compensation
[0062]
FIG. 14 is a block diagram showing details of the moving
[0063]
Next, FIG. 15 shows a fifth embodiment of the present invention. In this embodiment, the motion compensation information r sent from the motion compensation
[0064]
In addition, although all the processes of the said 1st-4th embodiment, for example, the processes of the motion compensation
[0065]
【The invention's effect】
As is clear from the above description, according to the present invention, the moving image re-encoding unit performs motion search when performing processing to create an encoded moving image in which a dissolve effect is inserted from two pieces of encoded moving image information. Even if there is no part, the process can be performed. Further, even if motion search is performed, high-speed processing can be realized because motion search processing with a small amount of calculation processing may be performed.
[Brief description of the drawings]
FIG. 1 is a diagram showing an outline of a dissolve.
FIG. 2 is a diagram for explaining a transition state of a dissolve section.
FIG. 3 is a block diagram showing a first embodiment of a dissolve image encoding apparatus according to the present invention.
4 is a block diagram illustrating details of a moving image decoding unit in FIG. 3. FIG.
FIG. 5 is a block diagram illustrating details of a moving image re-encoding unit in FIG. 3;
FIG. 6 is an explanatory diagram showing a method for determining motion compensation information in the present invention.
FIG. 7 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.
FIG. 8 is a diagram illustrating a change in motion compensation information reference image switching time according to the present invention.
FIG. 9 is a diagram illustrating scaling of motion compensation information according to the present invention.
FIG. 10 is a block diagram showing a configuration of a third exemplary embodiment of the present invention.
11 is a block diagram illustrating details of a moving image decoding unit in FIG.
12 is a block diagram illustrating details of a moving image re-encoding unit in FIG.
FIG. 13 is a block diagram showing a configuration of a fourth exemplary embodiment of the present invention.
14 is a block diagram illustrating details of a moving image re-encoding unit in FIG.
FIG. 15 is a block diagram illustrating a configuration of a moving image re-encoding unit according to a fifth embodiment of the present invention.
FIG. 16 is a diagram illustrating a small area motion search method according to the present invention.
FIG. 17 is a block diagram showing a configuration of a conventional apparatus.
FIG. 18 is a block diagram showing details of a re-encoding unit of a conventional apparatus.
[Explanation of symbols]
DESCRIPTION OF
Claims (9)
前記入力符号化動画像データAと入力符号化動画像データBを復号する動画像復号部と、
該動画像復号部から出力された動き補償情報からディゾルブ区間の動き補償情報を決定する動き補償情報決定部と、
該第1、第2の動画像復号部から出力された復号画像情報をディゾルブ区間において合成する画像合成部と、
該画像合成部から出力された合成画像を再符号化する動画像再符号化部とを具備し、
前記動き補償情報決定部は、ディゾルブ区間における前記入力符号化動画像データAおよびBの画像の画像内分散値、画像内平均値との絶対誤差和、およびDCT係数の絶対値和の少なくとも一つからなる画像の模様情報のうちの大きい方の動き補償情報をディゾルブ区間の動き補償情報とし、前記動画像再符号化部は、動き探索を行わず、前記動き補償情報決定部で決定された動き補償情報を用いて再符号化することを特徴とするディゾルブ画像の符号化装置。In a dissolve image encoding apparatus for creating compressed encoded video data E using a dissolve effect from input encoded video data A and input encoded video data B using motion compensation prediction between two frames,
A video decoding unit for decoding the input encoded video data A and the input encoded video data B;
A motion compensation information determining unit that determines motion compensation information of a dissolve section from the motion compensation information output from the video decoding unit;
An image synthesis unit that synthesizes the decoded image information output from the first and second moving image decoding units in a dissolve section;
A moving image re-encoding unit that re-encodes the combined image output from the image combining unit;
The motion compensation information determination unit includes at least one of an intra-image variance value of the input encoded video data A and B in the dissolve section , an absolute error sum with an intra-image average value, and an absolute value sum of DCT coefficients. The motion compensation information of the larger one of the pattern information of the image consisting of is used as motion compensation information of the dissolve section, and the moving image re-encoding unit does not perform motion search, and the motion determined by the motion compensation information determining unit An apparatus for encoding a dissolve image, wherein re-encoding is performed using compensation information.
前記入力符号化動画像データAと入力符号化動画像データBを復号する動画像復号部と、
該動画像復号部から出力された動き補償情報からディゾルブ区間の動き補償情報を決定する動き補償情報決定部と、
該第1、第2の動画像復号部から出力された復号画像情報をディゾルブ区間において合成する画像合成部と、
該画像合成部から出力された合成画像を再符号化する動画像再符号化部とを具備し、
前記動き補償情報決定部は、ディゾルブ区間における前記入力符号化動画像データAおよびBの画像の画像内分散値、画像内平均値との絶対誤差和、およびDCT係数の絶対値和の少なくとも一つからなる画像の模様情報のうちの大きい方の動き補償情報をディゾルブ区間の動き補償情報とし、前記動画像再符号化部は、前記動き補償情報決定部で決定された動き補償情報を動き探索の起点として、その周辺の小領域のみで動き探索処理を行い、その結果を用いて再符号化することを特徴とするディゾルブ画像の符号化装置。In a dissolve image encoding apparatus for creating compressed encoded video data E using a dissolve effect from input encoded video data A and input encoded video data B using motion compensation prediction between two frames,
A video decoding unit for decoding the input encoded video data A and the input encoded video data B;
A motion compensation information determining unit that determines motion compensation information of a dissolve section from the motion compensation information output from the video decoding unit;
An image synthesis unit that synthesizes the decoded image information output from the first and second moving image decoding units in a dissolve section;
A moving image re-encoding unit that re-encodes the combined image output from the image combining unit;
The motion compensation information determination unit includes at least one of an intra-image variance value of the input encoded moving image data A and B in the dissolve section , an absolute error sum with an intra-image average value, and an absolute value sum of DCT coefficients. The motion compensation information of the larger one of the pattern information of the image consisting of is used as motion compensation information of the dissolve section, and the moving image re-encoding unit performs motion search on the motion compensation information determined by the motion compensation information determination unit. An apparatus for encoding a dissolve image, characterized in that, as a starting point, a motion search process is performed only in the surrounding small area, and the result is re-encoded.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000060538A JP3830013B2 (en) | 2000-03-06 | 2000-03-06 | Dissolve image encoding device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000060538A JP3830013B2 (en) | 2000-03-06 | 2000-03-06 | Dissolve image encoding device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2001251628A JP2001251628A (en) | 2001-09-14 |
| JP3830013B2 true JP3830013B2 (en) | 2006-10-04 |
Family
ID=18580830
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000060538A Expired - Fee Related JP3830013B2 (en) | 2000-03-06 | 2000-03-06 | Dissolve image encoding device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3830013B2 (en) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1472881B1 (en) * | 2002-01-17 | 2007-08-08 | Koninklijke Philips Electronics N.V. | Unit for and method of estimating a current motion vector |
| JP4232971B2 (en) | 2004-04-16 | 2009-03-04 | Kddi株式会社 | Motion prediction information detection device |
| JP4822444B2 (en) * | 2007-03-30 | 2011-11-24 | Kddi株式会社 | Movie editing device |
| WO2009123067A1 (en) * | 2008-04-03 | 2009-10-08 | 日本電気株式会社 | Image processing method, image processing device, and recording medium |
-
2000
- 2000-03-06 JP JP2000060538A patent/JP3830013B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2001251628A (en) | 2001-09-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3736869B2 (en) | Bi-directional motion estimation method and apparatus | |
| EP0542195B1 (en) | Interframe predicting method and picture signal coding/decoding apparatus | |
| JP3189258B2 (en) | Image signal encoding method and image signal encoding device, image signal decoding method and image signal decoding device | |
| JPH07162869A (en) | Video coding device | |
| KR20010031222A (en) | Transcoding | |
| KR100964526B1 (en) | Multimedia coding technology for transition effects | |
| JP3469815B2 (en) | Digital video processing device and digital video processing method | |
| JP3830013B2 (en) | Dissolve image encoding device | |
| JP3674535B2 (en) | Video coding method and apparatus | |
| JP3240024B2 (en) | Image processing method | |
| JP3823370B2 (en) | Video encoding method, decoding method and apparatus | |
| JP3621332B2 (en) | Sprite encoding method and apparatus, sprite encoded data decoding method and apparatus, and recording medium | |
| JPH08307860A (en) | Scene re-encoding device | |
| JP3700801B2 (en) | Image coding apparatus and image coding method | |
| JP4361665B2 (en) | Transcoding method and transcoding apparatus for moving image encoded data | |
| JP3277116B2 (en) | Video encoding device and video decoding device | |
| JP3188081B2 (en) | Image encoding method and image encoding device | |
| JP2002112269A (en) | Image synthesis method and image synthesis device | |
| JPH11155147A (en) | Image reproduction method, image encoding device, and image encoding method | |
| JPH10150665A (en) | Predicted image creation method, image encoding method, and image encoding device | |
| JP2883585B2 (en) | Moving picture coding apparatus and moving picture coding method | |
| JP2001359103A (en) | Moving image data encoding device, moving image data transmission method, and moving image data decoding device | |
| JP3186406B2 (en) | Image synthesis coding method and image synthesis apparatus | |
| JP2947089B2 (en) | Moving picture decoding method and apparatus | |
| JP4061505B2 (en) | Image coding apparatus and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060131 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060308 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060508 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060705 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060706 |
|
| R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120721 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120721 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150721 Year of fee payment: 9 |
|
| LAPS | Cancellation because of no payment of annual fees |