[go: up one dir, main page]

JP5351971B2 - モーションベクトルを決定するための方法、装置及びソフトウエア - Google Patents

モーションベクトルを決定するための方法、装置及びソフトウエア Download PDF

Info

Publication number
JP5351971B2
JP5351971B2 JP2011532471A JP2011532471A JP5351971B2 JP 5351971 B2 JP5351971 B2 JP 5351971B2 JP 2011532471 A JP2011532471 A JP 2011532471A JP 2011532471 A JP2011532471 A JP 2011532471A JP 5351971 B2 JP5351971 B2 JP 5351971B2
Authority
JP
Japan
Prior art keywords
image
images
motion vector
region
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011532471A
Other languages
English (en)
Other versions
JP2012506577A (ja
Inventor
フィン レッデンハーゲン ゴードン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATI Technologies ULC
Original Assignee
ATI Technologies ULC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATI Technologies ULC filed Critical ATI Technologies ULC
Publication of JP2012506577A publication Critical patent/JP2012506577A/ja
Application granted granted Critical
Publication of JP5351971B2 publication Critical patent/JP5351971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、概して画像処理に関し、更に特定的には画像シーケンスに対してモーションベクトルを決定するための方法及び装置に関する。
画像処理においては、モーションベクトルは、1つの画像から他の画像へのオブジェクト(object)の変位の方向及び大きさを示すベクトルである。例えば、モーションベクトルは、ビデオシーケンスにおける2つのシーケンシャルな画像フレームの間でのオブジェクトの見かけ上のモーション(apparent motion)を表すことができる。モーションベクトルは、例えば、ビデオ圧縮及びビデオフレームレート変換において用いられる。
モーションベクトルを決定するための1つの標準的な技術は、整合領域(matching regions)に対する2つの画像を検索し、そして整合領域間の相対変位を用いて2つの画像に対するモーションベクトルを定義する。典型的には、第2の画像は1つ以上の画素の複数の領域にセグメント化されている。第2の画像内の全てのセグメント化領域に対して、第1の領域は、考慮中のセグメント化領域に最も合致する領域を検索される。
代替的な方法は、2つの画像に対する又は1つの画像の部分部分に対する相関面を決定することである。相関面は、2つの画像が全ての方向及び大きさにおいて互いに相対的に変位させられた場合における2つの画像の相関を表す。典型的には、相関面の頂点に対応する複数の点がモーションベクトル候補を決定するために用いられ得る。しかし、モーションベクトル候補は、必ずしも2つの画像間でのオブジェクトの実際のモーションに対応しているとは限らない。オブジェクトの実際のモーションに最も良く対応するモーションベクトルをモーションベクトル候補から決定するために、更なる計算が必要である。
従って、上述した1つ以上の問題を克服することができる、モーションベクトルを決定するための方法及び装置に対する要求がある。
本発明の側面によると、画像に対するモーションベクトルを決定する方法であって、(a)モーションベクトル候補に関連する第1の画像内の第1の領域及び第2の画像内の第2の領域を決定することと、(b)第1及び第2の画像内の第1及び第2の領域における画素強度を既定の強度に設定することによって第1及び第2の画像を修正することと、(c)第1及び第2の画像に対するモーションベクトルとして、(b)で修正された第1及び第2の画像からモーションベクトル候補を取得及び記憶することとを備えた方法が提供される。
本発明の他の側面によると、第1及び第2の画像に対するモーションベクトルを決定する方法であって、(a)第1の画像から第2の画像への領域のモーションを表す少なくとも1つのモーションベクトル候補を取得することと、(b)少なくとも1つのモーションベクトル候補に関連する第1の画像及び第2の画像内の領域を決定することと、(c)第1及び第2の画像内の領域における画素強度を既定の強度に設定することによって第1及び第2の画像を修正することと、(d)第1及び第2の画像に対して所望の数のモーションベクトルが決定されるまで、(c)で修正される第1及び第2の画像を用いて、取得すること、決定すること、及び修正することを繰り返すこととを備えた方法が提供される。
本発明の更に他の側面によると、第1の画像から第2の画像への領域のモーションを表す少なくとも1つのモーションベクトル候補を取得するための第1の論理ブロックと、少なくとも1つのモーションベクトル候補に関連する第1の画像及び第2の画像内の領域を決定するための第2の論理ブロックと、第1及び第2の画像内の領域における画素強度を既定の強度に設定することによって第1及び第2の画像を修正するための第3の論理ブロックとを備えたビデオプロセッサであって、第1、第2及び第3の論理ブロックは、第1及び第2の画像に対して所望の数のモーションベクトルが決定されるまで、第3の論理ブロックによって修正される第1及び第2の画像を用いて、取得すること、決定すること、及び修正することとを繰り返すビデオプロセッサが提供される。
以下の図面は例示のみを目的として本発明の実施形態を示している。
図1は本発明の実施形態を例示するコンピュータデバイスの模式的なブロック図である。
図2は画像のシーケンスを示す模式図である。
図3は図2における第1の画像フレームの模式図であり、座標系における第1のフレームの一部分の個々の画素を示している。
図4は図2における第1の画像フレームの模式図であり、第1のフレームの一部分の個々の画素の強度値を示している。
図5は外縁を合わされた図2の第1及び第2の画像フレームの重ね合わせである。
図6はモーションベクトル決定の方法のフローチャートである。
図7は図2における第1の画像フレームの修正されたバージョンを示す図である。
図8は図2における第2の画像フレームの修正されたバージョンを示す図である。
図9はモーションベクトル候補を取得する方法のためのフローチャートである。
図10は図2の第1及び第2の画像フレームの相関面を示す図である。
図11は図2の第2の画像フレームに対して変位させられた図2の第1の画像フレームを示す図である。
図12はモーションベクトル決定の方法のためのフローチャートである。
図13は図2における第1の画像フレームの2度にわたり修正されたバージョンを示す図である。
図14は図2における第2の画像フレームの2度にわたり修正されたバージョンを示す図である。
図15はモーションベクトル決定の方法のためのフローチャートである。
図16はモーションベクトル候補に関連する図2における第1及び第2の画像フレーム内の第1及び第2の領域を決定する方法のためのフローチャートである。
図17は図2の第2の画像フレームに対して変位させられた図2の第1の画像フレームを示す図である。
図18は本発明の実施形態を例示するビデオプロセッサの簡略化されたブロック図である。
本発明の実施形態を例示する方法を概観すると、2つの画像から1つ以上のモーションベクトル候補を取得することによって、それら2つの画像からモーションベクトルが決定される。モーションベクトル候補に関連する2つの画像の複数の領域が修正される。その後、修正された画像から更なるモーションベクトル候補が取得される。既に得られているモーションベクトル候補に関連するオブジェクトを考慮から外すために2つの画像を修正することが、修正された画像から次いで取得されるモーションベクトル候補の質を改善し得ることは、既に見出されている。その後モーションベクトル候補は更に処理及び解析されてよく、ビデオ処理で使用可能なモーションベクトルを得ることができる。
これらの領域は、複数の画像内の同一のオブジェクト、複数のオブジェクトの複数部分、定義された形状(geometry)を有する複数の画像部分(例えば正方形又は長方形のブロック)等を表してよい。
実際上は、モーションベクトルは繰り返して又は再帰的に(iteratively or recursively)決定される。例えば位相相関、最小差分絶対値和(minimum sum of absolute differences)、オブジェクトセグメンテーション(object segmentation)に基く整合方法、色類似性、等を用いて適切なモーションベクトルが一旦決定されたならば、領域は、後続の相関及び割り当てにおいて考慮されないモーションベクトルを生じさせる。これにより、後続の相関及び整合においてモーションベクトルが無用に再考される領域の場合に不可避的に生じるコンテンツクロストーク(content cross-talk)が排除される。
1つの実施形態では、方法は、ビデオ処理が可能なデバイスによって少なくとも部分的に実行されてよい。適切なビデオ処理デバイスは、セットトップボックス、ビデオ受信機、テレビジョン、グラフィックスサブシステム、コンピュータデバイス等の一部を形成するビデオプロセッサの形態をとり得る。図1には、本発明の実施形態を例示するコンピュータデバイス100が模式的に示されている。
コンピュータ100はプロセッサ102を含み、プロセッサ102は、主メモリ104、補助メモリ106、並びに入力及び出力周辺機器108,110と通信する。コンピュータ100は随意的にネットワーク(図示せず)と通信してよい。
プロセッサ102は汎用プロセッサであってよく、そしてコンピュータが実行可能なコード及びデータを処理するために1つ以上の処理コアを含んでいてよい。
メモリ104及び106の各々は、プロセッサが実行可能なコードを含む電子的なデータを記憶するのに適している。主メモリ104は、実行時に(at runtime)プロセッサ102によって容易にアクセス可能であり、同期ダイナミックランダムアクセスメモリ(SDRAM)の形態をとることができる。補助メモリ106は、データを恒久的に記憶するための永続的記憶メモリを含んでいてよく、典型的には電子的ファイルの形態にある。補助メモリ106はまた、当業者に知られている他の目的のためにも用いられてよい。コンピュータ可読媒体は、コンピュータによってアクセス可能な任意の利用可能媒体であってよく、取り外し可能であってもなくてもよく、揮発性であってもなくてもよく、任意の磁気記憶装置、光学的記憶装置、ソリッドステート記憶デバイス、又はコンピュータ実行可能命令を含む所望のデータを具体化することができ且つコンピュータ若しくはコンピュータデバイスによって局部的に若しくは遠隔的にアクセス可能な任意の他の媒体を含んでいてよい。上記の任意の組み合わせもまた、コンピュータ可読媒体の範囲に含まれる。
入力周辺機器108は、1つ以上の適切な入力デバイスを含んでいてよく、そして典型的にはキーボード及びマウスを含む。入力周辺機器108はまた、マイクロホン、スキャナ、カメラ等を含んでいてもよい。入力周辺機器108は更に、取り外し可能メモリ112のようなコンピュータ可読媒体及びその媒体にアクセスするための対応するデバイスを含んでいてもよい。入力周辺機器108はユーザからの入力を受信するために用いられてよい。入力デバイスがプロセッサ102に局部的に又は遠隔的に接続されていてよい。
出力周辺機器110は1つ以上の出力デバイスを含んでいてよく、出力デバイスは、モニタのようなディスプレイデバイスを含んでいてよい。適切な出力デバイスはまた、プリンタ、スピーカ等のような他のデバイスの他、コンピュータ書き込み可能媒体及び当該媒体へ書き込むためのデバイスを含んでいてよい。入力デバイスと同様、出力デバイスも局部的又は遠隔的であってよい。
当業者に理解されるであろうように、コンピュータシステム100はまた、必要に応じて又は随意的に、図示されない他のコンポーネントを含んでいてよい。
メモリ104,106又は112は、画像若しくは計算のデータ、計算結果、又はモーションベクトル生成プロセスにおいて用いられる他の入力データ及び出力データを記憶するために用いられてよい。
メモリ104,106又は112はまた、プロセッサ実行可能コードを記憶していてよく、プロセッサ実行可能コードは、プロセッサ102によって実行されたときに、ここに説明される任意の方法を実施することをコンピュータ100にさせる。例えば、プロセッサ実行可能コードは、以下に更に説明されるように、第1の画像及び第2の画像から少なくとも1つのモーションベクトル候補を取得するためのコードと、第1の画像内の第1の領域及び第2の画像内の第2の領域を決定するためのコードと、第1及び第2の画像を修正するためのコードと、修正された第1及び第2の画像からモーションベクトル候補を取得及び記憶するためのコードとを含んでいてよい。
理解し得るであろうように、ここに説明される方法はまた、その全体又は一部を、1つ以上の説明されている計算又は機能を実行するための回路を有するハードウエアデバイスを用いて実施されてもよい。例えば、1つ以上の上述したプログラムコードの機能は、グラフィックスプロセッサ、そのコンポーネント、又は1つ以上の特定用途向け集積回路(ASIC)によって実行されてよい。
モーションベクトルは、本発明の実施形態を用いて任意の2つの画像から決定することができる。例示を目的として、図2に示されるビデオシーケンス200における画像フレーム210及び画像フレーム220からモーションベクトルが決定されるものと仮定する。方法はまた、ビデオシーケンス200において画像フレーム220に続く画像フレーム230にも適用可能である。例示を目的として、第1の画像フレーム210においては、白い背景216が黒い正方形のオブジェクト212及び黒い円形のオブジェクト214を画定している。第2の画像フレーム220においては、白い背景226が同様に黒い正方形のオブジェクト222及び黒い円形のオブジェクト224を画定している。
典型的には、画像は、二次元座標系によって参照される複数画素の格子(a grid of pixels)で表される。例示のために、基点は画像の角であり、且つ第1及び第2の軸は基点から外に向かって画像の縁に沿って伸びているものと仮定する。この例示的な座標系は図3に示されており、ここでは、基点は画像フレーム210の角218であり、X軸は基点から外に向かって画像フレーム210の水平に図示されている縁に沿って伸びており、そしてY軸は基点から外に向かって画像フレーム210の垂直に示されている縁に沿って延びている。
この例示的な座標系においては、個々の画素202は形式[a,b]で表され、ここでは、第1の座標aはX軸を参照しており、また第2の座標bはY軸を参照している。例示的な画像pに対して、画像の個々の画素は表記p[a,b]で示される。この例示的な座標系を前提として、画像フレーム210及び220はサイズI×Jの長方形である。
図4は画像フレーム210を模式的に示す図であり、画像フレーム210の一部分である個々の画素206及び208の強度値を表している。例示的な実施形態においては、画像フレーム210及び220の個々の画素の強度値は8ビットを用いて表され、従って0から255の範囲である。黒い画素206は強度値255を有している。理解されるであろうように、強度値は画素あたり8ビットよりも多い又は少ないビットで容易に表され得る。同様に、強度値に加えて又は強度値に代えて、画素の色(彩度)値を用いて、ここに説明されるように、モーションベクトル及び関連画素領域を決定することができる。
画像フレーム210の画像フレーム220への重ね合わせが図5に示されている。画像フレーム210及び220は、画像フレーム210及び220の外縁が一致するように同一の座標系を用いている。ベクトル236は、画像フレーム210と画像フレーム220の間での黒い正方形のオブジェクト212及び222の位置の変化を表している。ベクトルMV=[x,y]236は、画像フレーム210における黒い正方形のオブジェクト212の中心の座標に対応する起点242と、画像フレーム220における黒い正方形のオブジェクト222の中心の座標に対応する終点244とを有している。位置246を起点とし位置248を終点とする同様のベクトルMV=[x,y]234は、画像フレーム210と画像フレーム220の間での黒い円形のオブジェクト214及び224の位置の変化を表している。モーションとしての黒いオブジェクト212,222,214,及び224の位置の変化に関して、ベクトル236及び234が画像フレーム210と画像フレーム220の間での黒いオブジェクト212,222,214,及び224のモーションを表しているので、ベクトル236及び234が真のモーションベクトルである。同様に定義されるベクトルMV=[x,y]232及びベクトルMV=[x,y]238は、それらが画像フレーム210及び220間での黒いオブジェクト212,222,214,及び224のモーションを表していないので、見かけ上の(false)モーションである。この例示的な説明においては、モーションベクトル236及び234を含むモーション候補モーションベクトルのリストが決定される。
モーションベクトルは、本発明の実施形態の例示である図6に示される複数のブロックS100に従って、画像フレーム210及び220から決定することができる。説明を容易にするために、複数のブロックS100は、ビデオシーケンス200のシーケンシャルな画像フレーム210及び220に関連して示されている。
S1002では、モーションベクトル候補が標準的な方法において画像フレーム210及び220から得られる。例えば、ブロック整合技術を用いて、画像フレーム210及び220を検査して黒い正方形のオブジェクト212及び222を該当するオブジェクトとして識別すると共に、次いで黒い正方形のオブジェクト212及び222の位置の変化を表すベクトルを決定することによって、あるいは別の方法によって、モーションベクトルMV236を画像フレーム210及び220から決定することができる。典型的には、2つの画像から多重モーションベクトル候補を取得することができる。
S1004では、画像フレーム210内の第1の領域と画像フレーム220内の第2の領域が、得られるモーションベクトル候補と関連するものとして決定される。画像フレーム210内の第1の領域及び画像フレーム220内の第2の領域の両方とも、それぞれ画像フレーム210及び220の1つ以上の不連続な領域から構成される。得られるモーションベクトル候補がモーションベクトルMV236であるとすると、1つの実施形態においては、画像フレーム210及び220は、画像フレーム210及び220の両方に現れるオブジェクト又はブロックの複数の対に対応するブロック整合と比較されてよい。該当するオブジェクトの各対に対して、モーションベクトルMV236が画像フレーム210及び220間でのオブジェクトの位置の変化を正確に表している場合には、当該オブジェクト対に対応する画像フレーム210及び220の領域は、それぞれ第1及び第2の領域の一部であるとみなされる。画像フレーム210及び220の解析は、対応するオブジェクトの1つの対を形成するものとして黒い正方形のオブジェクト212及び222を識別すべきであり、また対応するオブジェクトの第2の対を形成するものとして黒い円形のオブジェクト214及び224を識別すべきである。モーションベクトルMVは、黒い正方形のオブジェクト212及び222の位置の変化を正確に表し、また黒い円形のオブジェクト214及び224の位置の変化を正確には表さないので、画像フレーム210内の第1の領域は領域212と等価であると決定され、また画像フレーム220内の第2の領域は領域222と等価であると決定される。2つ以上のモーションベクトル候補がS1002で取得される本発明の実施形態においては、画像フレーム210及び220の領域は、S1004で決定される第1及び第2の領域の一部とみなされるべき領域に対して取得される1つ以上のモーションベクトル候補に関連している。
S1006では、画像フレーム210及び220内の第1及び第2の領域は、両領域内の画素の強度値を既定の強度値に設定することによって修正される。1つの実施形態においては、既定の強度値はゼロである。図7及び8は修正された画像フレーム210’及び220’を示しており、ここでは、画像フレーム210及び220内で決定された上述の第1及び第2の領域は、第1及び第2の領域内の画素の強度値をゼロに設定することによって修正される。黒い円形のオブジェクト214及び224はモーションベクトル候補MV236に関連するとして前もって決定されなかったので、修正された画像フレーム210’及び220’内には黒い円形のオブジェクト214’及び224’が現れる。黒い正方形のオブジェクト212及び214はモーションベクトル候補MV236に関連するとして前もって決定されていたので、対応する黒い正方形のオブジェクトは画像フレーム210’及び220’内には現れない。
S1008では、追加的なモーションベクトル候補が、修正された画像フレーム210’及び220’から取得される。S1002でのように、モーションベクトル候補は、標準的な方法において、例えばブロック整合によって決定されてよい。好都合なことに、既定の強度値を伴う画素は、そのような決定において無視することができる。修正された画像フレーム210’及び220’は、画像フレーム210’から画像フレーム220’へのオブジェクトの位置の変化を表すベクトルがモーションベクトル候補とみなされ得る非既定の強度値での画素を伴う該当するオブジェクトを識別するために解析される。従って、修正された画像フレーム210’及び220’から得られる追加的なモーションベクトル候補は、非修正の画像フレーム210及び220から得られる追加的なモーションベクトル候補と比較して、真実のモーションベクトルである可能性がより高い。
例示を目的として、黒い正方形のオブジェクト212及び222を形成している画素が、これらの画素が無視されるべきであることを示す既定の強度値に設定されたとき、修正された画像フレーム210’及び220’の外観検査(visual inspection)は、真実のモーションベクトルMV234をモーションベクトル候補として決定することができる一方で、非修正の画像フレーム210及び220の外観検査は、見かけ上のモーションベクトルMV232又はMV238をモーションベクトル候補として決定することをもたらすかもしれない。本発明の他の実施形態においては、修正された画像フレーム210’及び220’から2つ以上のモーションベクトル候補を取得することができる。
修正された画像フレーム210’及び220’から得られる1つ以上のモーションベクトル候補は、非修正の画像フレーム210及び220から得られる1つ以上のモーションベクトル候補と共に、画像フレーム210及び220に対するモーションベクトル候補として記憶される。これらのモーションベクトル候補は、更なる処理のためにコンピュータメモリ104,106,又は112内に記憶することができる。
幾つかの実施形態においては、画像フレーム210及び220の相関を計算することによってモーションベクトル候補を取得することができ、この場合、画像フレーム210は画像フレーム220に対して既に変位させられている。計算された相関が、選択された条件を満足する場合には、画像フレーム220に対する画像フレーム210の変位はモーションベクトル候補であるとして決定される。
図9は、ブロック100のS1002で採用される、画像フレーム210及び220からモーションベクトル候補を取得するための例示的なブロックS120を示している。
S1202では、相関関数が最初に画像フレーム210及び220から決定されてよい。相関関数の従属変数が画像フレーム210及び220の相関であり、この場合、画像フレーム210及び220の相対変位を特定する独立変数によって画像フレーム210及び220は互いに相対的に変位させられる。相関関数は形式f(x,y)で表すことができ、ここで、独立変数xはX軸における画像フレーム210及び220の相対変位を特定し、そして独立変数yはY軸における画像フレーム210及び220の相対変位を特定する。画像フレーム210及び220は両方ともサイズがI×Jであるから、f(x,y)は定義域−I<x<I、−J<y<Jにわたって定義される。
相関関数f(x,y)は、図10に示されるような相関面310として視覚化することができる。相関面310は、画像に対して定義されるX軸及びY軸に沿う画像フレーム210の画像フレーム220に対する変位をX軸及びY軸がそれぞれ示す座標系において表され、そして座標系のZ軸は、相対的に変位させられる画像フレーム210及び220の間の相関の程度を示している。相関面は相関関数の単なる視覚化であるから、相関面及び相関関数の用語は交換可能に用いられてよい。
S1204及びS1206では、条件を満足する相関面310上の点を用いて、モーションベクトル候補として扱われ得る該当するベクトルを決定することができる。該当するベクトルは、典型的には、選択された点のXY平面上への投影が起点及び終点として由来するベクトルとして定義される。ベクトルを表すための前述した表現法(convention)を用いて、相関面310上の任意の点(x,y,f(x,y))は典型的にはモーションベクトル候補[x,y]に対応する。モーションベクトル候補を決定するための相関面310の適切な点を選択するために、種々の条件が用いられてよい。
比較的に高い相関の相関面310上の例示的な点332,334,336,及び338が、相関面310の頂点とみなされる。点334は、点334のXY平面上への投影が起点及び終点として由来するベクトル324により画像フレーム210を画像フレーム220に対して変位させることによって生成される。図11は、ベクトル324による画像フレーム210の画像フレーム220に対する変位を例示している。点334のZ座標は重複領域404の相関として計算される。点336,332,及び338は、それぞれベクトル326,322,及び328により画像フレーム210を画像フレーム220に対して変位させると共に重複領域の相関を計算することによって、同様にして生成される。
S1204及びS1206では、1つの実施形態においては、相関面310におけるある頂点が、識別されると共に対応するベクトルを決定するために用いられた後、モーションベクトル候補とみなされる。相関面310の頂点を識別するために、複数の関数の複数の極大を識別するための標準的な技術を利用することができる。他の実施形態においては、相関面310の最大頂点(maximum peak)334が識別され、そしてモーションベクトル候補324を決定するために用いられる。本発明の他の実施形態においては、相関面310の多重頂点が識別され得るし、また多重モーションベクトル候補を決定するために用いることができる。
本発明の他の実施形態においては、S1202で画像フレーム210及び220から決定される相関関数は、位相面相関表面としても知られる位相相関である。位相相関は画素の輝度に関して相関を正規化するので、位相相関の使用は、交差相関(cross-correlation)のような差分相関関数(different correlation function)と比較して有利であり得る。位相相関は、画像の個々の画素を参照するための前述した表現法に従うサイズI×Jの2つの画像A及びBに対して、以下のように定義される。
位相相関(A,B)=Τ−1(h)、ここで、
h[x,y]
=Χ((Τ(A))[x,y])(Τ(B))[x,y]
/|Χ((Τ(A))[x,y])||(Τ(B))[x,y]|
Τ(f)=fの離散フーリエ変換
Τ−1(f)=fの離散逆フーリエ変換
Χ(x)=xの複素共役
である。
図12は、例示的な修正された画像フレーム210’及び220’からモーションベクトル候補を取得すると共に記憶することが前述したプロセスの繰り返しを伴う1つの実施形態を示している。S1002では、モーションベクトル候補MV236が画像フレーム210及び220から得られる。S1004では、画像フレーム210及び220の第1及び第2の領域がモーションベクトル候補MV236に関連するものとして決定される。S1006では、画像フレーム210及び220の決定された第1及び第2の領域が修正され、修正された画像フレーム210’及び220’が形成される。S1802では、退出条件が試験され、所望の数のモーションベクトルが既に得られたか、あるいは修正された画像フレーム210’及び220’から追加的なモーションベクトル候補が抽出されるべきであるかが決定される。退出条件が満たされている場合には、得られたモーションベクトル候補、これまでのところモーションベクトル候補MV236は、画像フレーム210及び220に対するモーションベクトル候補としてS1804で記憶される。退出条件が満たされていない場合には、修正された画像フレーム210’及び220’に対してプロセスが繰り返される。S1002では、モーションベクトル候補MV234が、修正された画像フレーム210’及び220’から得られる。S1004では、修正された画像フレーム210’及び220’の第1及び第2の領域がモーションベクトル候補MV234に関連するものとして決定される。修正された画像フレーム210’の第1の領域は、黒い円形のオブジェクト214’によって画定される領域である。修正された画像フレーム220’の第2の領域は、黒い円形のオブジェクト224’によって画定される領域である。S1006では、修正された画像フレーム210’及び220’の決定された第1及び第2の領域が修正され、図13に示されるような更に修正された画像フレーム210”及び220”が形成される。S1802では、退出条件が再び試験され、2回にわたって修正された画像フレーム210”及び220”から追加的なモーションベクトル候補が抽出されるべきであるかどうかが決定される。退出条件が満たされていると仮定すると、モーションベクトル候補MV236及びMV234は、画像フレーム210及び220のためのモーションベクトル候補としてS1804で記憶される。
利用可能な多様な適切な退出条件がある。1つの実施形態においては、退出条件は、修正された画像を試験して、既定の強度値を有する修正された画像の割合が選択されたスレッショルドより大きくなるように、少なくとも1つの修正された画像が既に修正されているかどうかを決定することを構成していてよい。図15は本発明の他の実施形態を示しており、ここでは、退出条件は、十分な数のモーションベクトル候補が既に得られているかどうかを決定することを構成している。この実施形態においては、退出条件が既に満たされている場合には追加的な修正は不要であるから、退出条件S1822はS1004に先立って試験される。退出条件が満たされている場合には、得られたモーションベクトル候補はS1824で記憶される。退出条件が満たされていない場合には、第1及び第2の領域がS1004で決定され、画像はS1006で修正され、そして退出条件がS1822で再び考慮されるのに先立ちS1002でモーションベクトル候補が修正された画像から得られる。
退出条件はモーションベクトルを割り当てられるべき画像の全ての画素を必ずしも必要としないことは特記しておく価値がある。2つの画像の間に相対モーションがある場合、しばしば閉塞(occlusions)及びアンカバリング(uncovering)がある。これらの領域は、隠されてしまったコンテンツ及び新たなコンテンツを代表する。このようなコンテンツは対応(correspondence)を有しておらず、そして通常は別の取り扱いを必要とする。
一旦モーションベクトル候補が決定されたならば、そのモーションベクトル候補に関連する第1及び第2の領域が図16に示されるように決定されてよい。例示的な画像フレーム210及び220と共にプロセスS140を説明するに際して、モーションベクトル候補MV=[x,y]236がS1002から既に得られているものとする。S1404では、図17に示されるように、画像フレーム210がX軸においてx及びY軸においてyだけ画像フレーム220に対して変位させられる。
S1406では、重複領域1702内の画素のグループに対して誤差値が計算される。画素のグルーピングは任意の標準的な方法で行われてよい。例えば、長方形又は正方形を形成する隣接した画素がグループ化されてよい。代替的には、検出されるオブジェクト輪郭内の画素がグループ化されてよい。計算される誤差値は、MVだけ変位させられる画像フレーム210内の画素のグループとフレーム220の当該グループとの間での強度値における差分絶対値和(sum of absolute difference)であってよい。言うまでもなく、画素のグループに対して計算される誤差値が、画素のグループを包囲している領域の位置及び強度値の関数になるように、誤差計算は、左右対称に又は他の方法で異方性フィルタリングされたものであってよい。
S1408では、変位させられた画像フレーム210内の第1の領域と画像フレーム220内の対応する第2の領域とが比較されて、計算される誤差比較が選択された条件を満足するかどうかが決定される。満足する場合には、第1の領域は、選択された条件を満足している画素のグループの一部である画像フレーム210内の画素であると決定される。同様に、第2の領域は、選択された条件を満足している一対の画素の一部である画像フレーム220内の画素であると決定される。本発明の1つの実施形態においては、フレーム210内の対応する画素のグループに対する最小誤差に対応するフレーム220内の画素のグループは、モーションベクトル候補MV236に関連する画素の第1及び第2のグループとして扱われてよい。採用され得る他の条件は、画素のブロックの計算された平均誤差が選択されたスレッショルド、あるいは画素の領域の誤差値の幾つかの他の関数よりも小さいかどうかを試験することを含む。
例えば、S1406で、計算される誤差値が強度値における差分絶対値であり且つ満たされるべき条件が誤差値がゼロに近いことであるとすると、重複領域1702内の画素の同時発生グループは近い誤差値を有する。従って、モーションベクトル候補MV236に関連する画像フレーム210内の第1の領域は、黒い正方形のオブジェクト212を表している画素を除いて重複領域1702内の画像フレーム210の領域であってよい。同様に、モーションベクトル候補MV236に関連する画像フレーム220内の第2の領域は、黒い正方形のオブジェクト212を表している画素を除いて重複領域1702内の画像フレーム220の領域である。
S1410では、S1002から得られる各モーションベクトル候補に対してプロセスS140が繰り返されてよい。
そして、各フレーム210,220内で得られる各モーションベクトル候補に関連するとして決定されるべき領域は、フレーム210,220内の画素強度を既定の強度に設定することによって修正されてよい。領域が一旦修正されたならば、例えばブロックS100又はS120を繰り返すことによって、追加的なモーションベクトル候補が決定されてよい。
直ちに理解されるであろうように、上述の技術は専ら又は部分的にハードウエアにおいて実装され得る。このために、図18に示されるように、ビデオプロセッサ50は、第1の画像から第2の画像への領域のモーションを表す少なくとも1つのモーションベクトル候補を取得するための第1の機能ブロック52と、少なくとも1つのモーションベクトル候補に関連する第1の画像及び第2の画像内の領域を決定するための第2の機能ブロック54と、第1及び第2の画像内の領域における画素強度を既定の強度に設定することによって第1及び第2の画像を修正するための第3の機能ブロック56とを含む幾つかの機能ブロック52,54,及び56を含むように形成されてよい。第1、第2及び第3の論理機能ブロックは、第1及び第2の画像に対して所望の数のモーションベクトルが決定されるまで、第3の機能ブロックによって修正される第1及び第2の画像を用いて、取得すること、決定すること、及び修正することとを繰り返す。
理解されるであろうように、機能ブロックの各々は、適切な組み合わせに係る又はシーケンシャルなハードウエア論理を用いて形成されてよい。代替的には、機能ブロックは、ソフトウエア論理及び/又はハードウエア論理の組み合わせを用いて形成されてよい。ビデオプロセッサ50は、ベクトル候補が決定されるべき画像を記憶するための1つ以上のフレームバッファ60,62を含んでいてよく、あるいは外部フレームバッファ(図示せず)上で動作してよい。機能ブロックの各々は、上述のように動作するように、例えば位相相関等を計算するように形成されてよい。ビデオプロセッサ50は、更にソフトウエア制御又はファームウエア制御の下にあってよい。
直ちに理解されるであろうように、2つの画像の最初の前処理が実行され得る。ここでは2つの画像が長方形であり且つX軸及びY軸の両方におけるサイズが同一であると仮定したが、異種の画像についてそれらが同一のサイズであることを確保するために、既定の値を付け足すことによって異種の画像を最初に修正してもよい。同様に、カラー画像を従来の技術によってグレースケール(grayscale)の画像に修正することもできる。
本発明の他の実施形態においては、対応するモーションベクトル候補を取得することのための1画素未満の解像度(sub-pixel resolution)を達成するために、相関関数は補間されてよい。
第1及び第2の画像の修正は、修正された第1及び第2の画像からモーションベクトル候補を取得するために採用される技術に従って異なるものになり得る。本発明の前述した実施形態においては、第1及び第2の領域内の画素の強度値はゼロに設定される。好都合なことに、位相相関関数は、強度値ゼロの画素を無視するように構成され得る。本発明の他の実施形態においては、強度値は同様の結果をもたらす他の既定値に修正されてよい。
上述では明示的には言及されていないここで説明される実施形態の利益及び利点は、この明細書及び図面から当業者によって理解され得る。
言うまでもなく、上述の実施形態は例示のみを意図したものであり、限定は意図していない。説明されている実施形態は、部分部分の形態、配列、動作の詳細及び順序において多くの修正を許容可能である。本発明は、むしろ、特許請求の範囲によって定義されるような本発明の範囲内の全てのそのような修正を包含することが意図されている。

Claims (17)

  1. 画像に対するモーションベクトルを決定する方法であって、
    (a)モーションベクトル候補に関連する第1の画像内の第1の領域及び第2の画像内の第2の領域を決定することと、
    (b)前記第1及び第2の画像内の前記第1及び第2の領域における画素強度を既定の強度に設定することによって前記第1及び第2の画像を修正することと、
    (c)前記第1及び第2の画像に対するモーションベクトルとして、(b)で修正された前記第1及び第2の画像からモーションベクトル候補を取得及び記憶することとを備えた方法。
  2. 2つの画像からモーションベクトル候補を取得することは、
    前記2つの画像の一方の前記2つの画像の他方に対する変位の関数として前記2つの画像間の相関を計算することと、
    選択された条件を前記相関が満足する場合に、前記変位を表すモーションベクトルを前記2つの画像からの前記モーションベクトル候補として選択することとを備えている請求項1の方法。
  3. 前記相関が極大又は極小である場合に前記選択された条件が満足される請求項2の方法。
  4. 前記相関が最大である場合に前記選択された条件が満足される請求項3の方法。
  5. 前記相関関数は位相相関関数である請求項2の方法。
  6. 修正された第1及び第2の画像に対して(a)〜(c)を繰り返すことを備えた請求項1の方法。
  7. (a)〜(c)が繰り返される請求項6の方法。
  8. 前記既定の強度は強度値ゼロを有している請求項1の方法。
  9. 少なくとも1つの前記モーションベクトル候補を取得することは、前記第1の画像及び前記第2の画像を整合領域に対して検索することを備えている請求項1の方法。
  10. 請求項1の方法を実行するように適合させられるプロセッサ及びコンピュータ可読メモリを備えたコンピュータ。
  11. 実行されたときに請求項1の方法を実行することをコンピュータに適合させるコンピュータ実行可能コードを記憶しているコンピュータ可読媒体。
  12. 第1及び第2の画像に対するモーションベクトルを決定する方法であって、
    (a)前記第1の画像から前記第2の画像への領域のモーションを表す少なくとも1つのモーションベクトル候補を取得することと、
    (b)前記少なくとも1つのモーションベクトル候補に関連する前記第1の画像及び前記第2の画像内の前記領域を決定することと、
    (c)前記第1及び第2の画像内の前記領域における画素強度を既定の強度に設定することによって前記第1及び第2の画像を修正することと、
    (d)前記第1及び第2の画像に対して所望の数のモーションベクトルが決定されるまで、(c)で修正される前記第1及び第2の画像を用いて前記取得すること、前記決定すること、及び前記修正することを繰り返すこととを備えた方法。
  13. 前記取得することは、前記第1の画像と前記第2の画像の間での位相相関を決定することを備えている請求項12の方法。
  14. 前記決定することは、前記位相相関の極大を決定することを備えている請求項13の方法。
  15. 第1の画像から第2の画像への領域のモーションを表す少なくとも1つのモーションベクトル候補を取得するための第1の論理ブロックと、
    前記少なくとも1つのモーションベクトル候補に関連する前記第1の画像及び前記第2の画像内の前記領域を決定するための第2の論理ブロックと、
    前記第1及び第2の画像内の前記領域における画素強度を既定の強度に設定することによって前記第1及び第2の画像を修正するための第3の論理ブロックとを備えたビデオプロセッサであって、
    前記第1、第2及び第3の論理ブロックは、前記第1及び第2の画像に対して所望の数のモーションベクトルが決定されるまで、前記第3の論理ブロックによって修正される前記第1及び第2の画像を用いて、前記取得すること、前記決定すること、及び前記修正することとを繰り返すビデオプロセッサ。
  16. 前記第1の論理ブロックは前記第1及び第2の画像に対する位相相関を決定する請求項15のビデオプロセッサ。
  17. 前記第1の論理ブロックは前記第1及び第2の画像に対する前記位相相関の最大を決定する請求項16のビデオプロセッサ。
JP2011532471A 2008-10-24 2009-10-21 モーションベクトルを決定するための方法、装置及びソフトウエア Active JP5351971B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/258,084 2008-10-24
US12/258,084 US20100103323A1 (en) 2008-10-24 2008-10-24 Method, apparatus and software for determining motion vectors
PCT/CA2009/001511 WO2010045730A1 (en) 2008-10-24 2009-10-21 Method, apparatus and software for determining motion vectors

Publications (2)

Publication Number Publication Date
JP2012506577A JP2012506577A (ja) 2012-03-15
JP5351971B2 true JP5351971B2 (ja) 2013-11-27

Family

ID=42117121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011532471A Active JP5351971B2 (ja) 2008-10-24 2009-10-21 モーションベクトルを決定するための方法、装置及びソフトウエア

Country Status (6)

Country Link
US (1) US20100103323A1 (ja)
EP (1) EP2347388B1 (ja)
JP (1) JP5351971B2 (ja)
KR (1) KR20110086826A (ja)
CN (1) CN102257534A (ja)
WO (1) WO2010045730A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2945698B1 (fr) * 2009-05-18 2017-12-22 Canon Kk Procede et dispositif de codage d'une sequence video
TWI423169B (zh) 2010-04-23 2014-01-11 Pixart Imaging Inc 位移偵測裝置及其位移偵測方法
CN102279655B (zh) * 2010-06-08 2014-02-26 原相科技股份有限公司 位移侦测装置及其位移侦测方法
US20120155727A1 (en) * 2010-12-15 2012-06-21 General Electric Company Method and apparatus for providing motion-compensated images
US8737685B2 (en) * 2011-04-25 2014-05-27 Honeywell International Inc. Systems and methods for detecting the movement of an object
KR101348904B1 (ko) * 2012-01-20 2014-01-09 한국과학기술원 고차 상관 클러스터링을 이용한 이미지 분할 방법, 이를 처리하는 시스템 및 기록매체
US9927884B2 (en) * 2015-11-06 2018-03-27 Pixart Imaging (Penang) Sdn. Bhd. Non transitory computer readable recording medium for executing image processing method, and image sensing device applying the image processing method
US10387477B2 (en) * 2017-05-30 2019-08-20 Qualcomm Incorporated Calibration for phase detection auto focus (PDAF) camera systems
KR20200012957A (ko) * 2017-06-30 2020-02-05 후아웨이 테크놀러지 컴퍼니 리미티드 인터-프레임 예측 방법 및 디바이스
US11836844B2 (en) * 2022-03-03 2023-12-05 Nvidia Corporation Motion vector optimization for multiple refractive and reflective interfaces
CN116051595B (zh) * 2022-11-29 2025-12-12 浙江大华技术股份有限公司 一种运动状态确定方法、系统、电子设备及存储介质

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0261137B1 (en) * 1986-03-19 1991-10-16 British Broadcasting Corporation Tv picture motion measurement
CA2016641C (en) * 1989-05-12 1995-07-11 Toshiyuki Tanoi Adaptive interframe prediction coded video communications system
US5614945A (en) * 1993-10-19 1997-03-25 Canon Kabushiki Kaisha Image processing system modifying image shake correction based on superimposed images
JPH07220082A (ja) * 1994-02-04 1995-08-18 Hitachi Ltd パターン処理装置及び降雨量予測システム
TW444507B (en) * 1998-10-22 2001-07-01 Sony Corp Detecting method and device for motion vector
US6192080B1 (en) * 1998-12-04 2001-02-20 Mitsubishi Electric Research Laboratories, Inc. Motion compensated digital video signal processing
JP2000259837A (ja) * 1999-03-05 2000-09-22 Telecommunication Advancement Organization Of Japan 動き検出装置及び方法
US6618439B1 (en) * 1999-07-06 2003-09-09 Industrial Technology Research Institute Fast motion-compensated video frame interpolator
CN1203659C (zh) * 1999-11-26 2005-05-25 皇家菲利浦电子有限公司 处理图象的方法及单元
WO2002056589A1 (en) * 2001-01-16 2002-07-18 Koninklijke Philips Electronics N.V. Reducing halo-like effects in motion-compensated interpolation
CN1535455A (zh) * 2001-06-21 2004-10-06 皇家菲利浦电子有限公司 处理像素的图像处理单元和方法以及包括这种图像处理单元的图像显示设备
US6965645B2 (en) * 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
KR20040093708A (ko) * 2002-02-06 2004-11-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 세그먼테이션용 유닛 및 방법
JP3898606B2 (ja) * 2002-09-12 2007-03-28 株式会社東芝 動きベクトル検出方法及び装置並びにフレーム補間画像作成方法及び装置
KR100534207B1 (ko) * 2002-12-09 2005-12-08 삼성전자주식회사 비디오 부호화기의 움직임 추정기 및 그 방법
US7408988B2 (en) * 2002-12-20 2008-08-05 Lsi Corporation Motion estimation engine with parallel interpolation and search hardware
US7197074B2 (en) * 2003-02-20 2007-03-27 The Regents Of The University Of California Phase plane correlation motion vector determination method
US7280597B2 (en) * 2003-06-24 2007-10-09 Mitsubishi Electric Research Laboratories, Inc. System and method for determining coding modes, DCT types and quantizers for video coding
US7286185B2 (en) * 2003-09-11 2007-10-23 Ati Technologies Inc. Method and de-interlacing apparatus that employs recursively generated motion history maps
US7307664B2 (en) * 2004-05-17 2007-12-11 Ati Technologies Inc. Method and apparatus for deinterlacing interleaved video
JP4752407B2 (ja) * 2005-09-09 2011-08-17 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
US7596243B2 (en) * 2005-09-16 2009-09-29 Sony Corporation Extracting a moving object boundary
DE102007027642A1 (de) * 2007-06-15 2008-12-18 Micronas Gmbh Verfahren zur Bearbeitung einer Bildfolge mit aufeinanderfolgenden Videobildern zur Verbesserung der räumlichen Auflösung
US8600189B2 (en) * 2007-11-12 2013-12-03 Qualcomm Incorporated Block-based image stabilization

Also Published As

Publication number Publication date
EP2347388A1 (en) 2011-07-27
EP2347388B1 (en) 2014-08-06
JP2012506577A (ja) 2012-03-15
KR20110086826A (ko) 2011-08-01
EP2347388A4 (en) 2012-12-26
CN102257534A (zh) 2011-11-23
WO2010045730A1 (en) 2010-04-29
US20100103323A1 (en) 2010-04-29

Similar Documents

Publication Publication Date Title
JP5351971B2 (ja) モーションベクトルを決定するための方法、装置及びソフトウエア
US8873846B2 (en) Detecting and tracking point features with primary colors
US10373380B2 (en) 3-dimensional scene analysis for augmented reality operations
JP6784704B2 (ja) 画像処理方法及び装置
RU2429540C2 (ru) Устройство для обработки изображений, способ обработки изображений и считываемый компьютером носитель информации
US10388018B2 (en) Image processing apparatus, image processing method, and storage medium
US20180144485A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US8442327B2 (en) Application of classifiers to sub-sampled integral images for detecting faces in images
JP7212247B2 (ja) 目標検出プログラム、目標検出装置、及び目標検出方法
US10692215B2 (en) Image processing apparatus, image processing method, and storage medium
EP2889833A1 (en) Method and apparatus for image quality assessment
US9317928B2 (en) Detecting and tracking point features with primary colors
KR101377910B1 (ko) 화상 처리 방법 및 화상 처리 장치
US7627172B2 (en) Image processing apparatus and method, and program
CN101256630A (zh) 用于改善文档图像二值化性能的去噪声装置和方法
JP2010108205A (ja) 超解像画像作成方法
US20150015792A1 (en) Filtering a displacement field between video frames
JP2018010359A (ja) 情報処理装置、情報処理方法、およびプログラム
US9077963B2 (en) Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data
JP4868139B2 (ja) 画像処理装置及び画像処理プログラム
CN111369491B (zh) 图像污点检测方法、装置、系统及存储介质
JP2007026285A (ja) 画像処理装置および画像処理プログラム
JP2024178003A (ja) 情報処理装置、情報処理方法、及びプログラム
US20210035318A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US8867843B2 (en) Method of image denoising and method of generating motion vector data structure thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130814

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130823

R150 Certificate of patent or registration of utility model

Ref document number: 5351971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250