[go: up one dir, main page]

JP2017021759A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2017021759A
JP2017021759A JP2015141363A JP2015141363A JP2017021759A JP 2017021759 A JP2017021759 A JP 2017021759A JP 2015141363 A JP2015141363 A JP 2015141363A JP 2015141363 A JP2015141363 A JP 2015141363A JP 2017021759 A JP2017021759 A JP 2017021759A
Authority
JP
Japan
Prior art keywords
pixel
weight
parallax
value
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015141363A
Other languages
English (en)
Inventor
知宏 西山
Tomohiro Nishiyama
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015141363A priority Critical patent/JP2017021759A/ja
Priority to US15/208,037 priority patent/US10116917B2/en
Publication of JP2017021759A publication Critical patent/JP2017021759A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】視差マップや距離マップのフィルタ処理において、被写体のエッジを維持しつつ、視差の推定精度を向上させる。【解決手段】同一の被写体を異なる視点から撮影した複数の視差画像と同一のシーンの当該被写体までの距離に関する情報を表す距離画像を補正する画像処理装置であって、前記複数の視差画像間のマッチングの評価値を導出する評価値導出手段と、前記評価値に基づき、前記補正における重みを決定する重み決定手段と、前記距離画像における画素値を、前記重みを用いて補正する補正手段とを備えることを特徴とする。【選択図】図3

Description

本発明は、視差マップや距離マップを補正する技術に関する。
被写体までの距離を画素値で表現した距離マップにおけるデータの欠損や非一様な誤差、信頼性の低い画素値などを補正する方法として、平滑化フィルタを用いたフィルタ処理がある。しかし、平滑化フィルタは、着目画素と周囲の画素との画素値の差を小さくするフィルタである。そのため、フィルタ処理により、被写体の境界部(エッジ)がぼけてしまうという問題がある。そこで、エッジの情報を失わずに画像を平滑化する方法として、エッジ保存型の平滑化フィルタが提案されている。特許文献1では、エッジ保存型の平滑化フィルタの一例として、クロス(またはジョイント)バイラテラルフィルタが開示されている。クロスバイラテラルフィルタは、補正対象の画像(入力画像)と同一のシーンに対応する、より高画質な画像(参照画像)を用意し、参照画像の各画素における輝度値の類似度に基づいてフィルタ処理に用いる重みを画素毎に決定するフィルタである。このクロスバイラテラルフィルタでは、入力画像よりもエッジがはっきりしている参照画像に基づいてフィルタ処理に用いる重みが決定されるため、入力画像のみを用いて重みを決定した場合よりも、エッジが鮮明な画像を得ることができる。そして、参照画像の各画素における輝度値の類似度に基づいてフィルタ処理に用いる重みを画素毎に決定することで、異なる被写体に対応する画素の寄与を小さくすることができ、エッジがより鮮明な画像を得ることができる。
米国特許第8253733号公報
しかし、特許文献1に記載の技術の場合、輝度値が近い被写体同士ではその境界部(エッジ)がぼけてしまう領域が発生することがあった。また、同一被写体内においても距離値が連続的に変化するようなシーンにおいては、平滑化により、距離値の精度が劣化する可能性があった。そして、この問題は、被写体までの距離を表す上記距離マップだけでなく、任意視点における画像全体における視差量の分布を表す視差マップについても同様に当て嵌まる。そこで、本発明は、視差マップや距離マップのフィルタ処理において、被写体のエッジを維持しつつ、視差の推定精度を向上させることを目的とする。
本発明に係る画像処理装置は、同一の被写体を異なる視点から撮影した複数の視差画像と同一のシーンの当該被写体までの距離に関する情報を表す距離画像を補正する画像処理装置であって、前記複数の視差画像間のマッチングの評価値を導出する評価値導出手段と、前記評価値に基づき、前記補正における重みを決定する重み決定手段と、前記距離画像における画素値を、前記重みを用いて補正する補正手段とを備えることを特徴とする。
本発明によれば、視差マップや距離マップのフィルタ処理において、被写体のエッジを維持しつつ、視差の推定精度を向上させることができる。
画像処理装置のハードウェア構成を示す図である。 実施例1に係る、画像処理装置のソフトウェア構成を示す機能ブロック図である。 実施例1に係る、視差マップデータの補正処理の流れを示すフローチャートである。 視差画像と視差マップの一例を示す図である。 実施例1による補正処理の効果を示す図である。 実施例2に係る、画像処理装置のソフトウェア構成を示す機能ブロック図である。 実施例2に係る、視差マップデータの補正処理の流れを示すフローチャートである。 実施例2における重みの再導出を説明する図である。
以下、添付の図面を参照して、本発明を実施する形態について説明する。なお、以下の実施例において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
[実施例1]
本実施例では、視差マップ(モノクロ画像)をフィルタ処理によって補正する場合について述べる。フィルタ処理に用いる重み係数は、同一被写体を異なる視点から撮影されることで視差を有する複数の画像(以下、視差画像と呼ぶ)間の対応関係によって決定される。
ここで本明細書における用語の定義について確認しておく。本明細書において「距離マップ」とは、被写体までの距離を画素値で表現した画像をいい、「視差マップ」とは、複数の視差画像間における被写体の移動量(視差)を画素値で表現した画像をいう。視差の逆数に定数を乗じたものが被写体までの距離に相当するため、両者は同一のシーンにおける被写体までの距離に関する情報を表した画像という点で共通する。そこで、視差マップと距離マップの上位概念を表す用語として「距離画像」を用いることとする。なお、視差の逆数に乗じる上記定数は、複数視点で撮影するカメラ同士の間隔と焦点距離(pixel単位)の積を求めることで得ることができる。
以下では、水平方向に視差が発生している2枚の視差画像を用いて、視差マップを補正する場合を例に説明するものとする。しかしながら、後述のとおり使用する視差画像の枚数は3枚以上でもよく、また、水平方向以外の任意の方向に視差がついた場合についても同様に適用することが可能である。さらには、上述のとおり距離マップと視差マップとは被写体までの距離に関する情報を表した画像という点で共通するもので、相互に変換可能であるから、距離マップについても、視差マップの場合に準じて適用することができる。
図1は、本実施例に係る画像処理装置のハードウェア構成を示す図である。
画像処理装置100は、CPU101、RAM102、ROM103、記憶部104、入力インターフェース105、出力インターフェース106で構成され、これら各部がシステムバス107を介して接続されている。そして、入力インターフェース105には外部メモリ108が接続され、出力インターフェース106には表示装置109が接続されている。
CPU101は、画像処理装置100における上記各部を統括的に制御するプロセッサである。RAM102は、CPU101の主メモリ、ワークエリアとして機能するメモリである。そして、ROM103は、様々な処理に用いられるプログラム等を格納するメモリである。CPU101は、RAM102をワークエリアとしてROM103に格納されたプログラムを実行することで、後述する様々な処理を実行する。記憶部104は、各処理に用いる画像データや、各処理のためのパラメータなどを記憶する記憶デバイスである。記憶部104にはHDDや光ディスクドライブ、フラッシュメモリなどが用いられる。
入力インターフェース105は、例えばUSBやIEEE1394などのシリアルバスインターフェースである。画像処理装置100は、この入力インターフェース105を介して、外部メモリ108(例えば、ハードディスク、メモリカード、CFカード、SDカード、USBメモリ)から処理対象の画像データ等を取得することができる。出力インターフェース106は、例えばDVIやHDMI(登録商標)などの映像出力端子である。画像処理装置100は、この出力インターフェース106を介して、表示装置109(液晶ディスプレイなどの画像表示デバイス)に、画像処理装置100で処理した画像データを出力することができる。なお、画像処理装置100の構成要素は上記のもの以外にも存在するが、本発明の主眼ではないため、説明を省略する。
図2は、本実施例に係る、画像処理装置100のソフトウェア構成を示す機能ブロック図である。
画像処理装置100は、入力データ取得部201、着目画素決定部202、周辺画素決定部203、マッチング評価値導出部204、評価値重み導出部205及び補正部206で構成される。以下、各部の概要について説明する。
入力データ取得部201は、複数の視差画像と当該複数の視差画像間の視差を推定した視差マップのデータを、入力インターフェース105を介して外部メモリ108等から取得する。ここで、視差マップはモノクロの画像データである。視差マップは、入力される複数の視差画像間における被写体の移動量(視差)を表す値が0〜255の画素値(例えば、最大の視差を表す値が30の場合であれば、8倍して最大値を240とする等レンジが調節されて)により表現されている。この視差マップは、例えば参照画像データを含む複数の画像データからステレオ法やDFD(Depth From Defocus)によって生成することで得られる。また、TOF(Time of Flight)センサなどのアクティブ法で得られた距離情報を視差情報に変換して生成してもよい。取得した複数の視差画像とその視差マップのデータは、着目画素決定部202に送られる。
着目画素決定部202は、フィルタ処理を施す着目画素を、当該着目画素の位置を示す座標情報に基づいて決定する。
周辺画素決定部203は、フィルタ処理で用いる重みの導出対象となる画素を、着目画素の位置を示す座標情報と当該着目画素からの相対的な位置を示す座標情報とに基づいて決定する。
マッチング評価値導出部204は、入力された複数の視差画像間のマッチングの度合いを表す評価値(複数の視差画像における対応する画素同士の画素値の類似度を表す値)を導出する。
評価値重み導出部205は、導出されたマッチングの評価値に基づいて、フィルタ処理で用いる重みを画素毎に導出する。
補正部206は、評価値重み導出部205で導出された重みを用いたフィルタ処理によって、入力された視差マップの画素値(視差値)を補正し、新たな視差マップを生成する。
図3は、本実施例に係る、視差マップデータの補正処理の流れを示すフローチャートである。この一連の処理は、この一連の処理は、CPU101が、ROM103に格納されているプログラムをRAM102にロードし、実行することで実現される。
ステップ301において、入力データ取得部201は、入力インターフェース105を介して外部メモリ108から視差画像データと視差マップデータを取得し、着目画素決定部202に出力する。図4は、被写体(立方体)を水平方向に異なる視点から撮影して得られた2枚の視差画像と、当該視差画像に対応する視差マップの一例を示す図である。ここでは、図4に示す2枚の画像401と402が視差画像として入力されるものとする。
また、図4において、全体的に不鮮明な視差マップ411が本ステップで入力される視差マップ(推定視差マップ)を示しており、鮮明な視差マップ410は実際には存在しない理想的な視差マップ(正解視差マップ)を示している。
以下の説明では、複数の視差画像(ここでは画像401と402)のうちユーザが見たい方の視点で撮影された画像を「基準画像」と定義し、画像401を基準画像とする。
また、視差マップ411は、基準画像と同一視点から見た場合における推定視差を表す画像であるとし、以下では、視差マップ411に対してフィルタ処理を行う。
ステップ302において、着目画素決定部202は、基準画像における着目画素の位置を示す座標情報に基づいて、着目画素pを決定する。この座標情報は、RAM102に格納されている。処理開始直後の初期状態では、RAM102には着目画素pの座標の初期値として、画像の左上隅の位置を示す(0,0)が格納されている。そして、着目画素pが決定されるとその画素値とその周囲3×3のブロック内に含まれる8つの隣接画素の画素値が、RAM102に格納される。ここでは、着目画素pとして画素404が決定されるものとする。この場合のRAMに格納される画素値の一例を以下に示す。
上記の具体例において、着目画素pとしての画素404の画素値は210/255(画素値の取り得る範囲を0〜1に正規化)である。なお、着目画素pを囲む隣接8画素は、後述の式(2)において、評価値を算出する際に使用する画素群を表している。本実施例では、この画素群の範囲を着目画素の周囲3×3画素のブロックとしているが、ブロックサイズはこれに限られない。
ステップ303において、周辺画素決定部203は、着目画素pの座標情報と着目画素pからの相対的な位置関係を示す座標情報とに基づいて、フィルタ処理における重みの導出対象となる、着目画素pの周辺に位置する画素r(以下、周辺画素r)を決定する。ここでの座標情報も、RAM102に格納されている。そして、決定された周辺画素rの座標と、当該周辺画素rに対応する視差値の情報がRAM102に格納される。本実施例では、着目画素pを中心とした所定ブロック内(ここでは11×11画素のブロック内)の画素をフィルタ処理に用いるものとする。そのため、本実施例においては、周辺画素rは、着目画素pを中心とした11×11画素のブロック内の画素の中から順次決定される。なお、処理開始直後の初期状態では、着目画素pからの相対的な位置関係を示す座標情報として、着目画素pの座標を(0,0)としたときの、上記ブロックにおける左上隅の位置を示す座標値(−5,−5)がRAM102に格納されている。画像401における画素404が着目画素p、枠403が11×11のブロックを示している場合において、座標値(−5,−5)は枠403の左上隅の画素405を示す座標値となる。そして、当該左上隅の画素405の視差値として例えば3pixelといった値が、入力された視差マップ(ここでは、視差マップ411)から周辺画素rの座標情報を参照して取得され、RAM102に格納されることになる。同様に、周辺画素rの座標値が例えば(5、−5)であれば、枠403の右上隅の画素406を示す座標値となる。つまり、当該画素406の視差値として例えば12pixelといった値が、入力された視差マップ411から周辺画素rの座標情報を参照して取得され、RAM102に格納されることになる。
ステップ304において、マッチング評価値導出部204は、RAM102に格納された周辺画素rの座標情報に基づき、当該座標情報で特定される画素位置の、入力視差マップにおける画素値(=視差値d(r))と、入力視差画像における画素値を参照する。参照したこれらの画素値から、入力視差画像間のマッチングの評価値を導出する。いま、入力される視差画像は画像401と402の2枚であるため、それぞれをI1 , I2とすると、求める評価値V(p,r)は、以下の式(1)で表される。
上記式(1)において、pとrはそれぞれ着目画素pと周辺画素rの座標に対応する2次元のベクトルであり、vはカメラの相対位置(方向)を表す方向ベクトルである。2台のカメラが水平に並んでいる場合、I1を着目する基準画像、I1を撮影するカメラ位置を原点とすると、I2を撮影するカメラ位置の方向ベクトルvは、(1,0)となる。そして、d(r)は視差マップ411の周辺画素rの座標における視差値を表す。f()は視差画像間のマッチング、すなわち類似度を評価する関数であり、例えばSSD(差分2乗和)やZNCC(正規化相互相関)などを用いることができる。本実施例では、着目画素を中心とした3×3画素の範囲に渡るSSDの場合について説明する。このとき、上記式(1)は以下の式(2)ようになる。
上記式(2)において、Bは着目画素を中心とした3×3画素の集合を表し、Σは集合Bに含まれる9画素について和を取るものとする。上述のとおり、本実施例において視差画像の画素値は0〜1に正規化されているものとする。上記式(2)によって(値を分かりやすくするため平方根で表す)、√V(p,r) = 0.05といった値が、マッチングの評価値として求められる。なお、マッチングの評価値導出に用いる画素数は何画素でもよく、例えば、上記式(2)おけるBを4×4画素の集合として16画素を用いてもよいし、或いは着目画素のみを用いてもよい。また、集合Bの形状も正方形である必要はない。
ステップ305において、評価値重み導出部205は、ステップ304で導出した評価値V(p,r)に基づき、ステップ303で決定した周辺画素rの重みwを導出する。重みwは、例えば以下の式(3)を用いて求められる。
上記式(3)において、σは任意に設定できる実定数で、どれだけ異なる評価値まで考慮するかを示す定数である。一般にσを大きくすれば補正後の画像はぼける傾向にある。本実施例においてはσ=0.1を設定しているが、この値は自由に設定可能である。例えば、評価値の平方根√V(p,r) = 0.05、σ=0.1の場合、上記式(3)によって求められる重みwは、w(p,r)=0.8825となる。なお、重みwを必ずしも上記式(3)を用いた演算によって導出する必要はない。例えば、評価値と重みとを対応付けたテーブルを予め用意しておき、入力評価値に応じた重みを、当該テーブルを用いて求めるようにしてもよい。以下に、テーブルの一例を示す。
ステップ306において、補正部206は、周辺画素rの範囲を確定する所定ブロック(ここでは11×11画素)内の全ての画素について、重みwが決定されたかどうかを判定する。重みwが未決定の周辺画素rが存在する場合は、ステップ307に進む。一方、所定ブロック内の全ての周辺画素rについて重みwが決定されていれば、ステップ308に進む。図4の例では、ステップ308に進む段階で、着目画素pを画素404とした場合の、枠403で示す11×11画素の範囲の全画素について、重みwが決定されていることになる。一例を示すと、着目画素pである画素404の重みw(p,r) = 1.00、周辺画素rである右上隅の画素406の重みw(p,r) = 0.08、同じく周辺画素rである左下隅の画素407の重みw(p,r) =0.87といった具合である。なお、本実施例においては、着目画素を中心に11×11画素の範囲を補正処理に用いる周辺画素の範囲としているが、これに限られない。例えば、視差画像内の全ての画素を補正処理に用いる周辺画素の範囲にしてもよいし、導出された重みの値に応じて使用する周辺画素rを変更してもよい。
ステップ307において、補正部206は、周辺画素rの位置(着目画素pからの相対的な位置)を示す座標情報を更新する。例えば、現在の座標値が、処理開始直後の初期状態(−5、−5)であれば、次の座標値はその右隣を示す(−4、−5)に更新される。また、現在の座標値が(5、−5)で、枠403で示す11×11画素のブロックの右端に到達した場合であれば、次の座標値は(−5、−4)に更新される。次の周辺画素rの位置を特定する座標情報が更新されると、ステップ303で次の周辺画素rが決定されて処理が続行される。
ステップ308において、補正部206は、RAM102に格納された着目画素pとその周辺画素rの重み及び周辺画素rに対応する視差値に基づいて、着目画素pに対応する視差値を補正する。着目画素pについての補正後の視差値D(p)は、以下の式(4)で表わされる。
上記式(4)においてd(r)は、上述のとおり周辺画素rに対応する入力視差マップ上の画素値(視差値)である。評価値重み導出部205から出力された各周辺画素rの重みwの値と、RAM102に格納された各周辺画素rに対応する視差値を、上記式(4)に代入することで、着目画素pについての補正後の視差値D(p)が求められる。後述するように、着目画素pとしての画素404に対応する補正前の視差値が仮に3pixelであったとして、例えばより真値に近い1.2pixelといった値に補正されることになる。
ステップ309において、補正部206は、基準画像(ここでは画像401)内の全ての画素を着目画素pとして、入力視差マップの視差値の補正が完了したかどうかを判定する。未処理の画素がある場合は、ステップ310に進む。一方、全ての画素を着目画素pとして、入力視差マップの視差値の補正が完了していれば、ステップ311に進む。
ステップ310において、補正部206は、着目画素pの位置を示す座標情報を更新すると共に、周辺画素rの位置を示す座標情報を初期値である(−5,−5)に戻す。そして、これら座標情報の更新がなされると、ステップ302に戻って次の注目画素pが決定されて処理が続行される。
ステップ311において、補正部206は、補正された視差値に基づく視差マップを生成し出力する。
以上が、本実施例に係る、視差マップデータを補正する処理の内容である。
<本実施例の原理>
ここで、本実施例による補正処理の原理について説明する。
図4において、入力視差画像を構成する2枚の画像のうち、画像401は左視点の画像、画像402は右視点の画像である。そして、視差マップ410は理想とする正解視差マップであり、視差マップ411はこれら入力視差画像の推定視差マップである。画像401における枠403は着目画素pとしての画素404を中心とした周辺画素rの範囲を表しており、画素405〜407は周辺画素rのうちの、左上隅、右上隅、左下隅の各画素を表している。視差マップ410及び411は、輝度が高いほど視差が大きいことを表しており、より手前の被写体である立方体において視差が大きいことを示している。ここでは、正解視差マップ410における画素406に対応する視差値を10pixel、着目画素404及び画素407に対応する視差値を1pixelとする。また、推定視差マップ411における画素406に対応する視差値を12pixel、着目画素404及び画素407の視差値を2pixelとする。
本実施例において、周辺画素rとしての画素406の重みを導出する際は、推定視差マップ411における画素406に対応する視差値=12pixelを参照する。そして、着目画素404を12pixelだけずらして右視点の画像402における対応画素408を求める。右視点の画像402における両方向矢印409は、この12pixelに相当する移動量を表している。そして、前述の式(2)を用いて、着目画素404と対応画素408間のマッチングの評価値が導出される。このとき、着目画素404における正解の視差値は1pixelであって乖離が大きいため、導出される評価値は大きくなり、その結果、重みは小さくなる。
一方、周辺画素rとしての画素407の重みを導出する際は、推定視差マップ411における画素407に対応する視差値=2pixelを参照する。そして、着目画素404を2pixelだけずらして右視点の画像402における対応画素(不図示)を求めることになる。このとき、着目画素404における正解の視差値は1pixelであって乖離が小さいため、導出される評価値は小さくなり、その結果、重みは大きくなる。
以上のようにして、推定視差マップ411において、着目画素404における正解の視差値に近い視差値を有する周辺画素ほど補正に大きな影響を持つことになる。その結果、被写体境界や各画素の視差推定精度を維持しつつ、推定視差マップ411におけるノイズ低減や穴埋めが可能になる。
<本実施例の効果>
図5は、本実施例による補正処理の効果を示す図である。画像501は入力視差画像のうちの一枚を表しており、板が斜めに配置されたシーンを撮影したものである。視差マップ502は、画像501の推定視差マップ(不図示)をバイラテラルフィルタを用いて補正した結果を示しており、視差マップ503は、本実施例に係る手法を用いて補正した結果を示している。拡大図504及び505は、それぞれ補正後の視差マップ502及び503の被写体境界部を切り出した拡大図である。本実施例に係る手法の方が被写体境界部(エッジ)が明瞭であり、より望ましい形で補正されていることが分かる。
なお、本実施例では水平方向に2台のカメラが並んでいる場合を例に説明を行なったが、このような例に限定されない。例えば、十字型に5台のカメラが並んでいるケースであってもよい。この場合、中心カメラ位置を原点として左右上下のカメラの番号をそれぞれ2,3,4,5とすると、各方向ベクトルvは、v2=(−1,0)、v3=(1,0)、v4=(0,1)、v5=(0,ー1)、となる。
このとき、評価値を求める前述の式(1)は、以下の式(1)’のようになる。
その結果、前述の式(2)に該当する評価値は、上記式(2)’を用いて例えば以下のようになる。
以上のとおり、本実施例によれば、複数の視差画像データから得られる視差マップや距離マップといった距離画像を高精度に補正することができる。詳細には、被写体境界部におけるエッジの鮮明さと、距離値の精度を維持したフィルタ処理を実現することが可能となる。
[実施例2]
次に、オクルージョン領域など、視差画像間でマッチングが取れずそのままでは周辺画素の重みの値が全て小さくなってしまうケースを想定した態様について、実施例2として説明する。なお、実施例1と共通する部分については説明を省略ないしは簡略化し、以下では差異点を中心に説明するものとする。
図6は、本実施例に係る画像処理装置100のソフトウェア構成を示す機能ブロック図である。本実施例の場合、図2の機能ブロック図で示された各部に加え、新たに評価値重み判定部601、距離重み導出部602、色重み導出部603、重み統合部604が追加されている。図7は、本実施例に係る、オクルージョン領域などマッチングが取れない領域に関しても、高精度に視差マップを補正することが可能な補正処理の流れを示すフローチャートである。以下、図6及び図7を参照しつつ、説明する。
ステップ701〜ステップ707は、実施例1における図3のフローのステップ301〜307と同じであるので説明を省く。
所定ブロック内の全画素について重みwが決定されると(ステップ706でYes)、ステップ708において、評価値重み判定部601は、決定された重みwの値が閾値より大きい周辺画素rが存在するかどうかを判定する。この判定は、所定ブロック内の全周辺画素rの中で行われる。閾値としては例えば0.2といった値が考えられるがこれに限定されるものではなく、要はオクルージョン領域などでマッチングが上手く取れない領域かどうかの切り分けができればよい。重みwの値が閾値より大きい周辺画素rが存在する場合は、ステップ710に進む。一方、所定ブロック内の全周辺画素について決定された重みの値が閾値より小さい場合は、ステップ709に進む。
ステップ709では、入力視差画像間のマッチングの評価値ではなく、着目画素と周辺画素における画素値(色)の違いや距離に基づいて、重みが改めて導出される。ここでは、色の違いと距離の双方に基づいて重みを導出するケース、すなわち、距離重み導出部602及び色重み導出部603によって、各々重みを導出し、重み統合部604によって最終的な重みを決定する態様について説明する。具体的には、以下のようにして、重みの再導出が行われる。
まず、距離重み導出部602では、着目画素pからの距離に基づく距離重みwdが、周辺画素rの座標情報を用いて求められる。ここで、距離重みwdは、以下の式(5)及び式(6)で表わされる。
上記式(5)において、pとrはそれぞれ着目画素pと周辺画素rの座標に対応する2次元のベクトルであり、距離重みwdの値はpとrの間のユークリッド距離に依存している。また、σdは任意に設定できる実定数で、着目画素pからどれだけ離れた周辺画素rまで考慮するかを示す定数である。
そして、色重み導出部603では、着目画素pとの画素値(色)の違いに基づく色重みwcolorが、RAM102に格納されている着目画素pと周辺画素rの画素値を用いて求められる。ここで、色重みwcolorは、以下の式(7)で表わされる。
上記式(7)において、Ii(p)およびIi(r)は、それぞれ着目画素p及び周辺画素rの画素値であり、iは{R,G,B}の色情報を表す添え字である。そして、Σは3チャネルの色情報について取るものとする。σiは係数分布の画素値の強度方向への分散を表わすパラメータである。本実施例においては、i={R,G,B}全てに対し、σi=5/255を設定しているが、この値はσdと同様に自由に設定可能である。
そして、重み統合部604において、以下の式(8)に基づいて、最終的な重みが決定される。
なお、実施例1のステップ305では、マッチング評価値のみに基づいて周辺画素rの重みを導出していた。本実施例のステップ705では、マッチング評価値から求めた重みwに上記式(5)から求めた距離重みwdを乗算したものを、周辺画素rの重みとして導出してもよい。
また、上述のステップ709では、着目画素pと周辺画素rの画素値と距離に基づき重みwの再導出を行っているが、例えばメディアンフィルタを用いて中央値を求めるなど他の手法を用いてもよい。
ステップ710は、図3のフローのステップ311と同じであり、マッチングの評価値に基づき導出された重みwを用いた視差値の補正が実行される。
一方、ステップ709で重みwが再導出された場合には、ステップ711において補正部206が、再導出された新たな重みwを用いて視差値の補正を行なう。
ステップ712〜ステップ714は、図3のフローのステップ309〜311と同じであるので説明を省く。
以上が、本実施例に係る、オクルージョン領域などマッチングが取れない領域に関して、高精度に視差マップを補正することが可能なフィルタ処理の内容である。
図8は、ステップ708における判定によって、重みwが再導出されるケースを示す図である。図8において、画像801は左視点の画像、画像802は右視点の画像であり、共に手前側に立方体803、その奥に円柱804の2つの被写体が写っている。画素805は着目画素であり、左視点画像801には写っているが、右視点画像802には、手前の被写体803に隠れて写っていない。このような領域(オクルージョン領域)では、どの周辺画素の視差値を用いても、対応する点(画素)が存在しないため、マッチング評価値は大きくなって重みが小さくなってしまう。そこで、本実施例では、周辺画素の重みが全て閾値以下となるような場合には、着目画素と周辺画素における画素値の違いや距離によって重みを改めて導出して適切な重みを決定し、視差値の補正を行うようにしている。
このような処理行なうことで、オクルージョン領域などマッチングが取れない領域に関しても、高精度に視差マップを補正することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像処理装置
201 入力データ取得部
202 着目画素決定部
203 周辺画素決定部
204 マッチング評価値導出部
205 評価値重み導出部
206 補正部

Claims (9)

  1. 同一の被写体を異なる視点から撮影した複数の視差画像と同一のシーンの当該被写体までの距離に関する情報を表す距離画像を補正する画像処理装置であって、
    前記複数の視差画像間のマッチングの評価値を導出する評価値導出手段と、
    前記評価値に基づき、前記補正における重みを決定する重み決定手段と、
    前記距離画像における画素値を、前記重みを用いて補正する補正手段と
    を備えることを特徴とする画像処理装置。
  2. 前記評価値は、前記複数の視差画像における対応する画素同士の画素値の類似度を表すことを特徴とする請求項1に記載の画像処理装置。
  3. 前記複数の視差画像のうち基準とする視差画像における着目画素、及び前記重みの導出対象となる画素であって、前記着目画素を中心とした所定ブロック内に存在する周辺画素を決定する手段をさらに備え、
    前記評価値導出手段は、決定された前記周辺画素に対応する、前記距離画像における画素値及び前記複数の視差画像における画素値を参照して、前記評価値を導出する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 同一の被写体を異なる視点から撮影した複数の視差画像と同一のシーンの当該被写体までの距離に関する情報を表す距離画像を補正する画像処理装置であって、
    前記複数の視差画像間のマッチングの評価値を導出する評価値導出手段と、
    前記評価値に基づき、前記補正における重みを決定する重み決定手段と、
    前記距離画像における画素値を、前記重みを用いて補正する補正手段であって、前記複数の視差画像におけるオクルージョン領域に対応する画素値については、前記評価値に基づいて決定された重みとは異なる重みを用いて補正する、補正手段と
    を備えることを特徴とする画像処理装置。
  5. 前記複数の視差画像のうち基準とする視差画像における着目画素、及び前記重みの導出対象となる画素であって、前記着目画素を中心とした所定ブロック内に存在する周辺画素を決定する手段をさらに備え、
    前記評価値導出手段は、決定された前記周辺画素に対応する、前記距離画像における画素値及び前記複数の視差画像における画素値を参照して、前記評価値を導出し、
    前記評価値に基づいて決定された重みとは異なる重みは、前記着目画素と前記周辺画素における色の違い及び前記着目画素と前記周辺画素との距離の少なくとも一方に基づいて導出される、
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記距離画像は、前記複数の視差画像間における前記被写体の移動量を画素値で表現した視差マップであることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記距離画像は、前記複数の視差画像における前記被写体までの距離を画素値で表現した距離マップであることを特徴とする請求項1乃至5のいずれか一項に記載の画像処理装置。
  8. 同一の被写体を異なる視点から撮影した複数の視差画像と同一のシーンの当該被写体までの距離に関する情報を表す距離画像を補正する画像処理方法であって、
    前記複数の視差画像間のマッチングの評価値を導出するステップと、
    前記評価値に基づき、前記補正における重みを決定するステップと、
    前記距離画像における画素値を、前記重みを用いて補正するステップと
    を含むことを特徴とする画像処理方法。
  9. コンピュータを、請求項1乃至7のいずれか一項に記載の画像処理装置として機能させるためのプログラム。
JP2015141363A 2015-07-15 2015-07-15 画像処理装置、画像処理方法及びプログラム Pending JP2017021759A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015141363A JP2017021759A (ja) 2015-07-15 2015-07-15 画像処理装置、画像処理方法及びプログラム
US15/208,037 US10116917B2 (en) 2015-07-15 2016-07-12 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015141363A JP2017021759A (ja) 2015-07-15 2015-07-15 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2017021759A true JP2017021759A (ja) 2017-01-26

Family

ID=57776494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015141363A Pending JP2017021759A (ja) 2015-07-15 2015-07-15 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10116917B2 (ja)
JP (1) JP2017021759A (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839535B2 (en) 2016-07-19 2020-11-17 Fotonation Limited Systems and methods for providing depth map information
US10462445B2 (en) * 2016-07-19 2019-10-29 Fotonation Limited Systems and methods for estimating and refining depth maps
US10818018B2 (en) 2016-11-24 2020-10-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN108537871B (zh) * 2017-03-03 2024-02-20 索尼公司 信息处理设备和信息处理方法
JP6425847B1 (ja) 2017-08-14 2018-11-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10762655B1 (en) * 2018-09-11 2020-09-01 Apple Inc. Disparity estimation using sparsely-distributed phase detection pixels
WO2021010067A1 (ja) * 2019-07-17 2021-01-21 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2021195940A1 (zh) * 2020-03-31 2021-10-07 深圳市大疆创新科技有限公司 一种图像处理方法及可移动平台
CN120431147B (zh) * 2025-05-06 2026-01-30 中国测绘科学研究院 基于模糊度和平面先验知识的光场深度估计方法及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175863A (ja) * 1999-12-21 2001-06-29 Nippon Hoso Kyokai <Nhk> 多視点画像内挿方法および装置
JP2006090896A (ja) * 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2010502945A (ja) * 2006-09-04 2010-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像から奥行きマップを決定する方法、奥行きマップを決定する装置
WO2013145554A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法
JP2014078095A (ja) * 2012-10-10 2014-05-01 Sony Corp 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101502365B1 (ko) * 2008-11-06 2015-03-13 삼성전자주식회사 삼차원 영상 생성기 및 그 제어 방법
JP5337218B2 (ja) * 2011-09-22 2013-11-06 株式会社東芝 立体画像変換装置、立体画像出力装置および立体画像変換方法
KR102146560B1 (ko) * 2014-02-17 2020-08-20 삼성전자주식회사 영상 보정 방법 및 장치
JP5980294B2 (ja) * 2014-10-27 2016-08-31 キヤノン株式会社 データ処理装置、撮像装置、およびデータ処理方法
JP6570296B2 (ja) * 2015-04-09 2019-09-04 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6577852B2 (ja) * 2015-12-03 2019-09-18 キヤノン株式会社 動きベクトル検出装置およびその制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175863A (ja) * 1999-12-21 2001-06-29 Nippon Hoso Kyokai <Nhk> 多視点画像内挿方法および装置
JP2006090896A (ja) * 2004-09-24 2006-04-06 Fuji Heavy Ind Ltd ステレオ画像処理装置
JP2010502945A (ja) * 2006-09-04 2010-01-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像から奥行きマップを決定する方法、奥行きマップを決定する装置
WO2013145554A1 (ja) * 2012-03-29 2013-10-03 パナソニック株式会社 画像処理装置及び画像処理方法
JP2014078095A (ja) * 2012-10-10 2014-05-01 Sony Corp 画像処理装置、画像処理方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
福嶋 慶繁、石橋 豊: ""Depth Image Based Renderingのための奥行画像へのポストフィルタリング"", 電子情報通信学会論文誌, vol. 94, no. 12, JPN6019018526, 1 December 2011 (2011-12-01), JP, pages 1992 - 1995, ISSN: 0004040098 *

Also Published As

Publication number Publication date
US20170019654A1 (en) 2017-01-19
US10116917B2 (en) 2018-10-30

Similar Documents

Publication Publication Date Title
JP2017021759A (ja) 画像処理装置、画像処理方法及びプログラム
US9300946B2 (en) System and method for generating a depth map and fusing images from a camera array
US8941750B2 (en) Image processing device for generating reconstruction image, image generating method, and storage medium
JP6663652B2 (ja) ステレオソース映像の補正方法及びその装置
WO2020038124A1 (zh) 图像对比度增强方法、装置、设备及存储介质
CN107316326B (zh) 应用于双目立体视觉的基于边的视差图计算方法和装置
JP6998388B2 (ja) 画像特性マップを処理するための方法及び装置
JP2016100899A (ja) 映像補正方法及び装置
JP2012247891A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6020471B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
KR101364860B1 (ko) 입체 영상의 입체감 향상을 위한 입체 영상 변환 방법 및 이를 기록한 기록매체
US9807340B2 (en) Method and apparatus for providing eye-contact function to multiple points of attendance using stereo image in video conference system
KR20170070620A (ko) 스테레오 영상 매칭 방법 및 장치
EP2887310A1 (en) Method and apparatus for processing light-field image
JP5318168B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
US20150317808A1 (en) Method for Graph Based Processing of Signals
CN108305280B (zh) 一种双目图像基于最小生成树的立体匹配方法及系统
US20140321767A1 (en) Image processing device, image processing method, recording medium, and stereoscopic image display device
JP2016163169A5 (ja)
JP6601893B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017050857A (ja) 画像処理装置、画像処理方法およびプログラム
KR101775272B1 (ko) 멀티 애퍼처 카메라에서 스파스 깊이 이미지들의 깊이 개선 방법 및 시스템
US20140092222A1 (en) Stereoscopic image processing device, stereoscopic image processing method, and recording medium
JP6156922B2 (ja) 三次元データ生成装置、三次元データ生成方法、及びプログラム
KR102122523B1 (ko) 3차원 입체 영상용 깊이지도 보정장치 및 보정방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190917