[go: up one dir, main page]

JP2018036898A - 画像処理装置及びその制御方法 - Google Patents

画像処理装置及びその制御方法 Download PDF

Info

Publication number
JP2018036898A
JP2018036898A JP2016170068A JP2016170068A JP2018036898A JP 2018036898 A JP2018036898 A JP 2018036898A JP 2016170068 A JP2016170068 A JP 2016170068A JP 2016170068 A JP2016170068 A JP 2016170068A JP 2018036898 A JP2018036898 A JP 2018036898A
Authority
JP
Japan
Prior art keywords
image
pixel
captured
virtual viewpoint
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016170068A
Other languages
English (en)
Other versions
JP2018036898A5 (ja
Inventor
州吾 樋口
Shugo Higuchi
州吾 樋口
達朗 小泉
Tatsuro Koizumi
達朗 小泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016170068A priority Critical patent/JP2018036898A/ja
Priority to US15/675,067 priority patent/US10460461B2/en
Publication of JP2018036898A publication Critical patent/JP2018036898A/ja
Publication of JP2018036898A5 publication Critical patent/JP2018036898A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】 仮想視点画像内のオブジェクトの画質劣化を抑制する。【解決手段】複数のカメラで撮像した撮像画像から、設定した仮想視点位置から見た仮想視点画像を生成する画像処理装置であって、各カメラによる撮像画像から得たオブジェクトの形状を表す形状情報に基づき、カメラそれぞれで得られた撮像画像に対応するデプス画像を生成するデプス画像生成部、生成したデプス画像に基づき、対応する撮像画像における被写体の境界領域を検出する検出部、検出部で検出した撮像画像における境界領域に基づき、当該撮像画像の各画素位置の仮想視点画像を生成のための寄与度を表す画素マップを生成する画素マップ生成部、複数のカメラで撮像して得られた撮像画像、及び、各撮像画像に対応する画素マップに基づき、仮想視点画像を生成する出力画像生成部とを有する。【選択図】 図1

Description

本発明は、複数の視点位置から撮像した画像に基づき、設定した仮想視点からの画像を生成する技術に関するものである。
複数のカメラで撮像した画像から、オブジェクト(例えば人物等)の立体モデルを求め、本来はカメラが存在しない任意の視点(以下、仮想視点)における画像(以下、仮想視点画像)を、複数の撮像画像から生成する技術が知られている(特許文献1)。
この際、仮想視点画像内のオブジェクトの形状を立体モデルから求め、その形状が示す領域内をテクスチャマッピングして生成する。このテクスチャマッピングに利用する画素の色は、仮想視点の視線方向に近い実画像(以下、参照画像という)を、高い重みを付けて参照して求める。
特許第5011224号公報
複数のカメラの位置及び視線方向、並びに焦点距離等のカメラパラメータは既知であるものの、或る程度の誤差が含まれることは避け難い。従って、複数のカメラから求めたオブジェクトの立体モデルも、自ずと誤差が含まれることになる。この結果、仮想視点画像内のオブジェクト、特にそのオブジェクトの輪郭(エッジ部)に位置する画素の色を決定する際に参照する参照画像内の画素が、必ずそのオブジェクト内に位置するとは限らない。例えば仮想視点画像内の人物の顔のエッジ部の画素の色を求める際の参照画像の該当する画素が、その人物の顔から外れた画素(例えば床を表す画素)となってしまうことが起こり得る。このような状況になると、生成される仮想視点画像内のオブジェクト(特にその輪郭)が不自然な色となって、画質劣化は避けられない。
本発明はかかる問題に鑑みなされたものであり、これまでよりも、仮想視点画像内のオブジェクトの画質劣化を抑制する技術を提供しようとするものである。
この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、
複数の撮像手段で撮像した撮像画像から、設定した仮想視点位置から見た仮想視点画像を生成する画像処理装置であって、
前記撮像画像から得たオブジェクトの形状を表す形状情報に基づき、前記撮像手段それぞれで得られた撮像画像に対応するデプス画像を生成する第1生成手段と、
前記第1生成手段で生成したデプス画像に基づき、対応する撮像画像における被写体の境界領域を検出する検出手段と、
前記検出手段で検出した撮像画像における境界領域に基づき、当該撮像画像の各画素位置の、前記仮想視点画像を生成するための寄与度を表す画素マップを生成する第2生成手段と、
前記複数の撮像手段で撮像して得られた撮像画像、及び、前記画素マップに基づき、前記仮想視点画像を生成する第3生成手段とを有する。
本発明によれば、従来技術と比較し、仮想視点画像内のオブジェクトの画質劣化を抑制することが可能となる。
実施形態における画像処理システムの構成図。 実施形態における画像処理装置の機能ブロック構成図。 実施形態における仮想視点画像を生成するまでの一連の処理を示すフローチャート。 デプス境界の検出処理を示すフローチャート。 デプス境界の検出原理を説明するための図。 実施形態に有効画素マップの生成処理を示すフローチャート。 シルエット画像の生成原理を説明するための図。 有効画素マップの生成原理を説明するための図。 重み画素マップの生成処理を示すフローチャート。 重みマップの生成原理を説明するための図。 他の重みマップの生成原理を説明するための図。 仮想視点画像の生成処理を示すフローチャート。 仮想視点画像の生成処理を説明するための図。 仮想視点画像を生成する際に参照する視点の決定に係るフローチャート。 実施形態のコンセプトを説明するための図。
以下図面に従って本発明に係る実施形態を詳細に説明する。
図1は実施形態における画像処理システムの撮像環境と構成を示している。図示の如く、本システムは複数のカメラ101、各カメラで撮像した画像を受信、蓄積、仮想視点画像を生成する情報処理装置102、モニタ103、キーボードやマウス等のユーザからの指示入力部104で構成される。そして、実施形態では、図示の如く、背景画像となる床107上にオブジェクト105、106が位置している例を示している。なお、図示ではカメラが10台であることを示しているが、この数に特に制限はない。ただし、四方の各辺に少なくとも複数あることが望まれる。また、図示ではオブジェクト105は人物、オブジェクト106はボールを想定しているが、オブジェクトの種類や数にも制限はない。図示はあくまで例示であると認識されたい。
情報処理装置102は、パーソナルコンピュータ等に代表される装置と同様の構成である。つまり、装置の制御を司るCPU、ROM、RAM、ハードディスク等の外部記憶装置を有する。また、外部記憶装置にはOS(オペレーティングシステム)や、画像処理装置として機能するためのアプリケーションプログラムが格納されている。そして、OSがRAM上にロードされ、そのOSが稼働中の下でアプリケーションがRAM上にロードされ、実行されることで、情報処理装置が画像処理装置として機能することになる。
各カメラ101の設置位置、視線方向、並びにカメラパラメータ(焦点距離等)に係る情報(以下、入力視点情報という)が、情報処理装置が有する外部記憶装置に保持されているものとする。また、オブジェクトを排除した状態で各カメラ101で撮像した画像(背景画像)も外部記憶装置に保持されているものとする。
図2は、情報処理装置102のCPUがアプリケーションプログラムを実行して、画像処理装置として機能している場合の機能ブロック構成図である。なお、図示の構成の全部がプログラムで実現するのではなく、その一部がハードウェアで実現しても構わない。
実施形態における画像処理装置は、入力視点情報取得部201、入力画像取得部202、背景画像取得部203を有する。また、画像処理装置は、形状生成部204、デプス画像生成部205、デプス境界検出部206、有効画素マップ生成部207、重み画素マップ生成部208、出力視点情報取得部209、出力画像生成部210を有する。
上記構成における動作を説明する前に、本実施形態におけるコンセプトを説明する。
位置、視線方向が既知の複数のカメラでオブジェクトを含む画像を撮像すると、周知の技術により、オブジェクトの3次元の形状を表す形状情報を得ることができる。3次元空間でのオブジェクトの形状が定義できるわけであるから、各カメラで撮像した画像に対応するデプス画像を演算で求めることができることを意味する。なお、ここで言うデプス画像とは、カメラの視点とオブジェクトの表面上の点との間の距離を表す画素の集合である。また、同じ理由で、任意の視点位置と視線方向から見たデプス画像を生成することもできるのは理解できよう。
デプス画像内の隣接する2画素に着目したとき、その画素値の差が小さいということは、それらの画素が表す位置が視点からほぼ同距離にあることを意味する。逆に、2画素の画素値の差が大きいということは、一方の画素と視点との距離と、他方の画素と視点との距離との差が大きいことを意味する。従って、デプス画像内の隣接画素の差分から、画素が背景に属する画素かオブジェクトに属する画素かを判定することができる。
今、図15に示す仮想視点画像1500を生成すべく、その仮想視点画像1500に対応するデプス画像に基づき、仮想視点画像における画素1500aの画素値(色)を決定する場合を考察する。仮想視点画像1500の仮想視点位置/視線方向に最も近い視点位置/視線方向の撮像画像が符号1501で示す画像であり、画素1500aに対応する画素が画素1501aであったとする。形状情報は正確であれば、画素1501aはオブジェクト内に存在するので、この画素1501aの画素値(色)を、画素1500aの画素値とすれば良い。しかし、形状情報や視点情報に誤差があって、画素1500aに対応するのが、画素1501aではなく、それから例えば2画素だけ離れた画素1501bとして判定され、たまたま画素1501bがオブジェクト外に位置しているとする。この場合、画素1500aは意図した色にはならない。
本発明者らは、オブジェクト内にあり、且つオブジェクトの境界から離れる位置にある対応画素ほど、仮想視点画像に寄与する度合いが高いとして扱えば、誤差が存在したとしても、上記の問題の発生を抑制できると考えた。つまり、撮像画像1502の場合の対応画素が画素1502aとなるはずが、形状情報に誤差があり数画素ずれて画素1502bとなったとしても、その画素1502bがオブジェクト内に存在するので、画素1500aの色が不自然になるのを抑制できる。つまり、仮想視点画像の視点位置、視線方向に対して最も近いというよりも、或る程度は離れた位置、視線方向の画像を参照画像とするものである。
上記を達成するためには、オブジェクト内の、デプス画像が表すエッジに近い画素は、参照しない(仮想視点画像に対する寄与率が低い)とすれば良いことがわかる。この条件に従えば、画像1501内の対応画素1501aはオブジェクト1501のエッジに近いので、この画像1501は非参照画像として決定する。そして、画像1502内の対応画素1502aはオブジェクト1502内であって、エッジから或る程度離れて位置するので、画像1502は参照画像として用いる。
以上が本実施形態における仮想視点画像の画素値を決定するコンセプトである。以下の説明は、具体的な構成と処理である。なお、以下の説明において、出現する各種画像(デプス画像、デプス境界画像、有効画素マップ等)は、情報処理装置が有するRAMに確保、格納されるものとして説明する。
図3は図2の構成における仮想視点画像の生成処理の全体の流れを示すフローチャートである。以下、同図に従って実施形態の画像処理装置の動作を説明する。
S301にて、入力画像取得部202は、オブジェクト105,106が存在する状態での、カメラ101それぞれが撮像した画像データを取得する。そして、S302にて、入力視点情報取得部201は、外部記憶装置に保持された入力視点情報を取得する。次に、S303にて、形状生成部204は、入力視点情報、各カメラからの画像データ、並びに、外部記憶装置に予め保持された各カメラ101で撮像した背景画像データに基づき、オブジェクト105,106の3次元の被写体形状データを生成する。なお、被写形状データの生成法は周知であるので、その説明は省略する。
この後、S304にて、デプス画像生成部205が、生成した被写形状データに基づいて、カメラ101のそれぞれの視点と視線方向で撮像した画像に対応するデプス画像を、カメラの台数分生成する(詳細後述)。ここで言うデプス画像とは、先に説明したように、視点からの距離の程度を表す画素の集合である。
S305にて、デプス画像境界検出部206が、各デプス画像の境界領域を検出する(詳細後述)。そして、S306にて、有効画素マップ生成部207は、カメラ101が既に撮像した背景画像を取得する。有効画素マップ生成部207は、S307にて、各カメラの視点位置及び視線方向で撮像した背景画像及びオブジェクトを含む画像、並びに、デプス境界に基づき、有効画素マップを生成する(詳細後述)。そして、S308にて、重み画素マップ生成部308は、有効画素マップから重み画素マップを生成する。S309にて、出力視点情報取得部209が、仮想視点位置及び仮想視線方向を、指示入力部104を介して取得する。最後に、S310にて、出力画像生成部210が、入力した仮想視点位置及び仮想視線方向から見た仮想視点画像を、各カメラが撮像したオブジェクトを含む画像、被写体形状データ、及び、重み画素マップに基づき生成し、出力する(詳細後述)。
次に、デプス境界検出部206によるS305の処理を図4のフローチャートに従って説明する。なお、説明に先立ち、デプス画像の全画素が、非境界画素を示す値で初期化されたデプス境界画像が予め用意されているものとする。境界か非境界化の情報を持てば良いので、このデプス境界画像の画素は2値(1ビット)で良い。
S401にて、デプス境界検出部206は、或る1つのカメラの視点位置と視線方向のデプス画像を取得し、S402にて、着目画素をデプス画像内の所定位置に設定する。例えば、ラスタースキャン順に走査する場合には、初期位置はデプス画像の左上隅位置である。次いで、S403にて、デプス境界検出部206は、着目画素の画素値(デプス情報)を取得し、S404にてデプス境界検出部206は、その画素値に基づき境界判定のための閾値を決定する。具体的には、デプス値が大きいほど閾値も大きくする。たとえば、デプス値を引数とする関数を用意しても良いし、デプス値を閾値に変換するためのテーブルを利用しても構わない。
次に、S405にて、デプス境界検出部206は、着目画素を囲む近傍画素(例えば着目画素を中心とするM×N画素の領域)に、着目画素との差の絶対値と閾値とを比較し、閾値を超える画素が存在するか否かを判定する。存在した場合、S406にて、着目画素はデプス画像の境界近傍に位置する画素となるので、デプス境界検出部206はデプス境界画像の該当する位置に、境界画素を示す値を書き込む。
この後、処理はS407に進み、デプス境界検出部206は、着目デプス画像の全画素について処理したか否かを判定し、否の場合には、S402に戻って、次の位置の画素を着目画素として決定し、上記処理を繰り返す。
一方、着目デプス画像の全画素についての境界判定を終えたと判定した場合、処理はS408に進む。このS408にて、デプス境界検出部206は、カメラ101で撮像した画像に対応する全デプス画像について境界判定を終えたか否かを判定し、否の場合には、次のデプス画像についての処理を行うべく、S401からの処理を繰り返すことになる。
上記の処理において、近傍画素とする範囲を3×3画素とした場合、デプス画像の例を図5(a)、生成されるデプス境界画像の例を図5(b)に示す。近傍画素を定義する範囲のM,Nは、着目画素のデプス値に依存して変えても良い。
以上の結果、カメラ101が撮像した画像それぞれに対応する、デプス境界画像が得られる。
次に、有効画素マップ生成部207による有効画素マップの生成処理(図3のS307)を、図6のフローチャートに従って説明する。
有効画素マップ生成部207は、S601にて、或る1つのカメラ用のデプス画像から生成したデプス境界画像を取得し、S602にて、着目カメラで撮像したオブジェクトが含まれる入力画像及び同カメラで撮像した背景画像を取得する。有効画素マップ生成部207は、S603にて、これらからオブジェクトと背景とを区別するシルエット画像(2値)を生成する。
図7(a)は入力画像を、同図(b)は背景画像である。オブジェクトが存在しない場合、両者の同じ座標位置の画素が同じ値となる。ただし、誤差を考慮して、画素の差分の絶対値が予め設定された許容誤差以内の場合にはオブジェクト無しと判定し、許容誤差を超えた場合にはオブジェクト有りと判定する。図7(c)は、この判定結果を画素とするシルエット画像を示している。図示の場合、白画素がオブジェクト内を、黒画素がオブジェクト外を表している。
S604にて、有効画素マップ生成部207は、着目画素をデプス境界画像内の所定位置に設定する。例えば、ラスタースキャン順に走査する場合には、初期位置はデプス境界画像の左上隅位置である。次いで、S605にて、有効画素マップ生成部207は、シルエット画像内の、着目画素と同じ位置の画素を画素値(シルエット情報)を取得する。そして、有効画素マップ生成部207は、着目画素がデプス境界に位置し、且つ、シルエット内にあるという条件を満たすか否かを判定する。この条件を満たす場合、有効画素マップ生成部207は、有効画素マップの該当する位置の画素を無効画素に設定する(S607)。すなわち、該当する画素を、仮想視点画像の画素値を決定する際の非参照画素とする。一方、この条件を満たさない場合、有効画素マップ生成部207は、有効画素マップ内の該当する画素を有効画素に設定する(S608)。すなわち、その画素を、仮想視点画像の画素値を決定する際に参照可能な画素とする。
この後、処理はS609に進み、有効画素マップの全画素を決定したか否かを判定し、否の場合には、S604に戻って、次の位置の画素を着目画素として決定し、上記処理を繰り返す。
一方、有効画素マップの全画素の値の決定を終えたと判定した場合、処理はS610に進む。このS610にて、全てのカメラの撮像した画像に対する有効マップを生成したか否かを判定し、否の場合には、次の有効画素マップを生成すべく、S601からの処理を繰り返すことになる。
図8(a)はデプス境界画像、同図(b)はシルエット画像、そして、同図(c)は有効画素マップの例である。図8(c)に示すように、シルエット内にあって、デプス境界に位置する画素は無効画素として設定されることになる。
次に、重み画素マップ生成部208による重み画素マップの生成処理(図3のS308)を、図9のフローチャートに従って説明する。
重み画素マップ生成部208は、S901にて、1つのカメラ用のデプス境界画像を取得する。そして、重み画素マップ生成部208は、S902にて、取得したデプス境界画像内の所定位置に着目画素を設定する。例えば、ラスタースキャン順に走査する場合には、初期位置はデプス境界画像の左上隅である。
次に、重み画素マップ生成部208は、S903にて、着目画素位置から最も近いデプス境界をサーチし、そのデプス境界までの距離を算出する。そして、S904にて、重み画素マップ生成部208は、算出した距離に応じた着目画素の重みを、重み画素マップにおける画素値と格納する。
S905にて、重み画素マップ生成部208は、全画素についての重みを決定したか否かを判定する。否の場合には、処理をS902に戻して、次の画素を着目画素として設定する。一方、着目カメラ用の重み画素マップの生成を終えた場合には、S906にて、全カメラ用の重み画素マップの生成を終えたか否かを判定し、否の場合には処理をS901に戻す。
図10(a)はデプス画像を示し、同図(b)は重み画素マップ、同図(c)は距離と重みとの関係を示している。この重み画素マップ内の所望とする位置の画素の値を調べるだけで、その画素位置がデプス境界からどの程度離れているかを容易に判定することが可能となる。
なお、デプス境界までの距離の算出は、着目画素から最寄りのデプス境界を見つけ出す処理を、デプス境界の画素を除く全画素について行うことになり、演算量は無視できない。そこで、モルフォロジー処理を用いてデプス境界までの距離を算出する画素範囲を限定して処理を高速化しても良い。例えば、算出したい距離までの画素サイズのフィルタを用いて膨張処理を行い、膨張した領域のみデプス境界までの距離を算出すればよい。
また、モルフォロジー処理を用いてデプス境界画像から重み画素マップを生成しても良い。例えば、重み画素マップの画素が8ビットで表されるものとする。そして、重み画素マップ内の、デプス境界に位置する画素を最低寄与率とする0、デプス境界外の画素を例えば255(8ビットの最大値)をセットする。
図11(a)はデプス境界画像(有効画素マップでも良い)し、このデプス境界画像に対して、値“255”よりも小さい画素値に対して、3×3画素サイズのフィルタを用いて膨張処理を行う。この際、1回目で膨張することになった画素には1回目であることを示す値“1”を重み画素マップの画素として上書きする。図11(b)は、この段階での重み画素マップを示している。そして、2回目の膨張処理を行った場合には、2回目であることを示す値を重み画素マップの画素として上書きしていく。以下、この処理を適当な回数繰り返す。この結果、重み画素マップの画素値は、デプス境界からの距離に応じた値となるので、図10に示すのと実質的に同じ効果の重み画素マップを高速に生成することができる。
上記処理で得られる重み画素マップ内の画素値は、オブジェクトの境界(無効画素)からの距離を表しているが、仮想視点画像に寄与する寄与度を表していると見ることもできる。
次に、出力画像生成部210による仮想視点画像の生成処理(図3のS310)を、図12のフローチャートに従って説明する。
出力画像生成部210は、S1201にて、出力視点情報取得部209から出力視点情報(仮想視点位置と仮想視線方向を含む)を取得する。そして、S1202にて、これから作成する仮想視点画像の所定位置に着目画素を設定する。ラスタースキャン順に生成するのであれば、着目画素の初期位置は左上隅の位置となる。次いで、S1203にて、出力画像生成部210は、着目画素に対する、入力視点(1つのカメラの撮像した視点位置と視線方向)の変換行列を算出する。S1204にて、出力画像生成部210は、着目画素に対応する、入力視点の対応画素(座標)を算出する。S1205では、出力画像生成部210は、入力視点と出力視点の光線方向のなす角度を算出する。S1206にて、出力画像生成部210は、入力視点用の重み画素マップを参照して、対応画素におけるデプス境界からの距離を取得する。
S1207にて、出力画像生成部210は、全入力視点(全カメラ)に対する上記処理を行ったか否かを判定し、否の場合には、次の入力視点に対する処理を行うべく、処理をS1203に戻す。
全視点に対する上記処理を終えると、出力画像生成部210は、S1208にて、各視点のなす角度及び距離に基づいて複数の入力視点を決定する。そして、S1209にて、入力画像と重み画素マップを用いて着目画素の画素値を決定する。
この後、仮想視点画像の全画素が生成されたか否かを判定し、否の場合には、次の画素を着目画素とするため、処理をS1202に戻す。S1210にて、全画素が生成できたと判断した場合、出力画像生成部210は、生成した仮想視点画像をモニタ103に出力、又は/及び画像ファイルとして外部記憶装置に出力する。
図13に基づき、出力画像(仮想視点画像)における着目画素(図示の黒丸)の決定処理を説明する。出力画像の着目画素に対する、各視点の対応する画素が図示の白丸であったとする。本実施形態では、各白丸の無効画素までの距離は、重み画素マップを参照することで得られる。そこで、距離が閾値以上のN個(実施形態では2つとする)を用いて、着目画素の画素値を決定する。
図14は、S1208における処理の具体例である。まず、出力画像生成部210は、S1401にて、無効画素までの距離(寄与度でもある)が閾値以上の入力視点数を算出する。そして、S1402にて、出力画像生成部210は、入力視点の数が2以上あるか否かを判定し、2以上ある場合にはS1403に、無い場合にはS1404に処理を分岐する。S1403にて、出力画像生成部210は、無効画素までの距離が閾値以上の入力視点の候補の中から、出力視点とのなす角度が小さい視点を優先して決定する。一方、S1404に処理が進んだ場合には、着目画素の色が不自然になる可能性が否定できないが、着目画素の画素値を決定しなければならばいので、全入力視点の中から、無効画素までの距離が大きい視点を優先して決定する。
なお、2つの対応画素から着目画素の画素値を決定する場合には次式に従えば良い。
Figure 2018036898
以上説明したように本実施形態によれば、複数視点からの画像から生成する仮想視点画像におけるオブジェクトの境界の画質劣化を、これまでよりも抑制することが可能になる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101…カメラ、102…情報処理装置、103…モニタ、104…指示入力部、105,106…オブジェクト、107…床、201…入力視点情報取得部201、202…入力画像取得部、203…背景画像取得部、204…形状生成部204、205…デプス画像生成部、206…デプス境界検出部、207…有効画素マップ生成部、208…重み画素マップ生成部、209…出力視点情報取得部、210…出力画像生成部

Claims (8)

  1. 複数の撮像手段で撮像した撮像画像から、設定した仮想視点位置から見た仮想視点画像を生成する画像処理装置であって、
    前記撮像画像から得たオブジェクトの形状を表す形状情報に基づき、前記撮像手段それぞれで得られた撮像画像に対応するデプス画像を生成する第1生成手段と、
    前記第1生成手段で生成したデプス画像に基づき、対応する撮像画像における被写体の境界領域を検出する検出手段と、
    前記検出手段で検出した撮像画像における境界領域に基づき、当該撮像画像の各画素位置の、前記仮想視点画像を生成するための寄与度を表す画素マップを生成する第2生成手段と、
    前記複数の撮像手段で撮像して得られた撮像画像、及び、前記画素マップに基づき、前記仮想視点画像を生成する第3生成手段と
    を有することを特徴とする画像処理装置。
  2. 前記第2生成手段は、
    オブジェクトの無い背景画像とオブジェクトが含まれる画像との差分からオブジェクトと背景とを区別するためのシルエット画像を生成し、
    デプス画像と前記シルエット画像とから、オブジェクト内の境界画素と非境界画素とを区別するための第1のマップを生成し、
    該第1のマップに基づき境界画素を寄与率が最低とし、境界画素からの距離に応じた寄与率を表す値を持つ第2のマップを、前記画素マップとして生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第2生成手段は、
    前記第1のマップに対してモルフォロジー処理を行うことで前記第2のマップを生成する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記検出手段は、
    デプス画像内の着目画素の値に応じて閾値を決定し、当該閾値と、前記着目画素と隣接画素との差分とを比較することで、オブジェクトの境界領域を検出する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第3生成手段は、
    生成しようとする仮想視点画像における着目画素を画素値を求めるとき、撮像画像それぞれの画素マップの中で、前記着目画素に対応する位置の寄与度が予め設定した閾値を超える画素マップが複数存在した場合、閾値を超える撮像画像の中から、生成する仮想視点とのなす角度が小さい2つの画像を用いる
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記第3生成手段は、
    生成しようとする仮想視点画像における着目画素を画素値を求めるとき、撮像画像それぞれの画素マップの中で、前記着目画素に対応する位置の寄与度が予め設定した閾値を超える画素マップが2つに満たない場合、すべての撮像画像の中から、寄与度の高い上位2つの画像を用いる
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 複数の撮像手段で撮像した撮像画像から、設定した仮想視点位置から見た仮想視点画像を生成する画像処理装置の制御方法であって、
    前記撮像画像から得たオブジェクトの形状を表す形状情報に基づき、前記撮像手段それぞれで得られた撮像画像に対応するデプス画像を生成する第1生成工程と、
    前記第1生成工程で生成したデプス画像に基づき、対応する撮像画像における被写体の境界領域を検出する検出工程と、
    前記検出工程で検出した撮像画像における境界領域に基づき、当該撮像画像の各画素位置の、前記仮想視点画像を生成するための寄与度を表す画素マップを生成する第2生成工程と、
    前記複数の撮像手段で撮像して得られた撮像画像、及び、前記画素マップに基づき、前記仮想視点画像を生成する第3生成工程と
    を有することを特徴とする画像処理装置の制御方法。
  8. コンピュータが読み込み実行することで、前記コンピュータを、請求項1乃至6のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2016170068A 2016-08-31 2016-08-31 画像処理装置及びその制御方法 Pending JP2018036898A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016170068A JP2018036898A (ja) 2016-08-31 2016-08-31 画像処理装置及びその制御方法
US15/675,067 US10460461B2 (en) 2016-08-31 2017-08-11 Image processing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016170068A JP2018036898A (ja) 2016-08-31 2016-08-31 画像処理装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2018036898A true JP2018036898A (ja) 2018-03-08
JP2018036898A5 JP2018036898A5 (ja) 2019-10-10

Family

ID=61243131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016170068A Pending JP2018036898A (ja) 2016-08-31 2016-08-31 画像処理装置及びその制御方法

Country Status (2)

Country Link
US (1) US10460461B2 (ja)
JP (1) JP2018036898A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168077A1 (ja) 2018-03-01 2019-09-06 マックス株式会社 打込み工具
WO2019244944A1 (ja) * 2018-06-19 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元再構成方法および三次元再構成装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109891463B (zh) * 2016-10-25 2023-08-29 索尼公司 图像处理设备和图像处理方法
US11182914B2 (en) 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
JP7123736B2 (ja) * 2018-10-23 2022-08-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7294454B2 (ja) * 2019-12-09 2023-06-20 コニカミノルタ株式会社 オブジェクト検出方法及びオブジェクト検出装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2967086B1 (ja) * 1998-09-25 1999-10-25 株式会社エイ・ティ・アール知能映像通信研究所 多眼画像処理による人物の三次元姿勢推定方法
JP2009211335A (ja) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2010176380A (ja) * 2009-01-29 2010-08-12 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP2015184767A (ja) * 2014-03-20 2015-10-22 キヤノン株式会社 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004114224A1 (ja) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation 仮想視点画像生成方法及び3次元画像表示方法並びに装置
JP2006163547A (ja) * 2004-12-03 2006-06-22 Canon Inc 立体画像生成プログラム、立体画像生成システム及び立体画像生成装置。
JP5011224B2 (ja) 2008-07-09 2012-08-29 日本放送協会 任意視点映像生成装置及び任意視点映像生成プログラム
JP5035195B2 (ja) * 2008-09-25 2012-09-26 Kddi株式会社 画像生成装置及びプログラム
WO2011052064A1 (ja) * 2009-10-30 2011-05-05 キヤノン株式会社 情報処理装置および方法
JP5858380B2 (ja) * 2010-12-03 2016-02-10 国立大学法人名古屋大学 仮想視点画像合成方法及び仮想視点画像合成システム
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2967086B1 (ja) * 1998-09-25 1999-10-25 株式会社エイ・ティ・アール知能映像通信研究所 多眼画像処理による人物の三次元姿勢推定方法
JP2009211335A (ja) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2010176380A (ja) * 2009-01-29 2010-08-12 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP2015184767A (ja) * 2014-03-20 2015-10-22 キヤノン株式会社 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168077A1 (ja) 2018-03-01 2019-09-06 マックス株式会社 打込み工具
WO2019244944A1 (ja) * 2018-06-19 2019-12-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元再構成方法および三次元再構成装置

Also Published As

Publication number Publication date
US20180061070A1 (en) 2018-03-01
US10460461B2 (en) 2019-10-29

Similar Documents

Publication Publication Date Title
JP4052331B2 (ja) 仮想視点画像生成方法及び3次元画像表示方法並びに装置
US9378583B2 (en) Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume
JP2018036898A (ja) 画像処理装置及びその制御方法
JP4752918B2 (ja) 画像処理装置、画像照合方法、および、プログラム
WO2019082797A1 (ja) 再構成方法および再構成装置
JP5035195B2 (ja) 画像生成装置及びプログラム
KR20130120730A (ko) 변이 공간 영상의 처리 방법
JP5068732B2 (ja) 3次元形状生成装置
JP7195785B2 (ja) 3次元形状データを生成する装置、方法、及びプログラム
JPWO2013105381A1 (ja) 画像処理方法、画像処理装置および画像処理プログラム
JP2014515197A (ja) 背景ピクセル拡張及び背景優先パッチマッチングを用いるマルチビューレンダリング装置及び方法
JP2020201823A (ja) 画像処理装置、画像処理方法およびプログラム
JP5987114B2 (ja) 高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム
JP2013185905A (ja) 情報処理装置及び方法、並びにプログラム
KR100745691B1 (ko) 차폐영역 검출을 이용한 양안 또는 다시점 스테레오 정합장치 및 그 방법
JP5748355B2 (ja) 3次元座標算出装置、3次元座標算出方法、及びプログラム
JP6838912B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2014014034A (ja) 視差画像生成装置及び視差画像生成方法
JP2017199285A (ja) 情報処理装置、情報処理方法、プログラム
JP2010079506A (ja) 画像生成装置、方法、通信システム及びプログラム
JP2020009255A (ja) 三次元形状モデル生成装置、三次元モデル生成方法及びプログラム
JP6351364B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101626679B1 (ko) 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체
KR20220071935A (ko) 광학 흐름을 이용한 고해상도 깊이 영상 추정 방법 및 장치
JP2009294956A (ja) 3次元形状復元方法とその装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210419