JP2018195241A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2018195241A JP2018195241A JP2017100739A JP2017100739A JP2018195241A JP 2018195241 A JP2018195241 A JP 2018195241A JP 2017100739 A JP2017100739 A JP 2017100739A JP 2017100739 A JP2017100739 A JP 2017100739A JP 2018195241 A JP2018195241 A JP 2018195241A
- Authority
- JP
- Japan
- Prior art keywords
- information
- information processing
- processing apparatus
- estimation result
- normal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
- G06T17/205—Re-meshing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】物体の形状の再現に係る再現性の向上と、データ量の増加の抑制とを両立する。【解決手段】実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得する取得部と、前記第2の情報に基づき、前記第1の情報を補正する補正部と、を備える、情報処理装置。【選択図】図3
Description
本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、画像認識技術の高度化に伴い、デジタルカメラ等のような撮像部により撮像された画像に基づき、実空間上の物体(以降では、「実オブジェクト」とも称する)の位置、姿勢、及び形状等を3次元的に推定(または計測)し、3次元形状のモデルとして再現(再構成)することが可能となってきている。例えば、特許文献1には、撮像部により撮像された画像に基づき実空間上の物体の3次元形状モデルを再現する技術の一例が開示されている。
一方で、物体の形状によっては推定が困難なものがある。例えば、物体のエッジや角に相当する部分については、他の部分(例えば、平坦な部分)に比べて形状の推定に係る精度が低下する傾向にあり、3次元形状のモデルの再現性が低下する場合がある。このような場合には、例えば、物体の形状の推定や再現に係る分解能をより向上させることで再現性を向上させることも可能であるが、分解能の向上に伴いデータ量が増大する傾向にある。
そこで、本開示では、物体の形状の再現に係る再現性の向上と、データ量の増加の抑制とを両立することが可能な、情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得する取得部と、前記第2の情報に基づき、前記第1の情報を補正する補正部と、を備える、情報処理装置が提供される。
また、本開示によれば、コンピュータが、実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得することと、前記第2の情報に基づき、前記第1の情報を補正することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得することと、前記第2の情報に基づき、前記第1の情報を補正することと、を実行させる、プログラムが提供される。
以上説明したように本開示によれば、物体の形状の再現に係る再現性の向上と、データ量の増加の抑制とを両立することが可能な、情報処理装置、情報処理方法、及びプログラムが提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概略構成
2.3次元形状のモデルの再現に関する検討
3.技術的特徴
3.1.機能構成
3.2.処理
3.3.変形例
4.ハードウェア構成
5.むすび
1.概略構成
2.3次元形状のモデルの再現に関する検討
3.技術的特徴
3.1.機能構成
3.2.処理
3.3.変形例
4.ハードウェア構成
5.むすび
<<1.概略構成>>
まず、図1を参照して、本実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明する。図1は、本実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明するための説明図である。
まず、図1を参照して、本実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明する。図1は、本実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明するための説明図である。
図1に示すように、本実施形態に係る情報処理システム1は、デプスセンサ210と、偏光センサ230と、情報処理装置100とを含む。デプスセンサ210及び偏光センサ230のそれぞれと、情報処理装置100とは、例えば、所定のネットワークを介して接続されている。なお、デプスセンサ210及び偏光センサ230のそれぞれと、情報処理装置100とを接続するネットワークの種別は特に限定されない。具体的な一例として、当該ネットワークは、LTE、Wi−Fi(登録商標)等の規格に基づくネットワークのような、所謂無線のネットワークにより構成されていてもよい。また、当該ネットワークは、インターネット、専用線、LAN(Local Area Network)、または、WAN(Wide Area Network)等により構成されていてもよい。また、当該ネットワークは、複数のネットワークを含んでもよく、少なくとも一部が有線のネットワークとして構成されていてもよい。
また、図1において、参照符号m111〜m114は、実空間上に位置する物体(実オブジェクト)を模式的に示している。
デプスセンサ210は、所定の視点と実空間上に位置する物体との間の距離を推定するための情報を取得し、取得した当該情報を情報処理装置100に送信する。なお、以降の説明では、デプスセンサ210により取得される、所定の視点と実空間上に位置する物体との間の距離を推定するための情報を、「深度情報」とも称する。
例えば、図1に示す例では、デプスセンサ210は、複数の撮像部210a及び210bを備えた所謂ステレオカメラとして構成されており、当該撮像部210a及び210bにより、互いに異なる視点から実空間上に位置する物体の画像を撮像する。この場合には、デプスセンサ210は、撮像部210a及び210bそれぞれにより撮像された画像を情報処理装置100に送信することとなる。
このようにして互いに異なる視点から撮像された複数の画像を利用することで、例えば、当該複数の画像間の視差に基づき、所定の視点(例えば、デプスセンサ210の位置)と被写体(即ち、画像中に撮像された実オブジェクト)との間の距離を推定(算出)することが可能となる。そのため、例えば、所定の視点と被写体との間の距離の推定結果が撮像平面にマッピングされた所謂デプスマップを生成することも可能となる。
なお、所定の視点と実空間上の物体(実オブジェクト)との間の距離を推定すること可能であれば、デプスセンサ210に相当する部分の構成や、当該距離の推定に係る方法は特に限定されない。具体的な一例として、マルチカメラステレオ、移動視差、TOF(Time Of Flight)、Structured Light等の方式に基づき、所定の視点と実オブジェクトとの間の距離が測定されてもよい。ここで、TOFとは、被写体(即ち、実オブジェクト)に対して赤外線等の光を投光し、投光した光が当該被写体で反射して戻るまでの時間を画素ごとに測定することで、当該測定結果に基づき被写体までの距離(深度)を含めた画像(即ち、デプスマップ)を得る方式である。また、Structured Lightは、被写体に対して赤外線等の光によりパターンを照射しそれを撮像することで、撮像結果から得られる当該パターンの変化に基づき、被写体までの距離(深度)を含めたデプスマップを得る方式である。また、移動視差とは、所謂単眼カメラにおいても、視差に基づき被写体までの距離を測定する方法である。具体的には、カメラを移動させることで、被写体を互いに異なる視点から撮像し、撮像された画像間の視差に基づき被写体までの距離を測定する。なお、このとき各種センサによりカメラの移動距離及び移動方向を認識することで、被写体までの距離をより精度良く測定することが可能となる。なお、距離の測定方法に応じて、デプスセンサ210の構成(例えば、単眼カメラ、ステレオカメラ等)を変更してもよい。
偏光センサ230は、実空間上に位置する物体で反射した光のうち、所定の偏光方向に偏光された光(以下、単に「偏光」とも称する)を検知し、当該偏光の検知結果に応じた情報を情報処理装置100に送信する。なお、本実施形態に係る情報処理システム1においては、偏光センサ230は、偏光方向が互いに異なる複数の偏光(より好ましくは、3偏光以上)を検知可能に構成されている。また、以降の説明においては、偏光センサ230による偏光の検知結果に応じた情報を「偏光情報」とも称する。
具体的な一例として、偏光センサ230は、所謂偏光カメラとして構成されており、所定の偏光方向に偏光された光に基づく偏光画像を撮像する。この場合には、偏光センサ230は、撮像した偏光画像を情報処理装置100に送信することとなる。
また、偏光センサ230は、デプスセンサ210による距離を推定するための情報の取得対象となる実空間上の領域と少なくとも一部が重畳する領域(理想的には、略一致する領域)から到来する偏光を撮像可能に保持されるとよい。なお、デプスセンサ210及び偏光センサ230のそれぞれが所定の位置に固定されている場合には、デプスセンサ210及び偏光センサ230それぞれの実空間上の位置を示す情報をあらかじめ取得しておくことで、それぞれの位置を既知の情報として扱うことが可能である。
また、デプスセンサ210及び偏光センサ230が共通の装置(例えば、ウェアラブルデバイス)に保持されていてもよい。この場合には、例えば、当該装置に対するデプスセンサ210及び偏光センサ230の相対的な位置関係をあらかじめ算出しておくことで、当該装置の位置及び姿勢に基づきデプスセンサ210及び偏光センサ230それぞれの位置及び姿勢を推定することが可能となる。
また、デプスセンサ210及び偏光センサ230が保持された装置が移動可能に構成されていてもよい。この場合には、例えば、自己位置推定と呼ばれる技術を応用することで、当該装置の実空間上における位置及び姿勢を推定することが可能となる。
ここで、所定の装置の実空間上における位置及び姿勢を推定する技術のより具体的な一例として、SLAM(simultaneous localization and mapping)と称される技術について説明する。SLAMとは、カメラ等の撮像部、各種センサ、エンコーダ等を利用することにより、自己位置推定と環境地図の作成とを並行して行う技術である。より具体的な一例として、SLAM(特に、Visual SLAM)では、撮像部により撮像された動画像に基づき、撮像されたシーン(または、被写体)の3次元形状を逐次的に復元する。そして、撮像されたシーンの復元結果を、撮像部の位置及び姿勢の検出結果と関連付けることで、周囲の環境の地図の作成と、当該環境における撮像部の位置及び姿勢の推定とが行われる。なお、撮像部の位置及び姿勢については、例えば、当該撮像部が保持された装置に加速度センサや角速度センサ等の各種センサを設けることで、当該センサの検出結果に基づき相対的な変化を示す情報として推定することが可能である。もちろん、撮像部の位置及び姿勢を推定可能であれば、その方法は、必ずしも加速度センサや角速度センサ等の各種センサの検知結果に基づく方法のみには限定されない。
また、デプスセンサ210及び偏光センサ230のうち少なくとも一方が、他方とは独立して移動可能に構成されていてもよい。この場合には、移動可能に構成されたセンサ自体の実空間上における位置及び姿勢が、上述した自己位置推定の技術等に基づき個別に推定されればよい。
情報処理装置100は、デプスセンサ210から深度情報を取得し、取得した深度情報に基づき、所定の視点と実オブジェクトとの間の距離を推定し、当該推定結果に基づき当該実オブジェクトの3次元的な形状を再現したモデルを生成する。また、情報処理装置100は、偏光センサ230から偏光情報を取得し、取得した偏光情報に基づき、生成した上記モデルを補正する。なお、当該モデルの生成に係る処理と、当該モデルの補正に係る処理と、それぞれの詳細については別途後述する。
なお、上述した構成はあくまで一例であり、本実施形態に係る情報処理システム1のシステム構成は、必ずしも図1に示す例のみには限定されない。例えば、前述したように、デプスセンサ210及び偏光センサ230が、移動可能に構成された装置の一部として一体的に構成されていてもよい。また、デプスセンサ210及び偏光センサ230と、情報処理装置100とが一体的に構成されていてもよい。
以上、図1を参照して、本実施形態に係る情報処理システム1の概略的なシステム構成の一例について説明した。
<<2.3次元形状のモデルの再現に関する検討>>
続いて、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、3次元形状のモデルの再現に係る処理の一例について概要を説明したうえで、本実施形態に係る情報処理システムの課題について整理する。
続いて、本実施形態に係る情報処理システムの特徴をよりわかりやすくするために、3次元形状のモデルの再現に係る処理の一例について概要を説明したうえで、本実施形態に係る情報処理システムの課題について整理する。
まず、実空間上に位置する物体(実オブジェクト)の形状を推定し、当該形状を3次元的に再現したモデルの生成に係る処理の一例について、デプスマップを利用する場合の一例について概要を説明する。
まず、デプスマップは、撮像部の画角内に位置する実オブジェクトそれぞれと、当該撮像部との間の奥行き方向の距離が、画像平面状に2次元的にマッピングされることで生成される。このようにして生成された1以上のデプスマップが、当該デプスマップを生成するための情報の取得時における撮像部の撮像位置に応じて、3次元空間モデルとして統合される。ここで、3次元空間モデルは、実空間に存在する実オブジェクトの位置、姿勢、及び形状等を3次元的に再現したモデルである。
デプスマップを3次元空間モデルに統合する手法としては、例えば、所謂Kinect fusionに代表されるように、距離場の等値面として3次元空間を表現する方法が挙げられる。距離場により3次元空間を表現する手法では、空間がボクセルや多面体に分割されており、それぞれが3次元モデルまでの距離を有している。このボクセルの集合は、ボリュームデータとも称される。即ち、デプスマップ上の各ピクセルと対応するボクセルが有する距離の値を更新していくことにより、時系列に沿ってデプスマップがボクセルボリュームに統合される。なお、このようにして統合された距離場(即ち、3次元空間モデル)から、marching cubesや、dual contouring等の手法に基づき、ポリゴンメッシュが、実空間上の物体(即ち、実オブジェクト)の形状を3次元的に再現したモデルとして抽出される。なお、ポリゴンメッシュとは、物体の3次元的な形状を、頂点、辺、及び面の集合として再現したモデルである。
また、他の一例として、距離の推定結果の点群により3次元空間を表現する方法が挙げられる。なお、点群として3次元空間が表現されている状況下で、実空間の環境をポリゴンメッシュのような面により表現する場合には、点群からメッシュへの変換が必要となる。点群からメッシュへの変換する手法としては、例えば、surface reconstruction等が挙げられる。
ポリゴンメッシュの再現度は、空間の分割の細かさに依存し、より再現度の高いポリゴンメッシュを得るためには、データ量がより大きくなる傾向にある。また、複数の視点からのデプスマップが統合される場合には、距離の計測において生じる誤差やノイズ、撮像部の姿勢の推定に係る誤差等により、ポリゴンメッシュとして再現された形状と、対象となる物体の実際の形状との間に誤差が生じる場合がある。特に、エッジ(即ち、2つの面の境界に相当する辺)や角(即ち、3以上の面の境界に相当する点)に相当する部分は、平坦な部分に比べて、上記誤差やノイズ等の影響が大きく、形状の推定に係る精度が低下する傾向にあり、ポリゴンメッシュ(即ち、3次元形状のモデル)の再現性が低下する場合がある。
例えば、図2は、本実施形態に係る情報処理システム1の概要について説明するための説明図である。図2において、補正前として示した左側の図は、上記手法に基づき生成されたポリゴンメッシュの一例であり、立方体として形成された物体の3次元的な形状の再現結果の一例である。図2の左側の図に示す例では、エッジや角の部分が正しく再現されておらず、当該部分の情報が欠落したモデルが生成されている。
上述した状況を鑑み、本実施形態に係る情報処理システム1では、偏光センサ230により取得された偏光情報に基づき物体の幾何学的な特徴を推定することで、当該推定結果に基づき生成した3次元形状のモデル(例えば、ポリゴンメッシュ)を補正する。例えば、図2において、補正後として示した右側の図は、本開示に係る技術に基づき、左側の図に示したポリゴンメッシュを補正した場合における、補正後の当該ポリゴンメッシュの一例を示している。上述したような構成により、本実施形態に係る情報処理システム1では、3次元形状のモデルの再現性(特に、エッジや角の部分の再現性)の向上と、3次元形状を再現するためのデータ量の増加の抑制との両立を可能とする。以降では、本実施形態に係る情報処理システム1の技術的特徴についてより詳しく説明する。
<<3.技術的特徴>>
以下に、本実施形態に係る情報処理システム1の技術的特徴について説明する。
以下に、本実施形態に係る情報処理システム1の技術的特徴について説明する。
<3.1.機能構成>
まず、図3を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明する。図3は、本実施形態に係る情報処理システム1の機能構成の一例を示した機能ブロック図である。
まず、図3を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明する。図3は、本実施形態に係る情報処理システム1の機能構成の一例を示した機能ブロック図である。
図3に示すように、本実施形態に係る情報処理システム1は、デプスセンサ210と、偏光センサ230と、情報処理装置100とを含む。なお、デプスセンサ210及び偏光センサ230については、図1を参照して説明した例と同様のため、詳細な説明は省略する。また、本説明では、デプスセンサ210は、ステレオカメラとして構成されているものとして説明する。即ち、デプスセンサ210は、互いに異なる視点から実空間上に位置する物体の画像を撮像する撮像部210a及び210bを含む。
情報処理装置100は、デプス推定部101と、姿勢推定部103と、3次元空間モデル統合部105と、記憶部107と、法線推定部109と、幾何特徴抽出部111と、補正部113とを含む。
デプス推定部101は、デプスセンサ210から深度情報を取得し、取得した深度情報に基づき、所定の視点と実空間上に位置する物体との間の距離を推定する。具体的な一例として、デプス推定部101は、撮像部210a及び210bそれぞれにより撮像された画像をデプスセンサ210から取得し、取得した当該画像間の視差に基づき、所定の視点と被写体との間の距離の推定結果が撮像平面にマッピングされたデプスマップを生成する。そして、デプス推定部101は、生成したデプスマップを3次元空間モデル統合部105に出力する。
姿勢推定部103は、デプスセンサ210が移動可能に構成されている場合に、当該デプスセンサ210の実空間上における位置及び姿勢のうち少なくともいずれかを推定する。具体的な一例として、姿勢推定部103は、SLAM等の技術に基づき、デプスセンサ210の実空間上における位置及び姿勢を推定してもよい。なお、デプスセンサ210の位置及び姿勢を推定する手法に応じて、当該手法を実現するための構成が適宜追加されてもよい。例えば、SLAMに基づきデプスセンサ210の実空間上における位置及び姿勢を推定する場合には、当該デプスセンサ210の位置や姿勢の相対的な変化を検出するための各種センサが設けられていてもよい。そして、姿勢推定部103は、デプスセンサ210の実空間上における位置や姿勢の推定結果を3次元空間モデル統合部105及び補正部113に出力する。
なお、デプスセンサ210が実空間上の所定の位置に固定されている場合も想定され得る。この場合には、デプスセンサ210の実空間上の位置を示す情報をあらかじめ取得しておくことで、当該デプスセンサ210の位置を既知の情報として扱うことが可能である。即ち、この場合においては、姿勢推定部103が設けられていなくてもよい。
3次元空間モデル統合部105は、生成されたデプスマップをデプス推定部101から取得する。また、3次元空間モデル統合部105は、デプスマップの生成元となる深度情報(例えば、撮像部201a及び201bにより撮像された画像)の取得時におけるデプスセンサ210の位置及び姿勢のうち少なくともいずれかの推定結果を示す情報を、姿勢推定部103から取得する。そして、3次元空間モデル統合部105は、取得したデプスマップを、取得した上記推定結果に基づくデプスセンサ210の位置や姿勢に応じて、3次元空間モデルとして統合する。なお、デプスマップを3次元空間モデルに統合するための手法としては、前述したように、距離場の等値面として3次元空間を表現する方法や、距離の推定結果の点群により3次元空間を表現する方法が挙げられる。3次元空間モデルとしては、例えば、ボクセルボリューム上のTSDF(Truncated Signed Distance Function)を用いることが可能である。
3次元空間モデルとして統合されたデータは、所定の記憶領域に記憶される。例えば、記憶部107は、各種データを、一時的または恒常的に記憶するための記憶領域である。即ち、記憶部107に、3次元空間モデルとして統合されたデータが記憶されてもよい。
また、3次元空間モデル統合部105は、上述の通り生成された3次元空間モデルに基づき、実オブジェクトの3次元的な形状を推定し、当該形状の推定結果に関する情報を記憶部107に記憶させる。
具体的には、3次元空間モデル統合部105は、3次元空間モデルに基づき、形状推定の対象となる実オブジェクトのポリゴンメッシュを抽出する。より具体的な一例として、3次元空間モデルとしてTSDFが用いられる場合には、例えば、Marching Cubesや、Dual Contouring等の手法を用いて、f(x)=0の面を抽出することによりポリゴンメッシュを抽出することが可能である。なお、上記関係式において、fは距離場、xは3次元位置を表す。また、3次元空間モデルが点群の場合には、Poisson Surface Reconstructionや、Screened Poisson Surface Reconstruction等の手法が用いられてもよい。ここで、Screened Poisson Surface Reconstructionが用いられる場合には、上述した境界マップを複数フレーム分使うことにより特徴の点群を生成し、当該点を通るような制約をつけることで高精度なポリゴンメッシュを生成することも可能である。なお、生成されたポリゴンメッシュが、実オブジェクトの3次元的な形状の推定結果に関する情報の一例に相当する。
法線推定部109は、偏光センサ230から偏光情報を取得し、取得した偏光情報に基づき、偏光情報の取得対象となる空間(即ち、実空間)に位置する実オブジェクトの外面における法線ベクトルの分布がマッピングされた法線マップを生成する。
例えば、図4は、本実施形態に係る情報処理システム1において、物体の形状の推定に利用されるデータの一例ついて説明するための説明図である。図4に示す各種データのうち、左側に示す図が法線マップの一例に相当する。
具体的な一例として、法線推定部109は、偏光方向が3方向以上の偏光画像を基に、偏光方向と偏光画像の輝度とに応じて輝度と偏光角との関係を求め、最大輝度となる方位角を判別する。具体的には、法線推定部109は、偏光方向が互いに異なる3以上の偏光それぞれの偏光値をコサインカーブにフィッティングすることで方位角を求める。次いで、法線推定部109は、輝度と偏光角との関係から得られる最大輝度と最小輝度とに基づき偏光度を算出し、偏光度と天頂角の関係を示す特性に基づき、算出した偏光度に対応する天頂角を判別する。具体的には、法線推定部109は、コサインカーブから偏光の最大値及び最小値を求め、当該最大値及び最小値に基づき偏光度を算出し、当該偏光度に応じて天頂角を算出する。
以上のようにして、法線推定部109は、偏光方向が3方向以上の偏光画像に基づき、実空間上の物体(実オブジェクト)の法線情報(即ち、方位角及び天頂角)を画素位置ごとに求めることで法線マップを生成する。そして、法線推定部109は、生成した法線マップを幾何特徴抽出部111に出力する。
幾何特徴抽出部111は、法線推定部109から法線マップを取得し、取得した当該法線マップから幾何学的な特徴を示す部分を抽出することで、実オブジェクトの幾何学的な特徴を推定する。具体的な一例として、幾何特徴抽出部111は、法線マップ上のあるピクセルにおける法線と、近傍に位置するピクセルにおける法線との内積を計算し、その最小値が閾値以下となるピクセルを、面と面との間の境界(例えば、エッジや角等)に対応する境界ピクセルとして抽出する。このように、幾何特徴抽出部111は、法線マップから境界ピクセルを抽出することで、当該境界ピクセルの分布がマッピングされた境界マップを生成する。
例えば、図4の中央に示す図は、図4の左側の図として示した法線マップに基づき生成された境界マップの一例を示している。即ち、図4の中央の図として示した境界マップには、実オブジェクトの外面のうち、面と面との間の境界であることが推測される部分(即ち、当該境界であることの確からしさが閾値以上の部分)が、他の部分と識別可能に提示されている。
次いで、幾何特徴抽出部111は、生成した境界マップから境界のセグメント情報を抽出することで幾何特徴マップを生成する。なお、境界のセグメント情報の抽出には、例えば、LCD(line Segment Detector)等の手法を利用することが可能である。これにより、境界マップから、オブジェクトのエッジに相当する部分(線分)を抽出することが可能となる。また、他の一例として、幾何特徴抽出部111は、境界マップに示された境界ピクセルを線分で近似することで、エッジに相当する部分を抽出してもよい。
また、幾何特徴抽出部111は、境界マップから抽出したオブジェクトのエッジに相当する線分それぞれの端点のうち、互いの距離が閾値以下となる複数の端点を結合することで、1つの端点として認識する。
例えば、図5は、実オブジェクトの幾何学的な特徴の推定に係る処理の概要について説明するための説明図である。図5の左側に示す図において、参照符号E11〜E13のそれぞれは、境界マップから抽出されたエッジに相当する線分を模式的に示している。また、参照符号P11〜P13のそれぞれは、線分E11〜E13それぞれの端点を模式的に示している。即ち、図5の左側に示す図は、線分E11〜E13それぞれの端点P11〜P13が、互いに近傍に位置している場合の一例を示している。このような場合には、幾何特徴抽出部111は、図5の右側の図に示すように、互いに近傍に位置する端点P11〜P13を結合することで、1つの端点P10として認識する。これにより、オブジェクトの角であることが推測される部分が抽出される。
以上のようにして、幾何特徴抽出部111は、幾何特徴マップを生成する。例えば、図4の右側の図は、図4の中央の図に示した境界マップに基づき生成される幾何特徴マップの一例に相当する。そして、幾何特徴抽出部111は、生成した幾何特徴マップと、当該幾何特徴マップの生成元となる法線マップとを、補正部113に出力する。
補正部113は、上述した実オブジェクトの3次元的な形状の推定結果に関する情報を取得し、取得した当該情報を、上述した幾何特徴マップ及び法線マップに基づき補正する。
具体的には、補正部113は、対象となる実オブジェクトの3次元的な形状の推定結果に関する情報を記憶部107から抽出する。なお、以降の説明では、当該実オブジェクトの3次元的な形状の推定結果に関する情報として、当該実オブジェクトの形状を再現したポリゴンメッシュが抽出されるものとして説明する。また、補正部113は、幾何特徴抽出部111から幾何特徴マップ及び法線マップを取得する。
次いで、補正部113は、取得した幾何特徴マップに基づき、対象となる実オブジェクトの実際の外面における面と面との間の境界を推定する。例えば、図6は、幾何特徴マップ及び法線マップに基づき面と面との間の境界を推定する処理の一例について説明するための説明図である。
具体的には、まず補正部113は、図6に示すように、幾何特徴マップ上に示された線分の端点を、当該幾何特徴マップに対応する撮影位置に応じてポリゴンメッシュ上に投影することで、当該線分に対応する特徴線の端点を抽出する。
例えば、図6において、参照符号200は、上記撮影位置を示しており、即ち、幾何特徴マップの生成元となる偏光画像が撮影されたときの偏光センサ230の実空間上における位置及び姿勢に相当する。また、参照符号D21は、幾何特徴マップを示しており、参照符号D20は、対象となる実オブジェクトのポリゴンメッシュ(即ち、形状の推定結果)を示している。また、参照符号E24は、幾何特徴マップD21に示された線分に相当し、参照符号P25及びP26は、当該線分E24の端点に相当する。
図6に示す例では、補正部113は、撮影位置200と、端点P25及びP26それぞれとを結ぶ直線をポリゴンメッシュD20に向けて延伸させ、当該直線とポリゴンメッシュD20とが交差する点P28及びP29を算出する。即ち、ポリゴンメッシュD20上の点P28と点P29とを結ぶ線分E27が、幾何特徴マップD21に示された線分E24に対応していることとなる。
次いで、補正部113は、ポリゴンメッシュD20を構成する各頂点のうち、上記点P28及びP29それぞれのより近傍に位置する頂点を、幾何特徴マップD21上の線分E24に対応する特徴線の端点として抽出する。例えば、図6に示す例では、頂点P21及びP24が、特徴線の端点として抽出されることとなる。
次いで、補正部113は、ポリゴンメッシュD20上において、頂点P21及びP24間を結ぶポリライン(即ち、1以上の辺)を抽出し、当該ポリライン上の頂点を、特徴線の候補点として抽出する。例えば、図6に示す例では、頂点P21及びP24間を結ぶ一連の辺E21、E22、及びE23上の頂点P22及びP23が、特徴線の候補点として抽出されることとなる。なお、特徴線の各セグメント(例えば、図6に示す辺E21、E22、及びE23)は、対象となる実オブジェクトの実際の外面のうち互いに隣接する面と面との間の境界に相当する部分であると推定することが可能である。
次いで、補正部113は、取得した法線マップと、対象となる実オブジェクトの実際の外面のうち互いに隣接する面と面との間の境界の推定結果と、に基づき、ポリゴンメッシュD20を補正する。例えば、図7及び図8は、ポリゴンメッシュD20の補正に係る処理の一例について説明するための説明図である。
具体的には、補正部113は、まず図7に示すように、ポリゴンメッシュD20において、特徴線の少なくとも一部を含む面それぞれについて、当該面の重心を法線マップ上に投影する。
例えば、図7において、参照符号ckは、特徴線の少なくとも一部である辺E22を含む面の重心を示している。参照符号D23は、法線マップを示しており、参照符号uは、重心ckが投影された当該法線マップ上の点(以下、「投影点」とも称する)を示している。なお、法線マップ上の投影点uは、上記重心ckと、撮影位置200、法線マップD23、及びポリゴンメッシュD20間の位置関係に応じた行列Kと、に基づき、以下に(式1)として示す関係式に基づき算出される。
次いで、補正部113は、法線マップ上において算出した投影点uにおける法線ベクトルを、当該投影点uの投影元となる重心ckに対応するポリゴンメッシュD20中の面の理想法線として推定する。例えば、図7において、参照符号nkは、重心ckに対応する面の理想法線を模式的に示している。
以上のようにして、補正部113は、ポリゴンメッシュD20において、特徴線の少なくとも一部を含む面それぞれについて理想法線nkを推定する。
次いで、補正部113は、特徴線の少なくとも一部を含む面それぞれについて、ポリゴンメッシュD20における当該面の法線が、当該面について推定された理想法線nkにより近づくように、当該ポリゴンメッシュD20を補正する。
具体的には、補正部113は、ポリゴンメッシュD20における特徴線上の頂点の位置を、以下に(式2)として示す式を最小化することで算出される位置pへ移動させることで、当該ポリゴンメッシュD20を補正する。
なお、上述した(式2)において、Tは、特徴線の少なくとも一部を含む面の集合を示しており、Pは、当該集合Tに含まれる頂点の集合を示している。また、N(i)はpiの隣接頂点の集合を示す。Pの部分集合であるP’は、位置制約を与える頂点の集合であり、viは制約位置を示す。また、tkは、Tの要素を示しており、λは重みを示している。また、wijは、離散ラプラシアンを計算するための重みを示している。wijの算出方法としては、例えば、cotangent formulaが挙げられる。
例えば、図8の左側の図に示したポリゴンメッシュD20aは、補正前のポリゴンメッシュD20を示している。また、図8の右側の図に示したポリゴンメッシュD20bは、補正後のポリゴンメッシュD20を示している。
図8に示す例では、一連の辺E21、E22、及びE23が特徴線に相当し、頂点P22及びP23が当該特徴線上の頂点に相当する。そのため、図8に示す例では、補正部113は、頂点P22及びP23の位置を移動させることでポリゴンメッシュD20を補正する。例えば、ポリゴンメッシュD20bにおける頂点P41〜P44は、ポリゴンメッシュD20aにおける頂点P21〜P24にそれぞれ対応している。また、ポリゴンメッシュD20bにおける辺E31、E32、及びE33は、ポリゴンメッシュD20aにおける辺E21、E22、及びE23にそれぞれ対応している。
なお、補正部113は、上記集合Pに含まれる頂点のうち、特徴線上の頂点以外の他の頂点については、位置の補正を行わなくてもよい。
以上のようにして、補正部113は、実オブジェクトの3次元的な形状の推定結果に関する情報(例えば、ポリゴンメッシュ)を、取得した幾何特徴マップ及び法線マップに基づき補正し、補正後の当該情報を出力データとして所定の出力先に出力する。
なお、補正部113のうち、実オブジェクトの3次元的な形状の推定結果に関する情報、幾何特徴マップ、及び法線マップ等の各種情報を取得する部分が「取得部」の一例に相当する。また、実オブジェクトの3次元的な形状の推定結果に関する情報(例えば、ポリゴンメッシュ)が「第1の情報」の一例に相当し、幾何特徴マップが「第2の情報」の一例に相当する。
また、上述した情報処理システム1の機能構成はあくまで一例であり、上述した各機能を実現することが可能であれば、本実施形態に係る情報処理システム1の機能構成は必ずしも図3に示す例には限定されない。例えば、情報処理装置100の各構成のうち、一部の構成が当該情報処理装置100の外部に設けられていてもよい。より具体的には、情報処理装置100の各構成のうち、デプスマップを3次元空間モデルに統合に係る部分や、当該3次元空間モデルに基づきポリゴンメッシュの生成に係る部分が、当該情報処理装置100の外部に設けられていてもよい。また、他の一例として、情報処理装置100の各機能が、複数の装置が連携して動作することで実現されてもよい。また、他の一例として、情報処理装置100、デプスセンサ210、及び偏光センサ230が一体的に構成されていてもよい。また、他の一例として、3次元空間モデル統合部105は、実オブジェクトの3次元的な形状の推定結果に関する情報を、記憶部107を介さずに、補正部113に直接出力してもよい。このような構成により、例えば、対象となる実オブジェクトの3次元的な形状の推定と、当該形状の推定結果の補正と、をリアルタイムで実行させることも可能となる。
以上、図3を参照して、本実施形態に係る情報処理システム1の機能構成の一例について説明した。
<3.2.処理>
続いて、図9を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置100による実オブジェクトの形状の推定と当該推定結果の補正とに係る処理の流れに着目して説明する。図9は、本実施形態に係る情報処理システム1の一連の処理の流れの一例を示したフローチャートである。
続いて、図9を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置100による実オブジェクトの形状の推定と当該推定結果の補正とに係る処理の流れに着目して説明する。図9は、本実施形態に係る情報処理システム1の一連の処理の流れの一例を示したフローチャートである。
図9に示すように、まず、情報処理装置100(デプス推定部101)は、デプスセンサ210から深度情報を取得し、取得した深度情報に基づき、所定の視点と実空間上に位置する物体との間の距離の推定結果が撮像平面にマッピングされたデプスマップを生成する。また、情報処理装置100(姿勢推定部103)は、SLAM等の技術に基づき、デプスセンサ210の実空間上における位置及び姿勢を推定する。情報処理装置100(3次元空間モデル統合部105)は、生成したデプスマップを、デプスセンサ210の位置や姿勢に応じて3次元空間モデルとして統合する。また、情報処理装置100(3次元空間モデル統合部105)は、3次元空間モデルに基づき、形状推定の対象となる実オブジェクトのポリゴンメッシュを抽出する(S101)。
また、情報処理装置100(法線推定部109)は、偏光センサ230から偏光情報を取得し、取得した当該偏光情報に基づき法線マップを生成する(S103)。次いで、情報処理装置100(幾何特徴抽出部111)は、法線マップから面と面との間の境界(例えば、エッジや角等)に対応する境界ピクセルを抽出することで境界マップを生成する。そして、情報処理装置100は、生成した境界マップから境界のセグメント情報を抽出することで幾何特徴マップを生成する(S103)。なお、法線マップ、境界マップ、及び幾何特徴マップの生成に係る処理の詳細については前述したとおりである。
次いで、情報処理装置100(補正部113)は、3次元空間モデルに基づき抽出した形状推定の対象となる実オブジェクトのポリゴンメッシュを、生成した法線マップ及び幾何特徴マップに基づき補正する(S107)。なお、ポリゴンメッシュの補正に係る処理の詳細については前述したとおりである。そして、情報処理装置100は、補正後のポリゴンメッシュを出力データとして所定の出力先に出力する。
以上、図9を参照して、本実施形態に係る情報処理システム1の一連の処理の流れの一例について、特に、情報処理装置100による実オブジェクトの形状の推定と当該推定結果の補正とに係る処理の流れに着目して説明した。
<3.3.変形例>
続いて、本実施形態に係る情報処理システム1の変形例について説明する。
続いて、本実施形態に係る情報処理システム1の変形例について説明する。
(変形例1:ポリゴンメッシュの補正方法の一例)
まず、変形例1として、ポリゴンメッシュの補正方法の他の一例について説明する。変形例1では、特徴線の推定結果に基づき近似平面を算出し、当該近似平面を利用することで当該特徴線上の頂点の位置を補正する方法の一例について説明する。例えば、図10は、変形例1に係るポリゴンメッシュの補正方法の一例について説明するための説明図である。
まず、変形例1として、ポリゴンメッシュの補正方法の他の一例について説明する。変形例1では、特徴線の推定結果に基づき近似平面を算出し、当該近似平面を利用することで当該特徴線上の頂点の位置を補正する方法の一例について説明する。例えば、図10は、変形例1に係るポリゴンメッシュの補正方法の一例について説明するための説明図である。
まず、前提として、前述した実施形態と同様に、情報処理装置100は、幾何特徴マップに基づきポリゴンメッシュから特徴線の候補点を抽出することで、当該特徴線を特定する。なお、図10に示す例では、一連の辺E21、E22、及びE23が、ポリゴンメッシュD20における特徴線に相当する。
次いで、本変形例に係る情報処理装置100は、幾何特徴マップD21上の特徴線に対応する線分E24の中点から、当該線分E24に直交する方向に所定の距離εだけ離間した位置を中心とする所定の半径rの円を算出する。また、情報処理装置100は、算出した当該円内のピクセル(即ち、幾何特徴マップD21のピクセル)それぞれにおける法線ベクトルを算出する。次いで、情報処理装置100は、算出した当該円内のピクセルをポリゴンメッシュD20に投影し、ポリゴンメッシュD20に投影された円内の頂点を算出する。
情報処理装置100は、算出した法線及び頂点に基づき近似平面を算出する。なお、1つの特徴線に対して2つの近似平面が算出されることとなる。例えば、図10に示す例において、参照符号D41及びD43は、一連の辺E21、E22、及びE23に対応する特徴線について算出された近似平面を模式的に示している。
そして、情報処理装置100は、ポリゴンメッシュD20における特徴線上の各頂点を、近似平面D41及びD43それぞれに投影し、当該投影結果に基づき当該各頂点の位置を補正する。情報処理装置100は、以上のような処理を、特徴線ごとに算出された近似平面それぞれについて実行することで、ポリゴンメッシュD20を補正する。
以上のように、本変形例においては、1つの特徴線に対して算出される2つの近似平面間の境界が、形状の推定対象となる実オブジェクトの実際の外面において互いに隣接する2つの面の境界に相当するものと推定されることとなる。
以上、変形例1として、図10を参照して、ポリゴンメッシュの補正方法の他の一例について説明した。
(変形例2:ポリゴンメッシュの補正方法の一例)
続いて、変形例2として、ポリゴンメッシュの補正方法の他の一例について説明する。前述した実施形態や変形例では、幾何特徴マップ上の辺に対応するポリゴンメッシュ上の特徴線を特定し、当該特徴線を利用することでポリゴンメッシュを補正する方法の一例について説明した。これに対して、変形例2では、幾何特徴マップ上の辺の端点に対応するポリゴンメッシュ上の頂点を特徴点として特定し、当該特徴点を利用することでポリゴンメッシュを補正する方法の一例について説明する。例えば、図11及び図12は、変形例2に係るポリゴンメッシュの補正方法の一例について説明するための説明図である。
続いて、変形例2として、ポリゴンメッシュの補正方法の他の一例について説明する。前述した実施形態や変形例では、幾何特徴マップ上の辺に対応するポリゴンメッシュ上の特徴線を特定し、当該特徴線を利用することでポリゴンメッシュを補正する方法の一例について説明した。これに対して、変形例2では、幾何特徴マップ上の辺の端点に対応するポリゴンメッシュ上の頂点を特徴点として特定し、当該特徴点を利用することでポリゴンメッシュを補正する方法の一例について説明する。例えば、図11及び図12は、変形例2に係るポリゴンメッシュの補正方法の一例について説明するための説明図である。
具体的には、情報処理装置100は、幾何特徴マップ上に示された線分の端点を、当該幾何特徴マップに対応する撮影位置に応じてポリゴンメッシュ上に投影することで、特徴点を抽出する。
例えば、図11において、参照符号P53は、幾何特徴マップD21上において、辺E51、E52、及びE53の端点を示している。情報処理装置100は、撮影位置200と端点P53とを結ぶ直線をポリゴンメッシュD20に向けて延伸させ、当該直線とポリゴンメッシュD20とが交差する点P55を算出する。次いで、情報処理装置100は、ポリゴンメッシュD20を構成する各頂点のうち、上記点P55のより近傍に位置する頂点を特徴点P51として抽出する。
次いで、情報処理装置100は、ポリゴンメッシュを構成する各面のうち、抽出した特徴点を含む面を特定し、特定した当該面の重心を法線マップ上に投影する。
例えば、図12において、参照符号ckは、特徴点P51を含む面の重心を示している。また、参照符号P57は、重心ckが投影された法線マップD23上の投影点を示している。なお、投影点P57の算出方法については、(式1)を参照して前述した例と同様のため詳細な説明は省略する。
次いで、情報処理装置100は、法線マップ上において算出した投影点uにおける法線ベクトルを、当該投影点uの投影元となる重心ckに対応するポリゴンメッシュD20中の面の理想法線として推定する。例えば、図12において、参照符号nkは、重心ckに対応する面の理想法線を模式的に示している。
以上のようにして、情報処理装置100は、特徴点P51を含む各面について理想法線を算出し、当該理想法線の算出結果に基づき、ポリゴンメッシュD20の頂点のうち少なくとも一部の頂点の位置を移動させることで、当該ポリゴンメッシュD20を補正する。より具体的な一例として、情報処理装置100は、特徴点を、前述した(式2)を最小化することで算出される位置pへ移動させてもよい。ここで、Tは、特徴点を含む面の集合を示している。
以上、変形例2として、図11及び図12を参照して、ポリゴンメッシュの補正方法の他の一例について説明した。
<<4.ハードウェア構成>>
続いて、図13を参照しながら、前述した情報処理装置100のように、本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一例について、詳細に説明する。図13は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
続いて、図13を参照しながら、前述した情報処理装置100のように、本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一例について、詳細に説明する。図13は、本開示の一実施形態に係る情報処理システムを構成する情報処理装置のハードウェア構成の一構成例を示す機能ブロック図である。
本実施形態に係る情報処理システムを構成する情報処理装置900は、主に、CPU901と、ROM902と、RAM903と、を備える。また、情報処理装置900は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インタフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。例えば、図3に示すデプス推定部101、姿勢推定部103、3次元空間モデル統合部105、法線推定部109、幾何特徴抽出部111、及び補正部113は、CPU901により構成され得る。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インタフェース913を介して、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、レバー及びペダル等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置900のユーザは、この入力装置915を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置900が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ等を格納する。例えば、図3に示す記憶部107は、ストレージ装置919により構成され得る。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM903に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア又はBlu−ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CF:CompactFlash)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
接続ポート923は、情報処理装置900に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置900は、外部接続機器929から直接各種のデータを取得したり、外部接続機器929に各種のデータを提供したりする。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インタフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
以上、本開示の実施形態に係る情報処理システムを構成する情報処理装置900の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。なお、図13では図示しないが、情報処理システムを構成する情報処理装置900に対応する各種の構成を当然備える。
なお、上述のような本実施形態に係る情報処理システムを構成する情報処理装置900の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバ等)が互いに連携して実行してもよい。
<<5.むすび>>
以上説明したように、本実施形態に係る情報処理システム1では、情報処理装置100は、実空間上における物体(実オブジェクト)の形状の推定結果に関する情報(例えば、ポリゴンメッシュ等のような3次元形状のモデル)を、当該物体の幾何学的特徴の推定結果に関する情報(例えば、幾何特徴マップ)に基づき補正する。具体的には、情報処理装置100は、当該物体のエッジや角に相当する部分のように、距離の計測において生じる誤差やノイズ等の影響が大きい部分の幾何学的な特徴を、偏光画像を利用することで別途推定する。そして、情報処理装置100は、エッジや角に相当する部分の幾何学的な特徴の推定結果に応じて、上記物体の形状の推定結果のうち、当該エッジや当該角に相当する部分の推定結果を補正する。
以上説明したように、本実施形態に係る情報処理システム1では、情報処理装置100は、実空間上における物体(実オブジェクト)の形状の推定結果に関する情報(例えば、ポリゴンメッシュ等のような3次元形状のモデル)を、当該物体の幾何学的特徴の推定結果に関する情報(例えば、幾何特徴マップ)に基づき補正する。具体的には、情報処理装置100は、当該物体のエッジや角に相当する部分のように、距離の計測において生じる誤差やノイズ等の影響が大きい部分の幾何学的な特徴を、偏光画像を利用することで別途推定する。そして、情報処理装置100は、エッジや角に相当する部分の幾何学的な特徴の推定結果に応じて、上記物体の形状の推定結果のうち、当該エッジや当該角に相当する部分の推定結果を補正する。
このような構成により、本実施形態に係る情報処理システム1に依れば、物体の形状を3次元形状のモデル等として再現する場合において、当該形状の再現性をより向上させることが可能となる。また、本実施形態に係る情報処理システム1においては、物体の形状の推定に係る空間の分割の細かさに依存せずに、当該物体の幾何学的特徴を推定することが可能である。そのため、本実施形態に係る情報処理システム1に依れば、3次元形状のモデルの再現性(特に、エッジや角の部分の再現性)の向上と、3次元形状を再現するためのデータ量の増加の抑制と、を両立することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得する取得部と、
前記第2の情報に基づき、前記第1の情報を補正する補正部と、
を備える、情報処理装置。
(2)
前記第2の情報は、前記物体の外面のうち隣接する面の境界の推定結果を含む、前記(1)に記載の情報処理装置。
(3)
前記境界は、前記外面における法線ベクトルの分布がマッピングされた法線マップに基づき推定される、前記(2)に記載の情報処理装置。
(4)
前記法線マップは、偏光方向が互いに異なる複数の偏光それぞれの検出結果に基づく前記物体の偏光画像に基づき生成される、前記(3)に記載の情報処理装置。
(5)
前記第1の情報は、前記外面のうち少なくとも一部の面の推定結果に関する情報を含む、前記(2)に記載の情報処理装置。
(6)
前記面の推定結果に関する情報は、複数の頂点と、当該複数の頂点間を結ぶ辺と、により面を規定するメッシュデータを含む、前記(5)に記載の情報処理装置。
(7)
前記補正部は、前記第2の情報に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正することで、前記第1の情報を補正する、前記(6)に記載の情報処理装置。
(8)
前記補正部は、
前記第2の情報に基づき、前記境界と当該境界の2以上の端点とのそれぞれの推定結果を前記第1の情報に投影することで、前記複数の頂点のうち前記2以上の端点それぞれに対応する2以上の前記頂点間を結ぶ1以上の前記辺を特定し、
特定した1以上の前記辺上に存在する前記頂点の位置を補正する、
前記(7)に記載の情報処理装置。
(9)
前記補正部は、
特定した1以上の前記辺のうち少なくとも一部の辺を含む1以上の面それぞれ重心を、前記外面における法線ベクトルの分布がマッピングされた法線マップに投影することで、前記法線マップ上の前記重心が投影された点における前記法線ベクトルに応じて当該1以上の面それぞれの理想的な法線を推定し、
前記法線の推定結果に基づき、特定した1以上の前記辺上に存在する前記頂点の位置を補正する、
前記(8)に記載の情報処理装置。
(10)
前記補正部は、
前記第2の情報に基づき、前記境界を含む近似平面を推定して、当該近似平面を前記第1の情報に投影し、
前記近似平面の投影結果に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正する、
前記(7)に記載の情報処理装置。
(11)
前記補正部は、
前記第2の情報に基づき、前記境界の端点の推定結果を前記第1の情報に投影することで、前記複数の頂点のうち前記端点が投影される点に対応する前記頂点を特定し、
特定した前記頂点を含む1以上の面それぞれの重心を、前記外面における法線ベクトルの分布がマッピングされた法線マップに投影することで、前記法線マップ上の前記重心が投影された点における前記法線ベクトルに応じて前記1以上の面それぞれの理想的な法線を推定し、
前記法線の推定結果に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正する、
前記(7)に記載の情報処理装置。
(12)
コンピュータが、
実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得することと、
前記第2の情報に基づき、前記第1の情報を補正することと、
を含む、情報処理方法。
(13)
コンピュータに、
実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得することと、
前記第2の情報に基づき、前記第1の情報を補正することと、
を実行させる、プログラム。
(1)
実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得する取得部と、
前記第2の情報に基づき、前記第1の情報を補正する補正部と、
を備える、情報処理装置。
(2)
前記第2の情報は、前記物体の外面のうち隣接する面の境界の推定結果を含む、前記(1)に記載の情報処理装置。
(3)
前記境界は、前記外面における法線ベクトルの分布がマッピングされた法線マップに基づき推定される、前記(2)に記載の情報処理装置。
(4)
前記法線マップは、偏光方向が互いに異なる複数の偏光それぞれの検出結果に基づく前記物体の偏光画像に基づき生成される、前記(3)に記載の情報処理装置。
(5)
前記第1の情報は、前記外面のうち少なくとも一部の面の推定結果に関する情報を含む、前記(2)に記載の情報処理装置。
(6)
前記面の推定結果に関する情報は、複数の頂点と、当該複数の頂点間を結ぶ辺と、により面を規定するメッシュデータを含む、前記(5)に記載の情報処理装置。
(7)
前記補正部は、前記第2の情報に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正することで、前記第1の情報を補正する、前記(6)に記載の情報処理装置。
(8)
前記補正部は、
前記第2の情報に基づき、前記境界と当該境界の2以上の端点とのそれぞれの推定結果を前記第1の情報に投影することで、前記複数の頂点のうち前記2以上の端点それぞれに対応する2以上の前記頂点間を結ぶ1以上の前記辺を特定し、
特定した1以上の前記辺上に存在する前記頂点の位置を補正する、
前記(7)に記載の情報処理装置。
(9)
前記補正部は、
特定した1以上の前記辺のうち少なくとも一部の辺を含む1以上の面それぞれ重心を、前記外面における法線ベクトルの分布がマッピングされた法線マップに投影することで、前記法線マップ上の前記重心が投影された点における前記法線ベクトルに応じて当該1以上の面それぞれの理想的な法線を推定し、
前記法線の推定結果に基づき、特定した1以上の前記辺上に存在する前記頂点の位置を補正する、
前記(8)に記載の情報処理装置。
(10)
前記補正部は、
前記第2の情報に基づき、前記境界を含む近似平面を推定して、当該近似平面を前記第1の情報に投影し、
前記近似平面の投影結果に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正する、
前記(7)に記載の情報処理装置。
(11)
前記補正部は、
前記第2の情報に基づき、前記境界の端点の推定結果を前記第1の情報に投影することで、前記複数の頂点のうち前記端点が投影される点に対応する前記頂点を特定し、
特定した前記頂点を含む1以上の面それぞれの重心を、前記外面における法線ベクトルの分布がマッピングされた法線マップに投影することで、前記法線マップ上の前記重心が投影された点における前記法線ベクトルに応じて前記1以上の面それぞれの理想的な法線を推定し、
前記法線の推定結果に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正する、
前記(7)に記載の情報処理装置。
(12)
コンピュータが、
実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得することと、
前記第2の情報に基づき、前記第1の情報を補正することと、
を含む、情報処理方法。
(13)
コンピュータに、
実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得することと、
前記第2の情報に基づき、前記第1の情報を補正することと、
を実行させる、プログラム。
1 情報処理システム
100 情報処理装置
101 デプス推定部
103 姿勢推定部
105 次元空間モデル統合部
107 記憶部
109 法線推定部
111 幾何特徴抽出部
113 補正部
200 撮影位置
200 参照符号
210 デプスセンサ
210a、210b 撮像部
230 偏光センサ
100 情報処理装置
101 デプス推定部
103 姿勢推定部
105 次元空間モデル統合部
107 記憶部
109 法線推定部
111 幾何特徴抽出部
113 補正部
200 撮影位置
200 参照符号
210 デプスセンサ
210a、210b 撮像部
230 偏光センサ
Claims (13)
- 実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得する取得部と、
前記第2の情報に基づき、前記第1の情報を補正する補正部と、
を備える、情報処理装置。 - 前記第2の情報は、前記物体の外面のうち隣接する面の境界の推定結果を含む、請求項1に記載の情報処理装置。
- 前記境界は、前記外面における法線ベクトルの分布がマッピングされた法線マップに基づき推定される、請求項2に記載の情報処理装置。
- 前記法線マップは、偏光方向が互いに異なる複数の偏光それぞれの検出結果に基づく前記物体の偏光画像に基づき生成される、請求項3に記載の情報処理装置。
- 前記第1の情報は、前記外面のうち少なくとも一部の面の推定結果に関する情報を含む、請求項2に記載の情報処理装置。
- 前記面の推定結果に関する情報は、複数の頂点と、当該複数の頂点間を結ぶ辺と、により面を規定するメッシュデータを含む、請求項5に記載の情報処理装置。
- 前記補正部は、前記第2の情報に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正することで、前記第1の情報を補正する、請求項6に記載の情報処理装置。
- 前記補正部は、
前記第2の情報に基づき、前記境界と当該境界の2以上の端点とのそれぞれの推定結果を前記第1の情報に投影することで、前記複数の頂点のうち前記2以上の端点それぞれに対応する2以上の前記頂点間を結ぶ1以上の前記辺を特定し、
特定した1以上の前記辺上に存在する前記頂点の位置を補正する、
請求項7に記載の情報処理装置。 - 前記補正部は、
特定した1以上の前記辺のうち少なくとも一部の辺を含む1以上の面それぞれ重心を、前記外面における法線ベクトルの分布がマッピングされた法線マップに投影することで、前記法線マップ上の前記重心が投影された点における前記法線ベクトルに応じて当該1以上の面それぞれの理想的な法線を推定し、
前記法線の推定結果に基づき、特定した1以上の前記辺上に存在する前記頂点の位置を補正する、
請求項8に記載の情報処理装置。 - 前記補正部は、
前記第2の情報に基づき、前記境界を含む近似平面を推定して、当該近似平面を前記第1の情報に投影し、
前記近似平面の投影結果に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正する、
請求項7に記載の情報処理装置。 - 前記補正部は、
前記第2の情報に基づき、前記境界の端点の推定結果を前記第1の情報に投影することで、前記複数の頂点のうち前記端点が投影される点に対応する前記頂点を特定し、
特定した前記頂点を含む1以上の面それぞれの重心を、前記外面における法線ベクトルの分布がマッピングされた法線マップに投影することで、前記法線マップ上の前記重心が投影された点における前記法線ベクトルに応じて前記1以上の面それぞれの理想的な法線を推定し、
前記法線の推定結果に基づき、前記複数の頂点のうち少なくとも一部の頂点の位置を補正する、
請求項7に記載の情報処理装置。 - コンピュータが、
実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得することと、
前記第2の情報に基づき、前記第1の情報を補正することと、
を含む、情報処理方法。 - コンピュータに、
実空間上における物体の形状の推定結果に関する第1の情報と、前記物体の幾何学的特徴の推定結果に関する第2の情報と、を取得することと、
前記第2の情報に基づき、前記第1の情報を補正することと、
を実行させる、プログラム。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017100739A JP2018195241A (ja) | 2017-05-22 | 2017-05-22 | 情報処理装置、情報処理方法、及びプログラム |
| PCT/JP2018/012015 WO2018216341A1 (ja) | 2017-05-22 | 2018-03-26 | 情報処理装置、情報処理方法、及びプログラム |
| US16/490,151 US11488354B2 (en) | 2017-05-22 | 2018-03-26 | Information processing apparatus and information processing method |
| EP18806471.1A EP3633606B1 (en) | 2017-05-22 | 2018-03-26 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017100739A JP2018195241A (ja) | 2017-05-22 | 2017-05-22 | 情報処理装置、情報処理方法、及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018195241A true JP2018195241A (ja) | 2018-12-06 |
Family
ID=64396659
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017100739A Pending JP2018195241A (ja) | 2017-05-22 | 2017-05-22 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11488354B2 (ja) |
| EP (1) | EP3633606B1 (ja) |
| JP (1) | JP2018195241A (ja) |
| WO (1) | WO2018216341A1 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020148926A1 (ja) * | 2019-01-16 | 2020-07-23 | 三菱電機株式会社 | 三次元再構成装置、三次元再構成システム、三次元再構成方法、及び三次元再構成プログラム |
| WO2023047653A1 (ja) * | 2021-09-27 | 2023-03-30 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法 |
| US11816854B2 (en) | 2019-04-08 | 2023-11-14 | Sony Group Corporation | Image processing apparatus and image processing method |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022021027A (ja) * | 2020-07-21 | 2022-02-02 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 |
| JP7439006B2 (ja) | 2021-03-18 | 2024-02-27 | 株式会社東芝 | 距離推定装置及び距離推定方法 |
| JP7647454B2 (ja) * | 2021-09-07 | 2025-03-18 | トヨタ自動車株式会社 | 傷害推定システム、傷害推定方法、及び傷害推定プログラム |
| US12380648B2 (en) * | 2022-03-10 | 2025-08-05 | Streem, Llc | Confidence score for depth map or 3D mesh |
| CN119648771B (zh) * | 2025-02-18 | 2025-07-25 | 中国农业大学 | 一种基于机器视觉的设施化螃蟹养殖笼内壁深度估算方法 |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06176107A (ja) | 1992-12-04 | 1994-06-24 | Canon Inc | 距離画像処理方法及び装置 |
| EP0600709B1 (en) | 1992-12-01 | 2000-03-29 | Canon Kabushiki Kaisha | Range-image processing apparatus and method |
| GB2381429B (en) * | 2001-09-28 | 2005-07-27 | Canon Europa Nv | 3D computer model processing apparatus |
| US8737721B2 (en) * | 2008-05-07 | 2014-05-27 | Microsoft Corporation | Procedural authoring |
| US8760517B2 (en) * | 2010-09-27 | 2014-06-24 | Apple Inc. | Polarized images for security |
| WO2015006224A1 (en) * | 2013-07-08 | 2015-01-15 | Vangogh Imaging, Inc. | Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis |
| JP2015114307A (ja) | 2013-12-16 | 2015-06-22 | ソニー株式会社 | 画像処理装置と画像処理方法および撮像装置 |
| JP6426968B2 (ja) | 2014-10-08 | 2018-11-21 | キヤノン株式会社 | 情報処理装置およびその方法 |
| US10260866B2 (en) * | 2015-03-06 | 2019-04-16 | Massachusetts Institute Of Technology | Methods and apparatus for enhancing depth maps with polarization cues |
| JP6488203B2 (ja) | 2015-07-01 | 2019-03-20 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、画像処理システム、多視点カメラ、および画像処理方法 |
| US11049274B2 (en) * | 2016-11-22 | 2021-06-29 | Lego A/S | System for acquiring a 3D digital representation of a physical object |
-
2017
- 2017-05-22 JP JP2017100739A patent/JP2018195241A/ja active Pending
-
2018
- 2018-03-26 US US16/490,151 patent/US11488354B2/en active Active
- 2018-03-26 WO PCT/JP2018/012015 patent/WO2018216341A1/ja not_active Ceased
- 2018-03-26 EP EP18806471.1A patent/EP3633606B1/en active Active
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020148926A1 (ja) * | 2019-01-16 | 2020-07-23 | 三菱電機株式会社 | 三次元再構成装置、三次元再構成システム、三次元再構成方法、及び三次元再構成プログラム |
| JP2020112497A (ja) * | 2019-01-16 | 2020-07-27 | 三菱電機株式会社 | 三次元再構成装置、三次元再構成システム、三次元再構成方法、及び三次元再構成プログラム |
| KR20210098526A (ko) * | 2019-01-16 | 2021-08-10 | 미쓰비시덴키 가부시키가이샤 | 삼차원 재구성 장치, 삼차원 재구성 시스템, 삼차원 재구성 방법, 및 삼차원 재구성 프로그램 |
| CN113260831A (zh) * | 2019-01-16 | 2021-08-13 | 三菱电机株式会社 | 三维重建装置、三维重建系统、三维重建方法和三维重建程序 |
| TWI748234B (zh) * | 2019-01-16 | 2021-12-01 | 日商三菱電機股份有限公司 | 三維重建裝置、三維重建系統、三維重建方法、以及記錄三維重建程式的記錄媒體 |
| KR102564594B1 (ko) * | 2019-01-16 | 2023-08-07 | 미쓰비시덴키 가부시키가이샤 | 삼차원 재구성 장치, 삼차원 재구성 시스템, 삼차원 재구성 방법, 및 삼차원 재구성 프로그램 |
| US11816854B2 (en) | 2019-04-08 | 2023-11-14 | Sony Group Corporation | Image processing apparatus and image processing method |
| WO2023047653A1 (ja) * | 2021-09-27 | 2023-03-30 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| EP3633606A4 (en) | 2020-05-27 |
| US11488354B2 (en) | 2022-11-01 |
| WO2018216341A1 (ja) | 2018-11-29 |
| US20210407189A1 (en) | 2021-12-30 |
| EP3633606B1 (en) | 2021-08-25 |
| EP3633606A1 (en) | 2020-04-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12387431B2 (en) | 3D model reconstruction and scale estimation | |
| WO2018216341A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| US10573018B2 (en) | Three dimensional scene reconstruction based on contextual analysis | |
| EP2992508B1 (en) | Diminished and mediated reality effects from reconstruction | |
| JP5660648B2 (ja) | マルチユーザ拡張現実におけるオンライン参照生成および追跡 | |
| EP3251090B1 (en) | Occlusion handling for computer vision | |
| US10789765B2 (en) | Three-dimensional reconstruction method | |
| CN111480342B (zh) | 编码装置、编码方法、解码装置、解码方法和存储介质 | |
| US20180218507A1 (en) | 3d reconstruction of a human ear from a point cloud | |
| US11189042B2 (en) | Information processing device, information processing method, and computer program | |
| CN103814306A (zh) | 深度测量质量增强 | |
| TW201118791A (en) | System and method for obtaining camera parameters from a plurality of images, and computer program products thereof | |
| EP2766875A1 (en) | Generating free viewpoint video using stereo imaging | |
| CN114761997A (zh) | 目标检测方法、终端设备和介质 | |
| JPWO2016181687A1 (ja) | 画像処理装置と画像処理方法およびプログラム | |
| WO2020119467A1 (zh) | 高精度稠密深度图像的生成方法和装置 | |
| WO2019244944A1 (ja) | 三次元再構成方法および三次元再構成装置 | |
| US20200211275A1 (en) | Information processing device, information processing method, and recording medium | |
| JP2015005200A (ja) | 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体 | |
| US12025423B2 (en) | Camera information calculation device and system | |
| JP6476629B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
| JP2024130296A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP2015137887A (ja) | 変化形状測定装置、変化形状測定方法、および変化形状測定装置用プログラム |