JP2018195070A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2018195070A JP2018195070A JP2017098251A JP2017098251A JP2018195070A JP 2018195070 A JP2018195070 A JP 2018195070A JP 2017098251 A JP2017098251 A JP 2017098251A JP 2017098251 A JP2017098251 A JP 2017098251A JP 2018195070 A JP2018195070 A JP 2018195070A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- template
- candidate
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
【課題】計測対象物を高精度かつ高密度に三次元計測できなくとも、位置姿勢を高精度に推定できる情報処理装置を提供する。【解決手段】情報処理装置100は、計測対象物が含まれる撮影画像10、11を入力する撮影画像入力部101と、計測対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレート20の情報を入力するテンプレート入力部112と、テンプレートに記述された特徴要素と撮影画像から検出される特徴要素との照合を行って、撮影画像に含まれる計測対象物のマッチング候補を探索する候補探索部113と、検出された特徴要素相互の奥行き相対関係を識別する奥行き識別部114と、奥行き識別部により得られる奥行き相対関係とテンプレートに記述された特徴要素相互の奥行き相対関係とに基づいてマッチング候補の正誤を判定する候補判定部115とを有する。【選択図】図1
Description
本発明は、画像から計測対象の三次元的な位置姿勢情報を取得する情報処理装置、情報処理方法、及びプログラムに関する。
近年、ロボットアームを用いて、無作為に配置された部品等の対象の把持や操作を行うため、撮像装置によって対象を撮影して三次元位置姿勢を推定する装置が提案されている。そのような装置では、予め計測対象を複数の視点から観察した画像を複数取得し、視点毎に画像中で検出される輪郭等の二次元特徴量を抽出してテンプレートと呼ばれるルックアップテーブルを生成しておく。装置の実行時には、入力された撮影画像から得られる特徴量とテンプレートに記述されている特徴量とを照合し、最も類似したテンプレートに関連付けられた視点の情報を用いて、計測対象の位置姿勢の概略値を取得する。
特許文献1には、カメラで撮影して得られた二次元画像に加えて、計測対象を三次元計測して推定される三次元の輪郭と面法線の情報を利用して、誤りのない正しい姿勢を推定する方法が記載されている。
しかしながら、特許文献1に記載の技術では、計測対象物を高精度かつ高密度に三次元計測できないと、位置姿勢の推定精度が低いという問題がある。本発明の目的は、計測対象物を高精度かつ高密度に三次元計測できなくとも、位置姿勢を高精度に推定できる情報処理装置を提供することにある。
本発明に係る情報処理装置は、対象物が含まれる撮影画像を入力する撮影画像入力手段と、対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段とを有することを特徴とする。
本発明によれば、高密度かつ高精度に三次元計測を行うことができなくとも、計測対象の位置姿勢を精度良く推定することが可能となる。
以下、本発明の実施形態を図面に基づいて説明する。
(第1の実施形態)
本発明の第1の実施形態について説明する。本実施形態では、概ね同一平面上に存在する計測対象物の三次元位置姿勢の推定について、単一の撮像装置を用いて計測対象物を撮影する場合に適用できる装置に関して説明する。本実施形態では、撮像装置の焦点距離を変えて撮影した2枚の画像のコントラストに基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
(第1の実施形態)
本発明の第1の実施形態について説明する。本実施形態では、概ね同一平面上に存在する計測対象物の三次元位置姿勢の推定について、単一の撮像装置を用いて計測対象物を撮影する場合に適用できる装置に関して説明する。本実施形態では、撮像装置の焦点距離を変えて撮影した2枚の画像のコントラストに基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
図1は、第1の実施形態における装置全体の構成例を示す図である。図1において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101及びテンプレート生成部102を有する。なお、図1に示す構成は一例であり、これに限定されるものではない。
撮像部101は、三次元位置姿勢を推定する計測対象物を含むシーンを撮像した撮影画像を取得し、その撮影画像を情報処理装置100の撮影画像入力部111に出力する。撮像部101は、その内部に不図示の自動フォーカス制御機構を有し、外部からの制御によりレンズの焦点距離を任意に変更することが可能になっている。本実施形態では、撮像部101は、異なる焦点距離で2枚の撮影画像10及び11を取得する。テンプレート生成部102は、計測対象物201を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係を記述したテンプレート20を生成する。テンプレート生成部102は、生成したテンプレート20を情報処理装置100のテンプレート入力部112に出力する。
図2は、第1の実施形態における撮像部101と計測対象物201との関係を説明する図である。平面202上に複数の計測対象物201が無作為に配置され、撮像部101は、その上方から全体を俯瞰した撮影画像10、11を取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に接している。また、撮像部101の光軸と平面202とが略直交するように撮像部101が配置されている。
第1の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、及び候補判定部115を有する。撮影画像入力部111は、撮像部101が撮像した撮影画像10及び11を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。テンプレート入力部112は、テンプレート生成部102が生成したテンプレート20を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。
候補探索部113は、入力される撮影画像10とテンプレート20とをテンプレートマッチングによって照合し、計測対象物の位置姿勢のマッチング候補を探索する。候補探索部113は、探索結果に基づきマッチング候補リスト40を生成して奥行き識別部40及び候補判定部115に出力する。
奥行き識別部114は、撮影画像10、11から検出される特徴要素相互の奥行き相対関係を識別する。奥行き識別部114は、2枚の撮影画像10及び11を参照してテンプレート20に含まれる特徴要素の奥行きの前後関係を識別し、識別した奥行きの前後関係の情報を候補判定部115に出力する。候補判定部115は、奥行き識別部114によって得られる奥行き相対関係とテンプレート20に記述された特徴要素相互の奥行き相対関係とに基づいてマッチング候補の正誤を判定する。候補判定部115は、特徴要素の奥行きの前後関係の情報に基づいて、マッチング候補リスト40に含まれる位置姿勢の正誤を判定し、正しいと判定された位置姿勢の情報のみを最終位置姿勢情報50として出力する。
第1の実施形態における動作について説明する。図3は、第1の実施形態における装置の処理の流れを示すフローチャートである。図3(a)には処理全体の流れを示しており、図3(b)には図3(a)に示すステップS301での事前準備の処理の流れを示している。
ステップS301にて、事前準備の処理を行い、テンプレート生成部102が、計測対象物201に係るテンプレート20を生成する。テンプレート生成部102は、情報処理装置100には含まれないので、ステップS301の処理は、本実施形態における処理に先立って事前準備として実施する。なお、テンプレート20が生成された後は、本実施形態の処理を繰り返し行う場合においても、ステップS301の処理は省略可能である。
図3(b)を参照して、ステップS301での事前準備の処理の詳細について説明する。ステップS311にて、テンプレート生成部102は、計測対象物201の三次元モデルを読み込む。ここで三次元モデルは、計測対象物201の設計時に生成されたCADデータであるとし、そのCADデータには、計測対象物201の頂点の三次元座標及び辺や面を構成する頂点のインデックスに関する情報が記述されているものとする。
また、ステップS311にて、テンプレート生成部102は、計測対象物201の三次元モデルを描画するための視点を複数設定する。この視点は、図2に示したような計測対象物201の位置姿勢を推定する状況下で、計測対象物201が実際に取り得る姿勢を網羅した様々な見え方での画像が生成されるように設定する。本実施形態では、計測対象物201を外接球の中心に配置するような正多面体を仮定し、正多面体の頂点の位置に描画のための視点を設定するものとする。また、この後のステップS312において、外接球の半径を変えたもの、視点の画像面内での回転角を変えた画像も描画するため、これらも異なる視点として設定しておく。テンプレート生成部102は、数百から数千程度の数の視点を設定することとなるが、実際に設定する視点は、計測対象物201の大きさや取り得る姿勢、推定に要求される姿勢の分解能等の要因に応じて適宜決定すればよい。
ステップS312〜ステップS315の処理は、ステップS311において設定された視点毎に実行され、視点数に等しい回数繰り返し実行される。ステップS312にて、テンプレート生成部102は、ステップS311において設定された視点から計測対象物201の三次元モデルを描画して図4(b)に示すようなテンプレート画像30を生成する。このとき、視点位置から各画素を構成する三次元座標までの奥行き値は不図示の奥行きバッファに保持される。次に、ステップS313にて、テンプレート生成部102は、テンプレート画像30から輪郭411上の画素を規定の数だけサンプリングし、テンプレート20を構成するデータの一部である特徴要素412を抽出する。
図4(a)は、本実施形態において、テンプレート生成部102がテンプレート画像30を生成する例を示す図である。テンプレート画像30は、例えば計測対象物201の三次元モデルをコンピュータグラフィックスを用いて、ステップS311において設定された視点位置(401〜405等)から描画することによって生成する。図4(b)には、生成されたテンプレート画像30、及び後述する輪郭抽出処理の結果として得られる計測対象物201に係る輪郭411及びサンプリングされた特徴要素412の例を示している。
図5は、テンプレート生成部102によって生成されるテンプレート20のデータ構造の例を示す図である。テンプレート20は、複数のテンプレート要素の集合体で構成される。個々のテンプレート要素は、テンプレート画像30を生成した視点の位置姿勢と複数の特徴要素412とを有する。個々の特徴要素412は、特徴位置、特徴パラメータ、及び特徴奥行き識別情報を有する。
本実施形態においては、特徴位置としてテンプレート画像30から抽出される計測対象物201の輪郭411の画像座標が格納され、特徴パラメータとして輪郭411の勾配の方向を示す値が格納される。テンプレート生成部102は、個々のテンプレート画像30に対して輪郭抽出処理を適用した後、輪郭411を構成している画素を規定の数だけサンプリングして、その画素の座標と輪郭勾配とを算出してテンプレート20に書き込む。
ステップS314にて、テンプレート生成部102は、ステップS313において抽出した特徴要素412について特徴奥行き識別情報を算出する。テンプレート生成部102は、次のようにして特徴奥行き識別情報を算出する。テンプレート生成部102は、計測対象物201の特徴要素412をサンプリングする際、ステップS312において奥行き値を保持した奥行きバッファを参照して奥行き値を得る。1枚のテンプレート画像30に対して所定数のサンプリングが終了した時点では、特徴要素数と同数の奥行き値が得られていることになる。テンプレート生成部102は、これらの奥行き値に対して「手前」又は「奥」のラベルを割り当てる。本実施形態では、複数の奥行き値に対して、判別分析によって手前、奥を区分するためのしきい値を定める。判別分析では、それぞれ「手前」「奥」のラベルが付与された値からなるグループに対して、それぞれのグループ内分散を最小化させグループ間分散を最大化させるしきい値が決定される。テンプレート生成部102は、しきい値よりも奥行き値が小さいものに「手前」ラベルを付与し、しきい値よりも奥行き値が大きいものに「奥」ラベルを付与し、ラベルの識別情報を特徴奥行き識別情報(ID)としてテンプレート20に書き込む。
ステップS315では、ステップS311において設定されたすべての視点についてステップS312〜ステップS315の処理が行われた場合、ステップS316に進み、そうでない場合、ステップS312に戻る。ステップS316にて、テンプレート生成部102は、算出されたテンプレート20を不図示の記憶手段に保持する。
図3(a)に戻り、ステップS302にて、撮像部101は、計測対象物201を含むシーンの画像を撮像する。第1の実施形態において撮像部101は、焦点距離の異なる2枚の撮影画像10及び11を取得して撮影画像入力部111に出力する。撮影画像10は、平面202の位置にフォーカスが合っている状態で撮影された画像であり、撮影画像11は、平面202に対して手前側(計測対象物201の上端)にフォーカスが合っている状態で撮影された画像である。撮影画像入力部111は、入力された撮影画像10、11を候補探索部113及び候補判定部115に供給する。ステップS303にて、テンプレート入力部112は、ステップS316において記録されたテンプレート20を記憶手段から読み込んで情報処理装置100に入力する。
ステップS304にて、候補探索部113は、位置姿勢の候補を探索する。候補探索部113は、まず撮影画像10に対して輪郭抽出処理を行う。次に、候補探索部113は、テンプレート20に含まれる各テンプレート要素について、いわゆるテンプレートマッチングによって、撮影画像10上に設定された領域をシフトさせながら輪郭411と撮影画像10から検出される輪郭との類似度を算出する。輪郭411の情報は、特徴要素412中に特徴位置及び特徴パラメータとして記述されている。類似度は、特徴要素412に定義されている輪郭411の位置及び方向が、撮影画像10から検出された輪郭の位置及び方向と一致した場合に高くなるように設定される。すべての特徴要素412の類似度の総和がテンプレート要素、撮影画像10の領域毎に算出される。
候補探索部113は、類似度の総和が所定のしきい値を超えたテンプレート要素をすべてマッチング候補として、マッチング候補リスト40に保持する。マッチング候補リスト40には、テンプレート要素の識別番号、類似度、及び撮影画像10上におけるテンプレートの位置が格納される。テンプレート20は計測対象物201をあらゆる方向の視点から描画することで生成されるため、テンプレート要素に記述されている位置姿勢を計測対象物201の三次元姿勢とみなすことができる。また、計測対象物201の三次元位置は、撮影画像10上で検出されたテンプレート要素の位置と、テンプレート要素に記述されている位置姿勢から算出することができる。例えば、撮影画像10上で検出されたテンプレート要素を代表する中心座標と、テンプレート要素に記述されている位置姿勢から算出される計測対象物201と視点との距離から、計測対象物201の三次元位置を算出可能である。
ステップS305にて、奥行き識別部114は、2枚の撮影画像10及び11を参照してテンプレート20に含まれる特徴要素の奥行きの前後関係、つまり特徴要素相互の奥行きの相対関係を識別する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、テンプレート要素中に定義されている特徴要素から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。
次に、奥行き識別部114は、撮影画像10及び11を参照し、特徴要素412のコントラストの大小を比較する。本実施形態では、特徴要素412に対応する撮影画像10及び11における画素の輝度を比較することで、それを実現する。具体的には、撮影画像10における輝度が撮影画像11における輝度よりも高い場合、コントラストが高いと判断して値“1”を割り当て、それ以外の場合、コントラストが低いと判断して値“0”を割り当てる。本実施形態において、それぞれの撮影画像のフォーカス位置は、撮影画像10では平面202の位置に設定され、撮影画像11では計測対象物201の上端に設定されている。したがって、撮影画像10のコントラストがより高い場合(すなわち、比較結果を示す値が“1”である場合)、その特徴要素412は相対的に奥側に位置すると判断し、そうでない場合には手前側に位置すると判断する。
図6は、奥行き識別部114によって取得されるコントラストの例を示す図である。テンプレート要素に定義されているある特徴要素412の位置を黒丸で示している。図6(a)は撮影画像10でのコントラストの例を示し、図6(b)は撮影画像11でのコントラストの例を示している。図6において、下に示すグラフは、輪郭線411に直交する断面A−B間の輝度変化の例を示すものである。
図6(a)に示すように撮影画像10においては、計測対象物201の輪郭線411の部分にフォーカスが合っている状態であり、コントラストが高く、特徴要素412の位置(黒丸)での輝度ピークも相対的に大きな値となっている。一方、図6(b)に示すように撮影画像11においては、計測対象物201の輪郭線411からフォーカスが外れた状態であり、コントラストが低く、特徴要素412の位置での輝度ピークも相対的に小さな値となっている。そのため、撮影画像10及び11の特徴要素412の位置での輝度値を比較することは、コントラストを比較することと等価であると見なすことができる。
次に、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定し、正しいと判断された情報を最終位置姿勢情報50として出力する。候補判定部115は、特徴対に設定されたそれぞれの特徴要素412について、ステップS305において取得されたコントラストの比較結果と特徴奥行き識別情報とを参照し、マッチング候補の姿勢の正誤を判定する。具体的には、特徴奥行き識別情報の「手前」ラベルが付与された特徴要素412について比較結果が0であり、かつ、特徴奥行き識別情報の「奥」ラベルが付与された特徴要素412について比較結果が1であれば、そのマッチング候補は正しいと判断される。
本実施形態では、位置姿勢判定の安定性を高めるために、複数の特徴対に対して前述の判定を実施し、正しいと判定される割合が所定のしきい値よりも高い場合、そのマッチング候補を正しいと判定する。これにより、隠れているために観測されない特徴要素やノイズの影響を軽減することが可能となる。候補判定部115は、正しいと判定したマッチング候補に対応する位置姿勢の情報を、最終位置姿勢情報50として出力する。なお、正しいと判定されたマッチング候補が複数存在する場合、候補判定部115は、正しいと判定される割合が最も高いマッチング候補を選択して、対応する位置姿勢の情報を最終位置姿勢情報50とする。
このように第1の実施形態によれば、概ね同一平面上に存在する計測対象物について、三次元計測装置を設けなくとも、単一の撮像装置で計測対象物を撮影することによって三次元位置姿勢を精度良く推定することが可能となる。
なお、前述した例に限らず、第1の実施形態に関して、以下の変形例1〜変形例8を適用するようにしてもよい。各変形例を、単独で適用するようにしてもよいし、組み合わせて適用するようにしてもよい。
[変形例1]テンプレート生成部102によるテンプレート20の生成は、本実施形態での処理に先立って行う例に限らず、ステップS303の段階で行うようにしてもよい。また、テンプレート入力部112がテンプレート生成部102の機能を有し、テンプレート20を生成するようにしてもよい。
[変形例1]テンプレート生成部102によるテンプレート20の生成は、本実施形態での処理に先立って行う例に限らず、ステップS303の段階で行うようにしてもよい。また、テンプレート入力部112がテンプレート生成部102の機能を有し、テンプレート20を生成するようにしてもよい。
[変形例2]テンプレート20を生成する際、撮像部101を所定の位置姿勢に移動させて、計測対象物201を撮影することで撮影画像10を取得してもよい。撮影画像10の撮影時の位置姿勢は、例えば撮像部101の位置姿勢を位置姿勢センサを用いて計測すればよい。また、SfM(Structure from Motion)又はSLAM(Simultaneous Localization And Mapping)技術を利用して、撮影した一連の画像群から撮像部101の位置姿勢を推定してもよい。
[変形例3]本実施形態において、特徴奥行き識別情報は「手前」又は「奥」の二種類としたが、これを任意の数に設定してもよい。例えば「手前」「奥」に加えて、「中間」のラベルを設定してもよいし、あるいは奥行き値を連続値のまま保持させるようにしてもよい。
[変形例4]撮像部201の絞り位置に符号化開口(Coded Aperture)を設け、候補判定部115が撮影画像10に対してブラインドデコンボリューションを適用して、奥行きの概略値を推定するようにしてもよい。この場合、撮像部201では撮影画像を1枚取得すればよいので、撮像部201はフォーカス制御機構を備える必要はない。奥行き推定は、例えばA. Levin et al, Image and Depth from a Conventional Camera with a Coded Aperture, SIGGRAPH 2007に記載の方法を用いればよい。
[変形例5]テンプレート生成部102が特徴要素を設定するのは計測対象物201の輪郭上に限られるものではなく、例えば計測対象物201の面上に特徴要素412を設定してもよい。
[変形例6]候補探索部113がマッチング候補リスト40を生成するにあたり、位置姿勢の候補だけでなく、計測対象物201の種別を含めるようにしてもよい。複数種類の計測対象物201が存在する場合、その一部あるいはすべての種別のテンプレート20を生成してもよい。この場合、テンプレート要素に計測対象物201の種別を記録するようにすればよい。
[変形例7]テンプレート生成部102は、計測対象物201のあらゆる見え方の視点を設定しているが、これに限られるものではない。計測対象物201が取り得る位置姿勢が限定される場合については、その位置姿勢に対応する視点に限ってテンプレート画像30を生成するようにしてもよい。これにより、テンプレートの総数が削減されるため、処理速度を向上させることができる。
[変形例8]候補判定部115は、正しいと判定された位置姿勢候補のみを最終位置姿勢情報として出力するが、正誤に関係なくすべての位置姿勢候補と、判定に使用した評価値との組を出力するようにしてもよい。また、候補判定部115は、マッチング候補リスト40に位置姿勢候補が1つしか含まれない場合、その候補の正誤判定結果を出力するようにしてもよい。候補判定部115は、位置と姿勢の各々について評価値を算出し、算出した評価値を出力するようにしてもよい。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態では、概ね同一平面上に存在する計測対象物の三次元位置姿勢の推定について、2つの撮像装置で計測対象物を撮影する場合に適用できる装置に関して説明する。本実施形態では、2枚の画像中の視差の大小関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
次に、本発明の第2の実施形態について説明する。本実施形態では、概ね同一平面上に存在する計測対象物の三次元位置姿勢の推定について、2つの撮像装置で計測対象物を撮影する場合に適用できる装置に関して説明する。本実施形態では、2枚の画像中の視差の大小関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
図7は、第2の実施形態における装置全体の構成例を示す図である。図7において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101、テンプレート生成部102、及び第二撮像部103を有する。なお、図7に示す構成は一例であり、これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。
本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよく、1枚の撮影画像10を取得する。第二撮像部103は、三次元位置姿勢を推定する計測対象物201を含むシーンを撮像した撮影画像を取得し、その撮像画像を情報処理装置100の第二撮影画像入力部116に出力する。第二撮像部103は、1枚の撮影画像11を取得する。ここで、撮像部101と第二撮像部103とは事前に較正(キャリブレーション)がなされている。複数カメラ間の較正については数多くの手法が提案されているが、いかなる方法を用いてもよい。本実施形態では、撮像部101及び第二撮像部103の各々の内部パラメータ(焦点距離、主点位置、歪み係数)や、外部パラメータ(撮像部101と第二撮像部103間の相対的な三次元位置姿勢)は予め得られており、既知であるものとみなす。
図8は、第2の実施形態における撮像部101、第二撮像部103、及び計測対象物201の関係を説明する図である。平面202上に複数の計測対象物201が無作為に配置され、撮像部101及び第二撮像部103は、その上方から全体を俯瞰した撮影画像10、11をそれぞれ取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に接している。なお、撮像部101及び第二撮像部103は、その光軸と平面202とが略直交するように配置する必要はない。
第2の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、第二撮影画像入力部116、及び第二候補探索部117を有する。第二撮影画像入力部116は、第二撮像部103が撮像した撮影画像11を情報処理装置100内部に取り込んで第二候補探索部117に供給する。
第二候補探索部117は、入力される撮影画像11と、マッチング候補リスト40に含まれるマッチング候補の位置姿勢に対応するテンプレート20とをテンプレートマッチングによって照合する。奥行き識別部114は、2枚の撮影画像10及び11を参照して特徴要素412の検出座標の視差を算出し、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。
第2の実施形態における動作について説明する。第2の実施形態における装置の処理の流れは、第1の実施形態と同様である。ただし、処理内容が第1の実施形態とは異なるステップが存在するため、それについて図3(a)を参照して説明する。
ステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、第二撮像部103も同様に計測対象物201を含むシーンの撮影画像11を撮像する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、第二撮像部103は、撮影画像11を第二撮影画像入力部116に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113及び候補判定部115に供給し、第二撮影画像入力部116は、入力された撮影画像11を第二候補探索部117に供給する。
本実施形態での撮像部101及び第二撮像部103は較正されているため、第二撮影画像入力部116は、入力される撮影画像11に対して較正時の内部パラメータ及び外部パラメータを用いて平行化を行う。以降、本実施形態では、撮影画像10及び撮影画像11について、エピポーラ線はx軸(横方向)に平行であるものとして説明する。
また、ステップS304にて、候補探索部113及び第二候補探索部117は、位置姿勢の候補を探索する。候補探索部113が行う処理は、第1の実施形態と同様である。以下、第二候補探索部117が位置姿勢の候補を探索する処理の内容について説明する。第二候補探索部117は、候補探索部113と同様に、まず撮影画像11に対して輪郭抽出処理を行う。そして、テンプレート20に含まれる各テンプレート要素について、撮影画像11における領域をシフトさせながらテンプレートマッチングによって、特徴要素412に定義されている輪郭411と、撮影画像11から検出される輪郭との類似度を算出する。輪郭411の情報は、特徴要素412中に特徴位置及び特徴パラメータとして記述されている。
本実施形態では、既に候補探索部113によってマッチング候補が取得されているので、これを利用して第二候補探索部117の処理を効率的に行う。具体的には、第二候補探索部117は、マッチング候補リスト40からマッチング候補を取り出し、テンプレート要素の識別番号と撮影画像10上における領域の位置とを参照し、撮影画像11上におけるテンプレート要素の位置を推定する。テンプレート要素の識別番号から、そのテンプレート要素の位置姿勢を参照できるので、計測対象物201の三次元位置姿勢が得られることとなる。
この三次元位置姿勢に対して、較正時の外部パラメータを用いて、撮像部101の位置姿勢から第二撮像部103の位置姿勢への三次元変換を求め、第二撮像部103の内部パラメータを用いて撮影画像11に射影する。これにより、撮影画像11上におけるテンプレート要素の位置が得られる。第二候補探索部117は、得られた撮影画像11上におけるテンプレート要素の位置を初期値として、その近傍で撮影画像11に対して候補探索部113と同様にテンプレートマッチングを行う。このようにして、最終的に正確な撮影画像11上におけるテンプレートの位置が算出される。第二候補探索部117は、マッチング候補リスト40に撮影画像11上におけるテンプレート要素位置の座標を記録する。
また、ステップS305にて、奥行き識別部114は、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10又は撮影画像11上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。
次に、奥行き識別部114は、各特徴対について特徴要素412が検出された撮影画像10及び撮影画像11上の視差を比較する。本実施形態において、撮影画像10及び撮影画像11のエピポーラ線はx軸に平行であるため、奥行き識別部114は、特徴要素412における撮影画像10と撮影画像11とのx座標の差を比較する。図9は、第2の実施形態における奥行き識別部114による視差の比較を説明する図である。特徴対を構成する2つの特徴要素412(図中の412aと412b)が検出された撮影画像10及び撮影画像11での検出座標についてx座標の差を求め、視差daと視差dbとを算出する。
また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、2枚の撮影画像10と撮影画像11との三角測量に基づき、マッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。
具体的には、候補判定部115は、各特徴要素の特徴奥行き識別情報とステップS305において算出された視差daと視差dbの相対的な大小関係とを比較する。図9に示した例において、特徴要素412aの特徴奥行き識別情報が「手前」、特徴要素412bの特徴奥行き識別情報が「奥」であるとする。特徴要素412aと特徴要素412bとの相対的な幾何関係により、手前側に位置する特徴要素412aの視差が、奥側に位置する特徴要素412bの視差より大きくなる。そのため、候補判定部115は、da>dbであれば、そのマッチング候補を正しいと判定し、da<dbであれば、そのマッチング候補を誤りであると判定する。本実施形態では、位置姿勢判定の安定性を高めるために、複数の特徴対に対して前述の判定を実施し、正しいと判定される割合が所定のしきい値よりも高い場合、そのマッチング候補に対応する位置姿勢を正しいと判定する。これにより、隠れているために観測されない特徴要素やノイズの影響を軽減することが可能となる。
このように第2の実施形態によれば、概ね同一平面上に存在する計測対象物について、2つの撮像装置で計測対象物を撮影することで、三次元計測装置を設けなくとも、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。撮影画像中で特徴要素が検出される座標の差(視差量)のみに基づき比較を行うため、三次元座標を明に算出することがなく、浮動小数演算を行うことなく整数演算のみで実行できるので、処理時間が短縮され処理速度が向上する。さらに、片方の撮影画像上で探索された位置姿勢の候補に基づき、較正時の幾何関係に基づいて他方の撮影画像上での位置を推定し、その近傍に限定して探索を行う。そのため、通常のステレオ計測で必要となる対応探索と比較して処理時間を短縮でき処理速度を向上させることができる。
なお、前述した例に限らず、第2の実施形態に関して、以下の変形例9、変形例10を適用するようにしてもよく、変形例を単独で適用するようにしてもよいし、組み合わせて適用するようにしてもよい。
[変形例9]第二撮像部103は、撮像部101に対して解像度や光学特性等の性能が低いものを用いてもよく、このようにした場合、本実施形態における装置を安価に実現することが可能となる。
[変形例9]第二撮像部103は、撮像部101に対して解像度や光学特性等の性能が低いものを用いてもよく、このようにした場合、本実施形態における装置を安価に実現することが可能となる。
[変形例10]本実施形態において、撮像部101と第二撮像部103との較正は必ずしも精密に行われなくてもよい。候補判定部115は特徴対の前後関係のみを判定しているのであるから、撮像部101と第二撮像部103の内部パラメータ及び外部パラメータは特徴対の前後関係の区別がつけられる程度の精度があればよい。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、三次元計測装置によって計測される三次元座標が疎である場合に適用できる装置に関して説明する。本実施形態では、三次元計測装置によって計測された疎な三次元座標から、特徴要素位置における三次元座標を推定する。推定された三次元座標の前後関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置によって計測される三次元座標が疎であるような状況においても、計測対象の位置姿勢を精度良く推定することが可能となる。
次に、本発明の第3の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、三次元計測装置によって計測される三次元座標が疎である場合に適用できる装置に関して説明する。本実施形態では、三次元計測装置によって計測された疎な三次元座標から、特徴要素位置における三次元座標を推定する。推定された三次元座標の前後関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置によって計測される三次元座標が疎であるような状況においても、計測対象の位置姿勢を精度良く推定することが可能となる。
図10は、第3の実施形態における装置全体の構成例を示す図である。図10において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101、テンプレート生成部102、及び三次元計測部104を有する。なお、図10に示す構成は一例であり、これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。
本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよく、1枚の撮影画像10を取得する。三次元計測部104は、計測対象物201表面の三次元座標を計測して、計測した三次元座標1101を三次元座標入力部118に出力する。本実施形態では、一例として三次元計測部104としてマルチスリット投影三次元計測装置を用い、撮影画像10の解像度に対して、投影スリットに平行な方向には密であるが垂直な方向には疎となる三次元座標1101を取得するものとする。
図11は、第3の実施形態における撮像部101、三次元計測部104、及び計測対象物201の関係を説明する図である。複数の計測対象物201が存在し、撮像部101は、その上方から全体を俯瞰した撮影画像10を取得する。また、三次元計測部104は、複数のスリット光を計測対象物201に対して投影し、投影スリット線1102上の三次元位置を三次元座標1101の集合として取得する。個々の計測対象物201は無作為に様々な位置姿勢を取り、概ね同一平面上に存在していなくともよく、互いに重なり合う状況も生じ得る。なお、撮像部101は、その光軸と計測対象物201が載置される平面とが略直交するように配置する必要はない。
ここで、撮像部101と三次元計測部104とは事前に較正(キャリブレーション)がなされている。カメラ等の撮像部101と三次元計測装置等の三次元計測部104との間の較正については数多くの手法が提案されているが、いかなる方法を用いてもよい。本実施形態では、撮像部101の内部パラメータ(焦点距離、主点位置、歪み係数)及び撮像部101と三次元計測部104間の相対的な三次元位置姿勢は予め得られており、既知であるものとみなす。
第3の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、及び三次元座標入力部118を有する。撮影画像入力部111は、撮像部101が撮像した撮影画像10を情報処理装置100内部に取り込んで候補探索部113、候補判定部115、及び奥行き識別部114に供給する。三次元座標入力部118は、三次元計測部104が計測した三次元座標1101を情報処理装置100内部に取り込んで奥行き識別部114に供給する。
奥行き識別部114は、撮影画像10、三次元座標1101、テンプレート20、及びマッチング候補リスト40を用いて、計測対象物201の特徴要素位置における特徴要素三次元座標1201を複数推定する。そして、奥行き識別部114は、これらの位置関係に基づき、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。
第3の実施形態における動作について説明する。第3の実施形態における装置の処理の流れは、第1の実施形態と同様である。ただし、処理内容が第1の実施形態とは異なるステップが存在するため、それについて図3(a)を参照して説明する。
ステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、三次元計測部104は、計測対象物201上の三次元座標1101を計測する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、三次元計測部104は、三次元座標1101を三次元座標入力部118に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113、奥行き識別部114、及び候補判定部115に供給する。また、三次元座標入力部118は、入力された三次元座標1101を奥行き識別部114に供給する。
また、ステップS305にて、奥行き識別部114は、三次元座標1101及びテンプレート20を参照して、撮影画像10における特徴要素三次元座標1201を推定する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、候補探索部113によって抽出された撮影画像10の輪郭と、テンプレート要素中に定義されている特徴要素412、三次元座標1101とを参照して、特徴要素三次元座標1201を算出する。
図12は、本実施形態での特徴要素三次元座標1201の取得方法を説明する図である。奥行き識別部114は、計測対象物201上の三次元座標1101を用いて、撮影画像10における特徴要素412の位置における三次元座標である特徴要素三次元座標1201を取得する。図12において、特徴要素412と特徴要素三次元座標1201は同一の場所に存在する。特徴要素412の位置での特徴要素三次元座標1201は、この段階では未知である。そのため、奥行き識別部114は、周囲の三次元座標1101を用いて、特徴要素三次元座標1201を推定する。
具体的には、奥行き識別部114は、候補探索部113において抽出された撮影画像10の輪郭411について、同一輪郭上で計測された特徴要素412近傍の三次元座標1101を探索する。図12において、輪郭411上の2つの黒丸が探索された近傍の三次元座標1101a、1101bを表している。次に、奥行き識別部114は、撮像部101の内部パラメータ、及び撮像部101と三次元計測部104との間の外部パラメータを用いて、三次元座標1101a、1101bが撮影画像10に投影される画像座標を算出する。奥行き識別部114は、特徴要素の画像座標と三次元座標1101a、1101bが撮影画像10に投影される画像座標との距離を各々算出し、三次元座標1101a、1101bを算出した2つの距離で内分することで特徴要素三次元座標1201を算出する。
次に、奥行き識別部114は、第1の実施形態と同様に、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。
また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、各特徴対についてステップS305において算出された特徴要素三次元座標1201と、特徴奥行き識別情報とを比較する。「手前」ラベルが付与された特徴要素412に対応する特徴要素三次元座標1201が「奥」ラベルが付与された特徴要素412に対応する特徴要素三次元座標1201よりも視点に近い値であれば、候補判定部115は、そのマッチング候補を正しいと判定する。候補判定部115は、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。
このように第3の実施形態によれば、三次元計測装置によって計測される三次元座標が疎であるような状況においても、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第3の実施形態に関して、以下の変形例11を適用するようにしてもよい。
[変形例11]奥行き識別部114は、撮影画像10において特徴要素412が検出される位置での三次元座標として特徴要素三次元座標1201を推定するが、輪郭411上で計測された三次元座標1101をそのまま用いるようにしてもよい。この場合、候補判定部115は、特徴要素412ではなく、輪郭411の前後関係を判定するようにすればよい。また、テンプレート生成部102は、輪郭411上のサンプル点ではなく、輪郭を構成する直線(線分)に対して特徴奥行き識別情報を算出すればよい。
[変形例11]奥行き識別部114は、撮影画像10において特徴要素412が検出される位置での三次元座標として特徴要素三次元座標1201を推定するが、輪郭411上で計測された三次元座標1101をそのまま用いるようにしてもよい。この場合、候補判定部115は、特徴要素412ではなく、輪郭411の前後関係を判定するようにすればよい。また、テンプレート生成部102は、輪郭411上のサンプル点ではなく、輪郭を構成する直線(線分)に対して特徴奥行き識別情報を算出すればよい。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、計測対象物に係る三次元座標を1点のみ計測する場合に適用できる装置に関して説明する。本実施形態では、複数得られた三次元位置姿勢の候補の中から、1点の三次元座標と既知の平面との距離に基づいて適切なものを選択する。これにより、計測できる三次元座標が1点であるような状況においても、計測対象の位置姿勢を精度良く推定することが可能となる。なお、第4の実施形態における装置全体の構成は、図10に示した第3の実施形態における構成と同様である。以下では、第3の実施形態と異なる部分について説明し、第3の実施形態と同様の部分については説明を省略する。
次に、本発明の第4の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、計測対象物に係る三次元座標を1点のみ計測する場合に適用できる装置に関して説明する。本実施形態では、複数得られた三次元位置姿勢の候補の中から、1点の三次元座標と既知の平面との距離に基づいて適切なものを選択する。これにより、計測できる三次元座標が1点であるような状況においても、計測対象の位置姿勢を精度良く推定することが可能となる。なお、第4の実施形態における装置全体の構成は、図10に示した第3の実施形態における構成と同様である。以下では、第3の実施形態と異なる部分について説明し、第3の実施形態と同様の部分については説明を省略する。
三次元計測部104は、計測対象物201の表面の三次元座標を計測して、計測した三次元座標1101を三次元座標入力部118に出力する。本実施形態では、一例として三次元計測部104としてスポット投影三次元計測装置を用い、計測対象物201の表面の1点について、三次元座標1101を取得する。奥行き識別部114は、1点の三次元座標1101と平面202との間の距離に基づいて、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。
図13は、第4の実施形態における撮像部101、三次元計測部104、及び計測対象物201の関係を説明する図である。複数の計測対象物201が無作為に配置され、撮像部101は、その上方から全体を俯瞰した撮影画像10を取得する。また、三次元計測部104は、スポット光を計測対象物201に対して投影し、投影スポット上の三次元位置を三次元座標1101として取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に存在する。また、三次元計測部104から平面202までの距離は予め計測しておく。これは計測対象物201を配置しない状態で三次元座標1101を計測し、その値を保持することで実現される。
第4の実施形態における動作について説明する。第4の実施形態における装置の処理の流れは、第3の実施形態と同様である。ただし、処理内容が第3の実施形態とは異なるステップが存在するため、それについて図3(a)及び図3(b)を参照して説明する。
図3(b)におけるステップS313にて、テンプレート生成部102は、テンプレート画像30から特徴要素412を抽出する。このとき、計測対象物201の輪郭411上の画素だけでなく、面上の画素についてもサンプリングを行う。
また、ステップS314にて、テンプレート生成部102は、ステップS313において抽出した特徴要素412について特徴奥行き識別情報を算出する。テンプレート生成部102は、次のようにして特徴奥行き識別情報を算出する。テンプレート生成部102は、計測対象物201の特徴要素412をサンプリングする際、ステップS312において奥行き値を保持した奥行きバッファを参照して奥行き値を得る。1枚のテンプレート画像30に対して所定数のサンプリングが終了した時点では、特徴要素数と同数の奥行き値が得られていることになる。テンプレート生成部102は、これらの奥行き値を最奥部の面からの距離に変換する。図13において、計測対象物201は平面202上に置かれているので、視点から観測される計測対象物201は最奥面が平面202に接することとなる。テンプレート生成部102は、サンプリングされた特徴要素412における奥行きと、最奥面(すなわち、計測対象物201が平面202上に置かれたとき、平面202と接する面)との距離を算出し、特徴奥行き識別情報としてテンプレート20に書き込む。
また、図3(a)におけるステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、三次元計測部104は、計測対象物201上の三次元座標1101を計測する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、三次元計測部104は、三次元座標1101を三次元座標入力部118に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113及び奥行き識別部114に供給する。また、三次元座標入力部118は、入力された三次元座標1101を奥行き識別部114に供給する。
また、ステップS305にて、奥行き識別部114は、三次元座標1101及びテンプレート20を参照して、撮影画像10における特徴要素三次元座標1201を推定する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。次に、奥行き識別部114は、テンプレート要素中に定義されている位置姿勢を基に、撮影画像10上で検出されたスポット光の画像座標の最近傍の特徴要素412を探索する。奥行き識別部114は、入力された三次元座標1101と、事前に算出した三次元計測部104−平面202間の距離とを参照して、三次元座標1101−平面202間の距離を算出する。
また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、ステップS305において算出された三次元座標1101−平面202間の距離と、テンプレート20に記述されている特徴奥行き識別情報とを比較する。候補判定部115は、これらの値の差が一定のしきい値以内(すなわち、しきい値の範囲で概略等しいと見なせる状態)であれば、候補判定部115は、そのマッチング候補を正しいと判定する。候補判定部115は、正しいと判定されたマッチング候補に対応する位置姿勢の情報を、最終位置姿勢情報50として出力する。
このように第4の実施形態によれば、計測できる三次元座標が1点であるような状況においても、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第4の実施形態に関して、以下の変形例12を適用するようにしてもよい。
[変形例12]本実施形態においてテンプレート生成部102は、計測対象物201の最奥面と特徴要素の奥行き値との差を特徴奥行き識別情報として算出したが、これに限られるものではない。物理シミュレーションを用いて計測対象物201が平面202に接する面を特定し、その面と特徴要素の奥行き値との差を算出するようにしてもよい。
[変形例12]本実施形態においてテンプレート生成部102は、計測対象物201の最奥面と特徴要素の奥行き値との差を特徴奥行き識別情報として算出したが、これに限られるものではない。物理シミュレーションを用いて計測対象物201が平面202に接する面を特定し、その面と特徴要素の奥行き値との差を算出するようにしてもよい。
(第5の実施形態)
次に、本発明の第5の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、単一の撮像部が移動しながら連続的に複数の撮影画像を取得する場合に適用できる装置に関して説明する。本実施形態では、単一の撮像部がロボットハンド等の駆動部に取り付けられ、駆動部が連続的に動作する過程で視点位置の異なる画像が複数撮影される。過去の撮影画像と現在の撮影画像との視差の大小関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
次に、本発明の第5の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、単一の撮像部が移動しながら連続的に複数の撮影画像を取得する場合に適用できる装置に関して説明する。本実施形態では、単一の撮像部がロボットハンド等の駆動部に取り付けられ、駆動部が連続的に動作する過程で視点位置の異なる画像が複数撮影される。過去の撮影画像と現在の撮影画像との視差の大小関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
図14は、第5の実施形態における装置全体の構成例を示す図である。図14において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101及びテンプレート生成部102を有する。なお、図14に示す構成は一例であり。これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。
撮像部101は、三次元位置姿勢を推定する計測対象物201を含むシーンを撮像した撮影画像10を取得する。撮像部101は、不図示の駆動部に取り付けられており、駆動部が連続的に動作することによって時系列で視点位置の異なる複数の撮影画像10が取得される。また、撮像部101は、不図示の位置姿勢センサを有しており、駆動部の動きに応じて撮影画像10と同期した撮影画像位置姿勢情報14を取得する。撮像部101は、取得した撮影画像10及び撮影画像位置姿勢情報14を、情報処理装置100の撮影画像入力部111に出力する。なお、本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよい。
第5の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、及び候補保持部119を有する。撮影画像入力部111は、撮像部101が取得した撮影画像10及び撮影画像位置姿勢情報14を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。
候補探索部113は、入力される撮影画像10とテンプレート20とをテンプレートマッチングによって照合し、計測対象物のマッチング候補リスト40を生成して出力する。候補探索部113には、常に最新の撮影画像10及び撮影画像位置姿勢情報14が入力され、その時点におけるマッチング候補リスト40が生成される。また、候補探索部113は、撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を候補保持部119に出力する。
候補保持部119は、候補探索部113が過去に入力や生成した撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を保持する。候補判定部115は、候補探索部113が出力する最新の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40が入力される。また、候補判定部115は、候補保持部119が保持する過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40が入力される。候補判定部115は、入力されるこれらの情報に基づいて、最新のマッチング候補リスト40に含まれるマッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報のみを最終位置姿勢情報50として出力する。
第5の実施形態における動作について説明する。図15は、第5の実施形態における装置の処理の流れを示すフローチャートである。ステップS1501での事前準備の処理の流れは、図3(b)に示した第1の実施形態における事前準備の処理と同様である。
本実施形態においては、第1の実施形態におけるステップS302の処理に対応するステップS1503の処理は幾度も繰り返される。それに対して、第1の実施形態におけるステップS303の処理に対応するステップS1502の処理は、本装置の起動時に一度のみ処理すればよい。そのため、第5の実施形態では、ステップS1502にてテンプレート20の入力を行った後に、ステップS1503にて撮影画像10及び撮影画像位置姿勢情報14の入力を実行する。
ステップS1503にて、撮像部101は、計測対象物201を含むシーンの画像を撮像するとともに、これと同期して撮像部101の位置姿勢情報を取得する。撮像部101は、取得した撮影画像10及び撮影画像位置姿勢情報14を撮影画像入力部111に出力する。撮影画像入力部111は、入力された撮影画像10及び撮影画像位置姿勢情報14を候補探索部113及び候補判定部115に供給する。
ステップS1504にて、候補探索部113は、第1の実施形態と同様にして位置姿勢の候補を探索する。次に、ステップS1505にて、奥行き識別部114は、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。なお、候補保持部119が過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を保持していない場合(すなわち、初回実行時)には、ステップS1505及びステップS1506の処理を行わずにステップS1508に進む。
ステップS1504では、奥行き識別部114は、まず候補探索部113から入力されたマッチング候補リスト40から位置姿勢候補を1つ取り出す。次に、奥行き識別部114は、候補探索部113から現在の撮影画像10及び撮影画像位置姿勢情報14を入力する。同時に、候補保持部119から、過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を入力する。
奥行き識別部114は、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素を1つずつ抽出して特徴対を構成する。なお、現在の撮影画像10又は過去の撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。
また、奥行き識別部114は、現在の撮影画像位置姿勢情報14及び過去の撮影画像位置姿勢情報14を参照して、過去の撮影画像10を平行化する。これにより、現在の撮影画像10及び過去の撮影画像10のエピポーラ線がx軸に平行な状態となる。奥行き識別部114は、各特徴対について特徴要素412が検出された現在の撮影画像10と過去の撮影画像10上の視差(すなわち、それぞれ検出されたx座標の差)を比較する。2画像の視差の比較は、第2の実施形態と同様の方法で行えばよい。
ステップS1506にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、2枚の画像(現在の撮影画像10及び過去の撮影画像10)の三角測量に基づき、マッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。
ステップS1507にて、候補保持部119は、候補探索部113から入力される最新のマッチング候補リスト40、撮影画像10、及び撮影画像位置姿勢情報14を保持する。これらの値は、次回のステップS1506の処理を実行する際に参照される。ステップS1508にて、ユーザからの指示に基づき、本実施形態の三次元位置姿勢の推定処理を終了する、又はステップS1503に戻って処理を継続する。
このように第5の実施形態によれば、単一の撮像部が移動しながら連続的に複数の撮影画像を取得することによって、三次元計測装置を設けなくとも、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第5の実施形態に関して、以下の変形例12を適用するようにしてもよい。
[変形例12]本実施形態においては、撮像部101が位置姿勢センサによって撮影画像位置姿勢情報14を取得するようにしているが、これに限定されるものではない。SfMあるいはSLAM技術を用いて、撮影画像10上で検出される特徴点座標に基づき、撮影画像入力部111が撮影画像位置姿勢情報14を生成するようにしてもよい。
[変形例12]本実施形態においては、撮像部101が位置姿勢センサによって撮影画像位置姿勢情報14を取得するようにしているが、これに限定されるものではない。SfMあるいはSLAM技術を用いて、撮影画像10上で検出される特徴点座標に基づき、撮影画像入力部111が撮影画像位置姿勢情報14を生成するようにしてもよい。
(第6の実施形態)
次に、本発明の第6の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定結果を用いて、ロボット等の駆動部が計測対象物を把持する場合に適用できる物体把持装置に関して説明する。本実施形態については、第5の実施形態と異なる部分についてのみ説明する。
次に、本発明の第6の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定結果を用いて、ロボット等の駆動部が計測対象物を把持する場合に適用できる物体把持装置に関して説明する。本実施形態については、第5の実施形態と異なる部分についてのみ説明する。
本実施形態においては、三次元位置姿勢の推定を行う情報処理装置100の外部に不図示の制御部を備え、出力される最終位置姿勢情報50を基に駆動部に対して最終目的位置姿勢情報を生成する。この最終目的位置姿勢情報は、駆動部が有するエンドエフェクター(不図示)が計測対象物201を把持することができるようにする位置姿勢情報である。最終目的位置姿勢情報に関しては、最終位置姿勢情報50に対して所定の三次元変換を適用することで生成される。所定の三次元変換は、計測対象物201の形状とエンドエフェクターとの関係から定義され、そのエンドエフェクターが計測対象物201を把持するのに最も適した駆動部の位置姿勢を、計測対象物201の座標系において表したものである。所定の三次元変換は、本実施形態における処理の開始前に予め算出しておき、処理開始時にパラメータとして装置に入力される。
このように第6の実施形態によれば、最終位置姿勢情報50として出力される計測対象物の三次元位置姿勢の推定結果を用いて、最終目的位置姿勢情報を生成することで、ロボット等の駆動部が計測対象物を把持することが可能となる。
なお、「撮影画像入力部111」は、撮像部101が撮影した画像を情報処理装置100に入力できるものであれば、いかなるものでもよい。また、入力する画像においても、RGBカラー画像、グレイスケール画像、白黒画像、奥行き画像等、いかなる種類の画像でもよい。また、「特徴要素」は、画像中で検出される要素であれば何でもよく、点に限られず、線や円、矩形等の領域によって定義されるものであってもよい。また、「特徴要素」は、計測対象物を複数の視点から観測した画像から得ることができるものであり、各実施形態では計測対象物のCADモデルをレンダリングして生成する構成について説明したが、これに限られるものではない。例えば変形例2として説明したように、実際の計測対象物を複数の方向から撮影し、位置姿勢と対応づけてテンプレートを生成するようにしてもよい。
また、「候補探索部113」は、入力した撮影画像から計測対象物の位置姿勢の候補を探索する構成に限られるものではない。例えば変形例6として示したように、位置姿勢に加えて計測対象物の種別を位置姿勢の候補に含め、計測対象物の種別を探索するような構成も含めることが可能である。また、「候補判定部115」は、検出された特徴要素相互の奥行き相対関係とテンプレートに記述された特徴要素相互の奥行き相対関係に基づいて、マッチング候補の正誤を判定するが、この特徴要素相互の奥行き相対関係には様々なものを用いることができる。また、「候補判定部115」は、マッチング候補の正誤判定の結果、正しいと判定されたマッチング候補を最終位置姿勢情報として出力するが、評価値等の中間結果を出力するようにしてもよい。例えば変形例8に一例を示したように、すべてのマッチング候補を出力する構成、評価値を含めて出力する構成、位置、姿勢の評価値をそれぞれ出力する構成等を適用可能である。
(本発明の他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、前述した各実施形態に示した情報処理装置は、図16に示すようなコンピュータ機能1600を有し、そのCPU1601により各実施形態での動作が実施される。コンピュータ機能1600は、図16に示すように、CPU1601と、ROM1602と、RAM1603とを備える。また、操作部(CONS)1609のコントローラ(CONSC)1605と、CRTやLCD等の表示部としてのディスプレイ(DISP)1610のディスプレイコントローラ(DISPC)1606とを備える。さらに、ハードディスク(HD)1611、及びフレキシブルディスク等の記憶デバイス(STD)1612のコントローラ(DCONT)1607と、ネットワークインタフェースカード(NIC)1608とを備える。それら機能部1601、1602、1603、1605、1606、1607、1608は、システムバス1604を介して互いに通信可能に接続された構成としている。
CPU1601は、ROM1602又はHD1611に記憶されたソフトウェア、又はSTD1612より供給されるソフトウェアを実行することで、システムバス1604に接続された各構成部を総括的に制御する。すなわち、CPU1601は、前述したような動作を行うための処理プログラムを、ROM1602、HD1611、又はSTD1612から読み出して実行することで、前述した各実施形態での動作を実現するための制御を行う。RAM1603は、CPU1601の主メモリ又はワークエリア等として機能する。CONSC1605は、CONS1609からの指示入力を制御する。DISPC1606は、DISP1610の表示を制御する。DCONT1607は、ブートプログラム、種々のアプリケーション、ユーザファイル、ネットワーク管理プログラム、及び前述した各実施形態における前記処理プログラム等を記憶するHD1611及びSTD1612とのアクセスを制御する。NIC1608はネットワーク1613上の他の装置と双方向にデータをやりとりする。
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:情報処理装置 101:撮像部 102:テンプレート生成部 103:第二撮像部 104:三次元計測部 111:撮影画像入力部 112:テンプレート入力部 113:候補探索部 114:奥行き識別部 115:候補判定部 116:第二撮影画像入力部 117:第二候補探索部 118:三次元座標入力部 119:候補保持部 201:計測対象物
Claims (11)
- 対象物が含まれる撮影画像を入力する撮影画像入力手段と、
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、
前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段とを有することを特徴とする情報処理装置。 - 前記候補判定手段は、前記マッチング候補が前記撮影画像から検出された特徴要素における前記奥行き相対関係の情報と、前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とが同じである場合、前記マッチング候補を正しいと判定することを特徴とする請求項1記載の情報処理装置。
- 前記奥行き識別手段は、焦点距離の異なる複数の前記撮影画像のコントラストの大小関係と、前記テンプレートを基に取得した特徴要素相互の位置関係との比較に基づいて奥行き相対関係を識別することを特徴とする請求項1又は2記載の情報処理装置。
- 前記奥行き識別手段は、複数の前記撮影画像における前記特徴要素の検出座標の比較に基づいて奥行き相対関係を識別することを特徴とする請求項1又は2記載の情報処理装置。
- 対象物が含まれる第二の撮影画像を入力する第二の撮影画像入力手段と、
前記テンプレートに記述された特徴要素と前記第二の撮影画像から検出される特徴要素との照合を行って、前記マッチング候補の中から前記第二の撮影画像に含まれる対象物のマッチング候補を探索する第二の候補探索部とを有することを特徴とする請求項1又は2記載の情報処理装置。 - 対象物の三次元座標を計測する三次元計測手段を有し、
前記奥行き識別手段は、前記三次元座標に基づいて前記検出された特徴要素の三次元位置を推定し、前記三次元位置の比較に基づいて奥行き相対関係を識別することを特徴とする請求項1又は2記載の情報処理装置。 - 前記候補判定手段は、前記マッチング候補に係る対象物の位置姿勢の正誤を判定することを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。
- 前記候補判定手段は、前記マッチング候補に係る対象物の種別の正誤を判定することを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。
- 対象物が含まれる撮影画像を入力する撮影画像入力手段と、
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、
前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段と、
前記対象物を把持する駆動手段と、
前記駆動手段の目的位置姿勢情報を生成する制御手段とを有し、
前記候補判定手段は、前記マッチング候補が前記撮影画像から検出された特徴要素における前記奥行き相対関係の情報と、前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とが一致した場合、前記マッチング候補を正しいと判定し、
前記制御手段は、正しいと判定された前記マッチング候補に対応する前記対象物の位置姿勢情報に基づき、前記対象物を把持するための前記目的位置姿勢情報を生成することを特徴とする物体把持装置。 - 対象物が含まれる撮影画像を入力する撮影画像入力工程と、
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力工程と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索工程と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別工程と、
前記奥行き識別工程で得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定工程とを有することを特徴とする情報処理方法。 - 請求項1〜8の何れか1項に記載の情報処理装置の各手段としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017098251A JP2018195070A (ja) | 2017-05-17 | 2017-05-17 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017098251A JP2018195070A (ja) | 2017-05-17 | 2017-05-17 | 情報処理装置、情報処理方法、及びプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018195070A true JP2018195070A (ja) | 2018-12-06 |
Family
ID=64570315
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017098251A Withdrawn JP2018195070A (ja) | 2017-05-17 | 2017-05-17 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018195070A (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020153682A (ja) * | 2019-03-18 | 2020-09-24 | 株式会社キーエンス | 画像測定装置 |
| CN113639630A (zh) * | 2021-04-01 | 2021-11-12 | 浙江大学台州研究院 | 基于多模板匹配和自动对焦功能的尺寸测量仪系统 |
| CN114979618A (zh) * | 2021-02-22 | 2022-08-30 | 株式会社东芝 | 计测系统及记录有计测程序的记录介质 |
| WO2022254725A1 (ja) * | 2021-06-04 | 2022-12-08 | ファナック株式会社 | ワーク検出システム |
| KR102483078B1 (ko) * | 2021-10-20 | 2022-12-29 | 금정현 | 입체 영상을 포함하는 배경과 촬영 중 객체 간의 실시간 뎁스 기반 영상 합성 방법, 장치 및 컴퓨터-판독가능 기록매체 |
-
2017
- 2017-05-17 JP JP2017098251A patent/JP2018195070A/ja not_active Withdrawn
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020153682A (ja) * | 2019-03-18 | 2020-09-24 | 株式会社キーエンス | 画像測定装置 |
| JP7240913B2 (ja) | 2019-03-18 | 2023-03-16 | 株式会社キーエンス | 画像測定装置 |
| CN114979618A (zh) * | 2021-02-22 | 2022-08-30 | 株式会社东芝 | 计测系统及记录有计测程序的记录介质 |
| CN113639630A (zh) * | 2021-04-01 | 2021-11-12 | 浙江大学台州研究院 | 基于多模板匹配和自动对焦功能的尺寸测量仪系统 |
| WO2022254725A1 (ja) * | 2021-06-04 | 2022-12-08 | ファナック株式会社 | ワーク検出システム |
| JPWO2022254725A1 (ja) * | 2021-06-04 | 2022-12-08 | ||
| CN116997926A (zh) * | 2021-06-04 | 2023-11-03 | 发那科株式会社 | 工件检测系统 |
| JP7688123B2 (ja) | 2021-06-04 | 2025-06-03 | ファナック株式会社 | ワーク検出システム |
| KR102483078B1 (ko) * | 2021-10-20 | 2022-12-29 | 금정현 | 입체 영상을 포함하는 배경과 촬영 중 객체 간의 실시간 뎁스 기반 영상 합성 방법, 장치 및 컴퓨터-판독가능 기록매체 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110702111B (zh) | 使用双事件相机的同时定位与地图创建(slam) | |
| JP5618569B2 (ja) | 位置姿勢推定装置及びその方法 | |
| JP4677536B1 (ja) | 3次元物体認識装置及び3次元物体認識方法 | |
| JP5812599B2 (ja) | 情報処理方法及びその装置 | |
| CN103649674B (zh) | 测量设备以及信息处理设备 | |
| US9679384B2 (en) | Method of detecting and describing features from an intensity image | |
| JP6503906B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
| JP7479324B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| US20140253679A1 (en) | Depth measurement quality enhancement | |
| JP7379065B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| JP2018195070A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| US10607350B2 (en) | Method of detecting and describing features from an intensity image | |
| JP6817742B2 (ja) | 情報処理装置およびその制御方法 | |
| JP2018091656A (ja) | 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法 | |
| CN112146647A (zh) | 一种地面纹理的双目视觉定位方法及芯片 | |
| CN109934873B (zh) | 标注图像获取方法、装置及设备 | |
| CN118642121A (zh) | 单目视觉测距与激光点云融合的空间定位方法及系统 | |
| US20190371001A1 (en) | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium | |
| JP2021071420A (ja) | 情報処理装置、情報処理方法、プログラム、システム、物品の製造方法、計測装置及び計測方法 | |
| JP6198104B2 (ja) | 3次元物体認識装置及び3次元物体認識方法 | |
| JP6802923B2 (ja) | 物体検出装置、及び、物体検出手法 | |
| JP2006113832A (ja) | ステレオ画像処理装置およびプログラム | |
| JP2022551885A (ja) | 物体の把持点の三次元位置、ローカル参照フレーム及び把持パターンを求める方法及びシステム | |
| JP2019105588A (ja) | 情報処理装置、システム、情報処理方法及びプログラム | |
| JP7251631B2 (ja) | テンプレート作成装置、物体認識処理装置、テンプレート作成方法、物体認識処理方法及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200424 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200707 |