JP2018195070A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2018195070A JP2018195070A JP2017098251A JP2017098251A JP2018195070A JP 2018195070 A JP2018195070 A JP 2018195070A JP 2017098251 A JP2017098251 A JP 2017098251A JP 2017098251 A JP2017098251 A JP 2017098251A JP 2018195070 A JP2018195070 A JP 2018195070A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- template
- candidate
- unit
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
【課題】計測対象物を高精度かつ高密度に三次元計測できなくとも、位置姿勢を高精度に推定できる情報処理装置を提供する。【解決手段】情報処理装置100は、計測対象物が含まれる撮影画像10、11を入力する撮影画像入力部101と、計測対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレート20の情報を入力するテンプレート入力部112と、テンプレートに記述された特徴要素と撮影画像から検出される特徴要素との照合を行って、撮影画像に含まれる計測対象物のマッチング候補を探索する候補探索部113と、検出された特徴要素相互の奥行き相対関係を識別する奥行き識別部114と、奥行き識別部により得られる奥行き相対関係とテンプレートに記述された特徴要素相互の奥行き相対関係とに基づいてマッチング候補の正誤を判定する候補判定部115とを有する。【選択図】図1Provided is an information processing apparatus capable of estimating a position and orientation with high accuracy even if a measurement object cannot be three-dimensionally measured with high accuracy and high density. An information processing apparatus includes a captured image input unit that inputs captured images including a measurement object, and feature elements and feature elements obtained from images obtained by observing the measurement object from a plurality of viewpoints. The template input unit 112 that inputs information of the template 20 having information on the mutual depth relative relationship is collated with the feature element described in the template and the feature element detected from the shot image, and is included in the shot image. A candidate search unit 113 for searching for a matching candidate of the measurement object, a depth identification unit 114 for identifying a depth relative relationship between detected feature elements, and a depth relative relationship obtained by the depth identification unit and features described in the template A candidate determination unit 115 that determines whether a matching candidate is correct or not based on a relative depth relationship between elements. [Selection] Figure 1
Description
本発明は、画像から計測対象の三次元的な位置姿勢情報を取得する情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program that acquire three-dimensional position and orientation information of a measurement target from an image.
近年、ロボットアームを用いて、無作為に配置された部品等の対象の把持や操作を行うため、撮像装置によって対象を撮影して三次元位置姿勢を推定する装置が提案されている。そのような装置では、予め計測対象を複数の視点から観察した画像を複数取得し、視点毎に画像中で検出される輪郭等の二次元特徴量を抽出してテンプレートと呼ばれるルックアップテーブルを生成しておく。装置の実行時には、入力された撮影画像から得られる特徴量とテンプレートに記述されている特徴量とを照合し、最も類似したテンプレートに関連付けられた視点の情報を用いて、計測対象の位置姿勢の概略値を取得する。 2. Description of the Related Art In recent years, there has been proposed an apparatus that uses a robot arm to capture and operate a target such as a randomly placed component and photograph a target with an imaging device to estimate a three-dimensional position and orientation. In such an apparatus, a plurality of images obtained by observing a measurement target from a plurality of viewpoints are acquired in advance, and a two-dimensional feature amount such as a contour detected in the image is extracted for each viewpoint to generate a lookup table called a template. Keep it. At the time of execution of the device, the feature quantity obtained from the input captured image is compared with the feature quantity described in the template, and the position and orientation of the measurement target is determined using the viewpoint information associated with the most similar template. Get an approximate value.
特許文献1には、カメラで撮影して得られた二次元画像に加えて、計測対象を三次元計測して推定される三次元の輪郭と面法線の情報を利用して、誤りのない正しい姿勢を推定する方法が記載されている。 In Patent Document 1, in addition to a two-dimensional image obtained by photographing with a camera, information on a three-dimensional contour and a surface normal estimated by three-dimensional measurement of a measurement target is used, and there is no error. A method for estimating the correct posture is described.
しかしながら、特許文献1に記載の技術では、計測対象物を高精度かつ高密度に三次元計測できないと、位置姿勢の推定精度が低いという問題がある。本発明の目的は、計測対象物を高精度かつ高密度に三次元計測できなくとも、位置姿勢を高精度に推定できる情報処理装置を提供することにある。 However, the technique described in Patent Document 1 has a problem that the position and orientation estimation accuracy is low if the measurement object cannot be three-dimensionally measured with high accuracy and high density. An object of the present invention is to provide an information processing apparatus capable of estimating a position and orientation with high accuracy even if a measurement object cannot be three-dimensionally measured with high accuracy and high density.
本発明に係る情報処理装置は、対象物が含まれる撮影画像を入力する撮影画像入力手段と、対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段とを有することを特徴とする。 An information processing apparatus according to the present invention includes a photographed image input unit that inputs a photographed image including an object, a feature element obtained from images obtained by observing the object from a plurality of viewpoints, and information on a depth relative relationship between the feature elements. A template input unit that inputs information on a template having a feature, and a feature element described in the template and a feature element detected from the photographed image are collated, and a matching candidate for an object included in the photographed image is obtained. Candidate search means for searching, depth identification means for identifying a depth relative relationship between at least two detected feature elements, information on the depth relative relationship obtained by the depth identification means, and features described in the template Candidate determining means for determining whether the matching candidate is correct or not based on information on the relative depth relationship between elements. And wherein the Rukoto.
本発明によれば、高密度かつ高精度に三次元計測を行うことができなくとも、計測対象の位置姿勢を精度良く推定することが可能となる。 According to the present invention, it is possible to accurately estimate the position and orientation of a measurement target even if three-dimensional measurement cannot be performed with high density and high accuracy.
以下、本発明の実施形態を図面に基づいて説明する。
(第1の実施形態)
本発明の第1の実施形態について説明する。本実施形態では、概ね同一平面上に存在する計測対象物の三次元位置姿勢の推定について、単一の撮像装置を用いて計測対象物を撮影する場合に適用できる装置に関して説明する。本実施形態では、撮像装置の焦点距離を変えて撮影した2枚の画像のコントラストに基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
A first embodiment of the present invention will be described. In the present embodiment, a description will be given of an apparatus that can be applied to the case of imaging a measurement object using a single imaging apparatus, for estimation of the three-dimensional position and orientation of the measurement object that exists on substantially the same plane. In the present embodiment, an appropriate one is selected from a plurality of obtained three-dimensional position and orientation candidates based on the contrast of two images taken by changing the focal length of the imaging apparatus. This makes it possible to accurately estimate the position and orientation of the measurement object without providing a three-dimensional measurement apparatus.
図1は、第1の実施形態における装置全体の構成例を示す図である。図1において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101及びテンプレート生成部102を有する。なお、図1に示す構成は一例であり、これに限定されるものではない。
FIG. 1 is a diagram illustrating a configuration example of the entire apparatus according to the first embodiment. In FIG. 1, a rectangular frame indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The apparatus includes an
撮像部101は、三次元位置姿勢を推定する計測対象物を含むシーンを撮像した撮影画像を取得し、その撮影画像を情報処理装置100の撮影画像入力部111に出力する。撮像部101は、その内部に不図示の自動フォーカス制御機構を有し、外部からの制御によりレンズの焦点距離を任意に変更することが可能になっている。本実施形態では、撮像部101は、異なる焦点距離で2枚の撮影画像10及び11を取得する。テンプレート生成部102は、計測対象物201を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係を記述したテンプレート20を生成する。テンプレート生成部102は、生成したテンプレート20を情報処理装置100のテンプレート入力部112に出力する。
The
図2は、第1の実施形態における撮像部101と計測対象物201との関係を説明する図である。平面202上に複数の計測対象物201が無作為に配置され、撮像部101は、その上方から全体を俯瞰した撮影画像10、11を取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に接している。また、撮像部101の光軸と平面202とが略直交するように撮像部101が配置されている。
FIG. 2 is a diagram illustrating the relationship between the
第1の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、及び候補判定部115を有する。撮影画像入力部111は、撮像部101が撮像した撮影画像10及び11を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。テンプレート入力部112は、テンプレート生成部102が生成したテンプレート20を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。
The
候補探索部113は、入力される撮影画像10とテンプレート20とをテンプレートマッチングによって照合し、計測対象物の位置姿勢のマッチング候補を探索する。候補探索部113は、探索結果に基づきマッチング候補リスト40を生成して奥行き識別部40及び候補判定部115に出力する。
The
奥行き識別部114は、撮影画像10、11から検出される特徴要素相互の奥行き相対関係を識別する。奥行き識別部114は、2枚の撮影画像10及び11を参照してテンプレート20に含まれる特徴要素の奥行きの前後関係を識別し、識別した奥行きの前後関係の情報を候補判定部115に出力する。候補判定部115は、奥行き識別部114によって得られる奥行き相対関係とテンプレート20に記述された特徴要素相互の奥行き相対関係とに基づいてマッチング候補の正誤を判定する。候補判定部115は、特徴要素の奥行きの前後関係の情報に基づいて、マッチング候補リスト40に含まれる位置姿勢の正誤を判定し、正しいと判定された位置姿勢の情報のみを最終位置姿勢情報50として出力する。
The
第1の実施形態における動作について説明する。図3は、第1の実施形態における装置の処理の流れを示すフローチャートである。図3(a)には処理全体の流れを示しており、図3(b)には図3(a)に示すステップS301での事前準備の処理の流れを示している。 The operation in the first embodiment will be described. FIG. 3 is a flowchart illustrating a processing flow of the apparatus according to the first embodiment. FIG. 3A shows the flow of the entire process, and FIG. 3B shows the flow of the preparation process in step S301 shown in FIG. 3A.
ステップS301にて、事前準備の処理を行い、テンプレート生成部102が、計測対象物201に係るテンプレート20を生成する。テンプレート生成部102は、情報処理装置100には含まれないので、ステップS301の処理は、本実施形態における処理に先立って事前準備として実施する。なお、テンプレート20が生成された後は、本実施形態の処理を繰り返し行う場合においても、ステップS301の処理は省略可能である。
In step S <b> 301, pre-preparation processing is performed, and the
図3(b)を参照して、ステップS301での事前準備の処理の詳細について説明する。ステップS311にて、テンプレート生成部102は、計測対象物201の三次元モデルを読み込む。ここで三次元モデルは、計測対象物201の設計時に生成されたCADデータであるとし、そのCADデータには、計測対象物201の頂点の三次元座標及び辺や面を構成する頂点のインデックスに関する情報が記述されているものとする。
With reference to FIG.3 (b), the detail of the preparation process in step S301 is demonstrated. In step S <b> 311, the
また、ステップS311にて、テンプレート生成部102は、計測対象物201の三次元モデルを描画するための視点を複数設定する。この視点は、図2に示したような計測対象物201の位置姿勢を推定する状況下で、計測対象物201が実際に取り得る姿勢を網羅した様々な見え方での画像が生成されるように設定する。本実施形態では、計測対象物201を外接球の中心に配置するような正多面体を仮定し、正多面体の頂点の位置に描画のための視点を設定するものとする。また、この後のステップS312において、外接球の半径を変えたもの、視点の画像面内での回転角を変えた画像も描画するため、これらも異なる視点として設定しておく。テンプレート生成部102は、数百から数千程度の数の視点を設定することとなるが、実際に設定する視点は、計測対象物201の大きさや取り得る姿勢、推定に要求される姿勢の分解能等の要因に応じて適宜決定すればよい。
In step S <b> 311, the
ステップS312〜ステップS315の処理は、ステップS311において設定された視点毎に実行され、視点数に等しい回数繰り返し実行される。ステップS312にて、テンプレート生成部102は、ステップS311において設定された視点から計測対象物201の三次元モデルを描画して図4(b)に示すようなテンプレート画像30を生成する。このとき、視点位置から各画素を構成する三次元座標までの奥行き値は不図示の奥行きバッファに保持される。次に、ステップS313にて、テンプレート生成部102は、テンプレート画像30から輪郭411上の画素を規定の数だけサンプリングし、テンプレート20を構成するデータの一部である特徴要素412を抽出する。
The processing from step S312 to step S315 is executed for each viewpoint set in step S311 and is repeatedly executed a number of times equal to the number of viewpoints. In step S312, the
図4(a)は、本実施形態において、テンプレート生成部102がテンプレート画像30を生成する例を示す図である。テンプレート画像30は、例えば計測対象物201の三次元モデルをコンピュータグラフィックスを用いて、ステップS311において設定された視点位置(401〜405等)から描画することによって生成する。図4(b)には、生成されたテンプレート画像30、及び後述する輪郭抽出処理の結果として得られる計測対象物201に係る輪郭411及びサンプリングされた特徴要素412の例を示している。
FIG. 4A is a diagram illustrating an example in which the
図5は、テンプレート生成部102によって生成されるテンプレート20のデータ構造の例を示す図である。テンプレート20は、複数のテンプレート要素の集合体で構成される。個々のテンプレート要素は、テンプレート画像30を生成した視点の位置姿勢と複数の特徴要素412とを有する。個々の特徴要素412は、特徴位置、特徴パラメータ、及び特徴奥行き識別情報を有する。
FIG. 5 is a diagram illustrating an example of a data structure of the
本実施形態においては、特徴位置としてテンプレート画像30から抽出される計測対象物201の輪郭411の画像座標が格納され、特徴パラメータとして輪郭411の勾配の方向を示す値が格納される。テンプレート生成部102は、個々のテンプレート画像30に対して輪郭抽出処理を適用した後、輪郭411を構成している画素を規定の数だけサンプリングして、その画素の座標と輪郭勾配とを算出してテンプレート20に書き込む。
In the present embodiment, image coordinates of the
ステップS314にて、テンプレート生成部102は、ステップS313において抽出した特徴要素412について特徴奥行き識別情報を算出する。テンプレート生成部102は、次のようにして特徴奥行き識別情報を算出する。テンプレート生成部102は、計測対象物201の特徴要素412をサンプリングする際、ステップS312において奥行き値を保持した奥行きバッファを参照して奥行き値を得る。1枚のテンプレート画像30に対して所定数のサンプリングが終了した時点では、特徴要素数と同数の奥行き値が得られていることになる。テンプレート生成部102は、これらの奥行き値に対して「手前」又は「奥」のラベルを割り当てる。本実施形態では、複数の奥行き値に対して、判別分析によって手前、奥を区分するためのしきい値を定める。判別分析では、それぞれ「手前」「奥」のラベルが付与された値からなるグループに対して、それぞれのグループ内分散を最小化させグループ間分散を最大化させるしきい値が決定される。テンプレート生成部102は、しきい値よりも奥行き値が小さいものに「手前」ラベルを付与し、しきい値よりも奥行き値が大きいものに「奥」ラベルを付与し、ラベルの識別情報を特徴奥行き識別情報(ID)としてテンプレート20に書き込む。
In step S314, the
ステップS315では、ステップS311において設定されたすべての視点についてステップS312〜ステップS315の処理が行われた場合、ステップS316に進み、そうでない場合、ステップS312に戻る。ステップS316にて、テンプレート生成部102は、算出されたテンプレート20を不図示の記憶手段に保持する。
In step S315, if the processes in steps S312 to S315 have been performed for all the viewpoints set in step S311, the process proceeds to step S316. If not, the process returns to step S312. In step S316, the
図3(a)に戻り、ステップS302にて、撮像部101は、計測対象物201を含むシーンの画像を撮像する。第1の実施形態において撮像部101は、焦点距離の異なる2枚の撮影画像10及び11を取得して撮影画像入力部111に出力する。撮影画像10は、平面202の位置にフォーカスが合っている状態で撮影された画像であり、撮影画像11は、平面202に対して手前側(計測対象物201の上端)にフォーカスが合っている状態で撮影された画像である。撮影画像入力部111は、入力された撮影画像10、11を候補探索部113及び候補判定部115に供給する。ステップS303にて、テンプレート入力部112は、ステップS316において記録されたテンプレート20を記憶手段から読み込んで情報処理装置100に入力する。
Returning to FIG. 3A, in step S <b> 302, the
ステップS304にて、候補探索部113は、位置姿勢の候補を探索する。候補探索部113は、まず撮影画像10に対して輪郭抽出処理を行う。次に、候補探索部113は、テンプレート20に含まれる各テンプレート要素について、いわゆるテンプレートマッチングによって、撮影画像10上に設定された領域をシフトさせながら輪郭411と撮影画像10から検出される輪郭との類似度を算出する。輪郭411の情報は、特徴要素412中に特徴位置及び特徴パラメータとして記述されている。類似度は、特徴要素412に定義されている輪郭411の位置及び方向が、撮影画像10から検出された輪郭の位置及び方向と一致した場合に高くなるように設定される。すべての特徴要素412の類似度の総和がテンプレート要素、撮影画像10の領域毎に算出される。
In step S304,
候補探索部113は、類似度の総和が所定のしきい値を超えたテンプレート要素をすべてマッチング候補として、マッチング候補リスト40に保持する。マッチング候補リスト40には、テンプレート要素の識別番号、類似度、及び撮影画像10上におけるテンプレートの位置が格納される。テンプレート20は計測対象物201をあらゆる方向の視点から描画することで生成されるため、テンプレート要素に記述されている位置姿勢を計測対象物201の三次元姿勢とみなすことができる。また、計測対象物201の三次元位置は、撮影画像10上で検出されたテンプレート要素の位置と、テンプレート要素に記述されている位置姿勢から算出することができる。例えば、撮影画像10上で検出されたテンプレート要素を代表する中心座標と、テンプレート要素に記述されている位置姿勢から算出される計測対象物201と視点との距離から、計測対象物201の三次元位置を算出可能である。
The
ステップS305にて、奥行き識別部114は、2枚の撮影画像10及び11を参照してテンプレート20に含まれる特徴要素の奥行きの前後関係、つまり特徴要素相互の奥行きの相対関係を識別する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、テンプレート要素中に定義されている特徴要素から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。
In step S <b> 305, the
次に、奥行き識別部114は、撮影画像10及び11を参照し、特徴要素412のコントラストの大小を比較する。本実施形態では、特徴要素412に対応する撮影画像10及び11における画素の輝度を比較することで、それを実現する。具体的には、撮影画像10における輝度が撮影画像11における輝度よりも高い場合、コントラストが高いと判断して値“1”を割り当て、それ以外の場合、コントラストが低いと判断して値“0”を割り当てる。本実施形態において、それぞれの撮影画像のフォーカス位置は、撮影画像10では平面202の位置に設定され、撮影画像11では計測対象物201の上端に設定されている。したがって、撮影画像10のコントラストがより高い場合(すなわち、比較結果を示す値が“1”である場合)、その特徴要素412は相対的に奥側に位置すると判断し、そうでない場合には手前側に位置すると判断する。
Next, the
図6は、奥行き識別部114によって取得されるコントラストの例を示す図である。テンプレート要素に定義されているある特徴要素412の位置を黒丸で示している。図6(a)は撮影画像10でのコントラストの例を示し、図6(b)は撮影画像11でのコントラストの例を示している。図6において、下に示すグラフは、輪郭線411に直交する断面A−B間の輝度変化の例を示すものである。
FIG. 6 is a diagram illustrating an example of contrast acquired by the
図6(a)に示すように撮影画像10においては、計測対象物201の輪郭線411の部分にフォーカスが合っている状態であり、コントラストが高く、特徴要素412の位置(黒丸)での輝度ピークも相対的に大きな値となっている。一方、図6(b)に示すように撮影画像11においては、計測対象物201の輪郭線411からフォーカスが外れた状態であり、コントラストが低く、特徴要素412の位置での輝度ピークも相対的に小さな値となっている。そのため、撮影画像10及び11の特徴要素412の位置での輝度値を比較することは、コントラストを比較することと等価であると見なすことができる。
As shown in FIG. 6A, the captured
次に、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定し、正しいと判断された情報を最終位置姿勢情報50として出力する。候補判定部115は、特徴対に設定されたそれぞれの特徴要素412について、ステップS305において取得されたコントラストの比較結果と特徴奥行き識別情報とを参照し、マッチング候補の姿勢の正誤を判定する。具体的には、特徴奥行き識別情報の「手前」ラベルが付与された特徴要素412について比較結果が0であり、かつ、特徴奥行き識別情報の「奥」ラベルが付与された特徴要素412について比較結果が1であれば、そのマッチング候補は正しいと判断される。
Next, in step S <b> 306, the
本実施形態では、位置姿勢判定の安定性を高めるために、複数の特徴対に対して前述の判定を実施し、正しいと判定される割合が所定のしきい値よりも高い場合、そのマッチング候補を正しいと判定する。これにより、隠れているために観測されない特徴要素やノイズの影響を軽減することが可能となる。候補判定部115は、正しいと判定したマッチング候補に対応する位置姿勢の情報を、最終位置姿勢情報50として出力する。なお、正しいと判定されたマッチング候補が複数存在する場合、候補判定部115は、正しいと判定される割合が最も高いマッチング候補を選択して、対応する位置姿勢の情報を最終位置姿勢情報50とする。
In this embodiment, in order to improve the stability of the position / orientation determination, the above-described determination is performed on a plurality of feature pairs, and when the ratio determined to be correct is higher than a predetermined threshold, the matching candidate Is determined to be correct. This makes it possible to reduce the influence of characteristic elements and noise that are not observed because they are hidden. The
このように第1の実施形態によれば、概ね同一平面上に存在する計測対象物について、三次元計測装置を設けなくとも、単一の撮像装置で計測対象物を撮影することによって三次元位置姿勢を精度良く推定することが可能となる。 As described above, according to the first embodiment, a three-dimensional position can be obtained by photographing a measurement target with a single imaging device without providing a three-dimensional measurement device for the measurement target that exists on substantially the same plane. The posture can be estimated with high accuracy.
なお、前述した例に限らず、第1の実施形態に関して、以下の変形例1〜変形例8を適用するようにしてもよい。各変形例を、単独で適用するようにしてもよいし、組み合わせて適用するようにしてもよい。
[変形例1]テンプレート生成部102によるテンプレート20の生成は、本実施形態での処理に先立って行う例に限らず、ステップS303の段階で行うようにしてもよい。また、テンプレート入力部112がテンプレート生成部102の機能を有し、テンプレート20を生成するようにしてもよい。
In addition to the example described above, the following first to eighth modifications may be applied to the first embodiment. Each modification may be applied alone or in combination.
[Modification 1] The generation of the
[変形例2]テンプレート20を生成する際、撮像部101を所定の位置姿勢に移動させて、計測対象物201を撮影することで撮影画像10を取得してもよい。撮影画像10の撮影時の位置姿勢は、例えば撮像部101の位置姿勢を位置姿勢センサを用いて計測すればよい。また、SfM(Structure from Motion)又はSLAM(Simultaneous Localization And Mapping)技術を利用して、撮影した一連の画像群から撮像部101の位置姿勢を推定してもよい。
[Modification 2] When the
[変形例3]本実施形態において、特徴奥行き識別情報は「手前」又は「奥」の二種類としたが、これを任意の数に設定してもよい。例えば「手前」「奥」に加えて、「中間」のラベルを設定してもよいし、あるいは奥行き値を連続値のまま保持させるようにしてもよい。 [Modification 3] In the present embodiment, the feature depth identification information has two types of “front” and “back”, but may be set to an arbitrary number. For example, in addition to “front” and “back”, a “middle” label may be set, or the depth value may be held as a continuous value.
[変形例4]撮像部201の絞り位置に符号化開口(Coded Aperture)を設け、候補判定部115が撮影画像10に対してブラインドデコンボリューションを適用して、奥行きの概略値を推定するようにしてもよい。この場合、撮像部201では撮影画像を1枚取得すればよいので、撮像部201はフォーカス制御機構を備える必要はない。奥行き推定は、例えばA. Levin et al, Image and Depth from a Conventional Camera with a Coded Aperture, SIGGRAPH 2007に記載の方法を用いればよい。
[Modification 4] A coded aperture is provided at the aperture position of the
[変形例5]テンプレート生成部102が特徴要素を設定するのは計測対象物201の輪郭上に限られるものではなく、例えば計測対象物201の面上に特徴要素412を設定してもよい。
[Modification 5] The
[変形例6]候補探索部113がマッチング候補リスト40を生成するにあたり、位置姿勢の候補だけでなく、計測対象物201の種別を含めるようにしてもよい。複数種類の計測対象物201が存在する場合、その一部あるいはすべての種別のテンプレート20を生成してもよい。この場合、テンプレート要素に計測対象物201の種別を記録するようにすればよい。
[Modification 6] When the
[変形例7]テンプレート生成部102は、計測対象物201のあらゆる見え方の視点を設定しているが、これに限られるものではない。計測対象物201が取り得る位置姿勢が限定される場合については、その位置姿勢に対応する視点に限ってテンプレート画像30を生成するようにしてもよい。これにより、テンプレートの総数が削減されるため、処理速度を向上させることができる。
[Modification 7] The
[変形例8]候補判定部115は、正しいと判定された位置姿勢候補のみを最終位置姿勢情報として出力するが、正誤に関係なくすべての位置姿勢候補と、判定に使用した評価値との組を出力するようにしてもよい。また、候補判定部115は、マッチング候補リスト40に位置姿勢候補が1つしか含まれない場合、その候補の正誤判定結果を出力するようにしてもよい。候補判定部115は、位置と姿勢の各々について評価値を算出し、算出した評価値を出力するようにしてもよい。
[Modification 8] The
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態では、概ね同一平面上に存在する計測対象物の三次元位置姿勢の推定について、2つの撮像装置で計測対象物を撮影する場合に適用できる装置に関して説明する。本実施形態では、2枚の画像中の視差の大小関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the present embodiment, estimation of a three-dimensional position and orientation of a measurement object that exists on substantially the same plane will be described with respect to an apparatus that can be applied when the measurement object is imaged with two imaging devices. In the present embodiment, an appropriate one is selected from a plurality of obtained three-dimensional position / posture candidates based on the magnitude relationship of parallax in two images. This makes it possible to accurately estimate the position and orientation of the measurement object without providing a three-dimensional measurement apparatus.
図7は、第2の実施形態における装置全体の構成例を示す図である。図7において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101、テンプレート生成部102、及び第二撮像部103を有する。なお、図7に示す構成は一例であり、これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。
FIG. 7 is a diagram illustrating a configuration example of the entire apparatus according to the second embodiment. In FIG. 7, a rectangular frame indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The apparatus includes an
本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよく、1枚の撮影画像10を取得する。第二撮像部103は、三次元位置姿勢を推定する計測対象物201を含むシーンを撮像した撮影画像を取得し、その撮像画像を情報処理装置100の第二撮影画像入力部116に出力する。第二撮像部103は、1枚の撮影画像11を取得する。ここで、撮像部101と第二撮像部103とは事前に較正(キャリブレーション)がなされている。複数カメラ間の較正については数多くの手法が提案されているが、いかなる方法を用いてもよい。本実施形態では、撮像部101及び第二撮像部103の各々の内部パラメータ(焦点距離、主点位置、歪み係数)や、外部パラメータ(撮像部101と第二撮像部103間の相対的な三次元位置姿勢)は予め得られており、既知であるものとみなす。
In the present embodiment, the
図8は、第2の実施形態における撮像部101、第二撮像部103、及び計測対象物201の関係を説明する図である。平面202上に複数の計測対象物201が無作為に配置され、撮像部101及び第二撮像部103は、その上方から全体を俯瞰した撮影画像10、11をそれぞれ取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に接している。なお、撮像部101及び第二撮像部103は、その光軸と平面202とが略直交するように配置する必要はない。
FIG. 8 is a diagram illustrating the relationship between the
第2の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、第二撮影画像入力部116、及び第二候補探索部117を有する。第二撮影画像入力部116は、第二撮像部103が撮像した撮影画像11を情報処理装置100内部に取り込んで第二候補探索部117に供給する。
The
第二候補探索部117は、入力される撮影画像11と、マッチング候補リスト40に含まれるマッチング候補の位置姿勢に対応するテンプレート20とをテンプレートマッチングによって照合する。奥行き識別部114は、2枚の撮影画像10及び11を参照して特徴要素412の検出座標の視差を算出し、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。
The second
第2の実施形態における動作について説明する。第2の実施形態における装置の処理の流れは、第1の実施形態と同様である。ただし、処理内容が第1の実施形態とは異なるステップが存在するため、それについて図3(a)を参照して説明する。 The operation in the second embodiment will be described. The processing flow of the apparatus in the second embodiment is the same as that of the first embodiment. However, there are steps whose processing contents are different from those of the first embodiment, which will be described with reference to FIG.
ステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、第二撮像部103も同様に計測対象物201を含むシーンの撮影画像11を撮像する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、第二撮像部103は、撮影画像11を第二撮影画像入力部116に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113及び候補判定部115に供給し、第二撮影画像入力部116は、入力された撮影画像11を第二候補探索部117に供給する。
In step S302, the
本実施形態での撮像部101及び第二撮像部103は較正されているため、第二撮影画像入力部116は、入力される撮影画像11に対して較正時の内部パラメータ及び外部パラメータを用いて平行化を行う。以降、本実施形態では、撮影画像10及び撮影画像11について、エピポーラ線はx軸(横方向)に平行であるものとして説明する。
Since the
また、ステップS304にて、候補探索部113及び第二候補探索部117は、位置姿勢の候補を探索する。候補探索部113が行う処理は、第1の実施形態と同様である。以下、第二候補探索部117が位置姿勢の候補を探索する処理の内容について説明する。第二候補探索部117は、候補探索部113と同様に、まず撮影画像11に対して輪郭抽出処理を行う。そして、テンプレート20に含まれる各テンプレート要素について、撮影画像11における領域をシフトさせながらテンプレートマッチングによって、特徴要素412に定義されている輪郭411と、撮影画像11から検出される輪郭との類似度を算出する。輪郭411の情報は、特徴要素412中に特徴位置及び特徴パラメータとして記述されている。
In step S304,
本実施形態では、既に候補探索部113によってマッチング候補が取得されているので、これを利用して第二候補探索部117の処理を効率的に行う。具体的には、第二候補探索部117は、マッチング候補リスト40からマッチング候補を取り出し、テンプレート要素の識別番号と撮影画像10上における領域の位置とを参照し、撮影画像11上におけるテンプレート要素の位置を推定する。テンプレート要素の識別番号から、そのテンプレート要素の位置姿勢を参照できるので、計測対象物201の三次元位置姿勢が得られることとなる。
In the present embodiment, since the matching candidate has already been acquired by the
この三次元位置姿勢に対して、較正時の外部パラメータを用いて、撮像部101の位置姿勢から第二撮像部103の位置姿勢への三次元変換を求め、第二撮像部103の内部パラメータを用いて撮影画像11に射影する。これにより、撮影画像11上におけるテンプレート要素の位置が得られる。第二候補探索部117は、得られた撮影画像11上におけるテンプレート要素の位置を初期値として、その近傍で撮影画像11に対して候補探索部113と同様にテンプレートマッチングを行う。このようにして、最終的に正確な撮影画像11上におけるテンプレートの位置が算出される。第二候補探索部117は、マッチング候補リスト40に撮影画像11上におけるテンプレート要素位置の座標を記録する。
With respect to this three-dimensional position and orientation, using external parameters at the time of calibration, three-dimensional conversion from the position and orientation of the
また、ステップS305にて、奥行き識別部114は、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10又は撮影画像11上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。
In step S <b> 305, the
次に、奥行き識別部114は、各特徴対について特徴要素412が検出された撮影画像10及び撮影画像11上の視差を比較する。本実施形態において、撮影画像10及び撮影画像11のエピポーラ線はx軸に平行であるため、奥行き識別部114は、特徴要素412における撮影画像10と撮影画像11とのx座標の差を比較する。図9は、第2の実施形態における奥行き識別部114による視差の比較を説明する図である。特徴対を構成する2つの特徴要素412(図中の412aと412b)が検出された撮影画像10及び撮影画像11での検出座標についてx座標の差を求め、視差daと視差dbとを算出する。
Next, the
また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、2枚の撮影画像10と撮影画像11との三角測量に基づき、マッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。
In step S <b> 306, the
具体的には、候補判定部115は、各特徴要素の特徴奥行き識別情報とステップS305において算出された視差daと視差dbの相対的な大小関係とを比較する。図9に示した例において、特徴要素412aの特徴奥行き識別情報が「手前」、特徴要素412bの特徴奥行き識別情報が「奥」であるとする。特徴要素412aと特徴要素412bとの相対的な幾何関係により、手前側に位置する特徴要素412aの視差が、奥側に位置する特徴要素412bの視差より大きくなる。そのため、候補判定部115は、da>dbであれば、そのマッチング候補を正しいと判定し、da<dbであれば、そのマッチング候補を誤りであると判定する。本実施形態では、位置姿勢判定の安定性を高めるために、複数の特徴対に対して前述の判定を実施し、正しいと判定される割合が所定のしきい値よりも高い場合、そのマッチング候補に対応する位置姿勢を正しいと判定する。これにより、隠れているために観測されない特徴要素やノイズの影響を軽減することが可能となる。
Specifically, the
このように第2の実施形態によれば、概ね同一平面上に存在する計測対象物について、2つの撮像装置で計測対象物を撮影することで、三次元計測装置を設けなくとも、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。撮影画像中で特徴要素が検出される座標の差(視差量)のみに基づき比較を行うため、三次元座標を明に算出することがなく、浮動小数演算を行うことなく整数演算のみで実行できるので、処理時間が短縮され処理速度が向上する。さらに、片方の撮影画像上で探索された位置姿勢の候補に基づき、較正時の幾何関係に基づいて他方の撮影画像上での位置を推定し、その近傍に限定して探索を行う。そのため、通常のステレオ計測で必要となる対応探索と比較して処理時間を短縮でき処理速度を向上させることができる。 As described above, according to the second embodiment, the measurement object is photographed with the two imaging devices with respect to the measurement object that is substantially on the same plane, so that the measurement object can be provided without providing a three-dimensional measurement device. It is possible to accurately estimate the three-dimensional position and orientation. Since the comparison is based only on the difference (parallax amount) of the coordinates at which the feature elements are detected in the captured image, the three-dimensional coordinates are not calculated clearly and can be executed only by integer arithmetic without performing floating point arithmetic. Therefore, the processing time is shortened and the processing speed is improved. Furthermore, based on the position and orientation candidates searched on one of the captured images, the position on the other captured image is estimated based on the geometric relationship at the time of calibration, and the search is limited to the vicinity thereof. Therefore, the processing time can be shortened and the processing speed can be improved as compared with the correspondence search required in normal stereo measurement.
なお、前述した例に限らず、第2の実施形態に関して、以下の変形例9、変形例10を適用するようにしてもよく、変形例を単独で適用するようにしてもよいし、組み合わせて適用するようにしてもよい。
[変形例9]第二撮像部103は、撮像部101に対して解像度や光学特性等の性能が低いものを用いてもよく、このようにした場合、本実施形態における装置を安価に実現することが可能となる。
In addition, not only the example mentioned above but regarding the second embodiment, the following modified examples 9 and 10 may be applied, the modified examples may be applied alone, or in combination. You may make it apply.
[Modification 9] The
[変形例10]本実施形態において、撮像部101と第二撮像部103との較正は必ずしも精密に行われなくてもよい。候補判定部115は特徴対の前後関係のみを判定しているのであるから、撮像部101と第二撮像部103の内部パラメータ及び外部パラメータは特徴対の前後関係の区別がつけられる程度の精度があればよい。
[Modification 10] In this embodiment, the
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、三次元計測装置によって計測される三次元座標が疎である場合に適用できる装置に関して説明する。本実施形態では、三次元計測装置によって計測された疎な三次元座標から、特徴要素位置における三次元座標を推定する。推定された三次元座標の前後関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置によって計測される三次元座標が疎であるような状況においても、計測対象の位置姿勢を精度良く推定することが可能となる。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the present embodiment, the estimation of the three-dimensional position and orientation of the measurement object will be described with respect to an apparatus applicable when the three-dimensional coordinates measured by the three-dimensional measurement apparatus are sparse. In the present embodiment, the three-dimensional coordinates at the feature element positions are estimated from the sparse three-dimensional coordinates measured by the three-dimensional measuring apparatus. Based on the estimated context of the three-dimensional coordinates, an appropriate one is selected from a plurality of obtained three-dimensional position and orientation candidates. This makes it possible to accurately estimate the position and orientation of the measurement target even in a situation where the three-dimensional coordinates measured by the three-dimensional measurement apparatus are sparse.
図10は、第3の実施形態における装置全体の構成例を示す図である。図10において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101、テンプレート生成部102、及び三次元計測部104を有する。なお、図10に示す構成は一例であり、これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。
FIG. 10 is a diagram illustrating a configuration example of the entire apparatus according to the third embodiment. In FIG. 10, a rectangular frame indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The apparatus includes an
本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよく、1枚の撮影画像10を取得する。三次元計測部104は、計測対象物201表面の三次元座標を計測して、計測した三次元座標1101を三次元座標入力部118に出力する。本実施形態では、一例として三次元計測部104としてマルチスリット投影三次元計測装置を用い、撮影画像10の解像度に対して、投影スリットに平行な方向には密であるが垂直な方向には疎となる三次元座標1101を取得するものとする。
In the present embodiment, the
図11は、第3の実施形態における撮像部101、三次元計測部104、及び計測対象物201の関係を説明する図である。複数の計測対象物201が存在し、撮像部101は、その上方から全体を俯瞰した撮影画像10を取得する。また、三次元計測部104は、複数のスリット光を計測対象物201に対して投影し、投影スリット線1102上の三次元位置を三次元座標1101の集合として取得する。個々の計測対象物201は無作為に様々な位置姿勢を取り、概ね同一平面上に存在していなくともよく、互いに重なり合う状況も生じ得る。なお、撮像部101は、その光軸と計測対象物201が載置される平面とが略直交するように配置する必要はない。
FIG. 11 is a diagram illustrating the relationship among the
ここで、撮像部101と三次元計測部104とは事前に較正(キャリブレーション)がなされている。カメラ等の撮像部101と三次元計測装置等の三次元計測部104との間の較正については数多くの手法が提案されているが、いかなる方法を用いてもよい。本実施形態では、撮像部101の内部パラメータ(焦点距離、主点位置、歪み係数)及び撮像部101と三次元計測部104間の相対的な三次元位置姿勢は予め得られており、既知であるものとみなす。
Here, the
第3の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、及び三次元座標入力部118を有する。撮影画像入力部111は、撮像部101が撮像した撮影画像10を情報処理装置100内部に取り込んで候補探索部113、候補判定部115、及び奥行き識別部114に供給する。三次元座標入力部118は、三次元計測部104が計測した三次元座標1101を情報処理装置100内部に取り込んで奥行き識別部114に供給する。
The
奥行き識別部114は、撮影画像10、三次元座標1101、テンプレート20、及びマッチング候補リスト40を用いて、計測対象物201の特徴要素位置における特徴要素三次元座標1201を複数推定する。そして、奥行き識別部114は、これらの位置関係に基づき、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。
The
第3の実施形態における動作について説明する。第3の実施形態における装置の処理の流れは、第1の実施形態と同様である。ただし、処理内容が第1の実施形態とは異なるステップが存在するため、それについて図3(a)を参照して説明する。 The operation in the third embodiment will be described. The processing flow of the apparatus in the third embodiment is the same as that in the first embodiment. However, there are steps whose processing contents are different from those of the first embodiment, which will be described with reference to FIG.
ステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、三次元計測部104は、計測対象物201上の三次元座標1101を計測する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、三次元計測部104は、三次元座標1101を三次元座標入力部118に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113、奥行き識別部114、及び候補判定部115に供給する。また、三次元座標入力部118は、入力された三次元座標1101を奥行き識別部114に供給する。
In step S <b> 302, the
また、ステップS305にて、奥行き識別部114は、三次元座標1101及びテンプレート20を参照して、撮影画像10における特徴要素三次元座標1201を推定する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、候補探索部113によって抽出された撮影画像10の輪郭と、テンプレート要素中に定義されている特徴要素412、三次元座標1101とを参照して、特徴要素三次元座標1201を算出する。
In step S305, the
図12は、本実施形態での特徴要素三次元座標1201の取得方法を説明する図である。奥行き識別部114は、計測対象物201上の三次元座標1101を用いて、撮影画像10における特徴要素412の位置における三次元座標である特徴要素三次元座標1201を取得する。図12において、特徴要素412と特徴要素三次元座標1201は同一の場所に存在する。特徴要素412の位置での特徴要素三次元座標1201は、この段階では未知である。そのため、奥行き識別部114は、周囲の三次元座標1101を用いて、特徴要素三次元座標1201を推定する。
FIG. 12 is a diagram illustrating a method for acquiring the feature element three-
具体的には、奥行き識別部114は、候補探索部113において抽出された撮影画像10の輪郭411について、同一輪郭上で計測された特徴要素412近傍の三次元座標1101を探索する。図12において、輪郭411上の2つの黒丸が探索された近傍の三次元座標1101a、1101bを表している。次に、奥行き識別部114は、撮像部101の内部パラメータ、及び撮像部101と三次元計測部104との間の外部パラメータを用いて、三次元座標1101a、1101bが撮影画像10に投影される画像座標を算出する。奥行き識別部114は、特徴要素の画像座標と三次元座標1101a、1101bが撮影画像10に投影される画像座標との距離を各々算出し、三次元座標1101a、1101bを算出した2つの距離で内分することで特徴要素三次元座標1201を算出する。
Specifically, the
次に、奥行き識別部114は、第1の実施形態と同様に、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。
Next, as in the first embodiment, the
また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、各特徴対についてステップS305において算出された特徴要素三次元座標1201と、特徴奥行き識別情報とを比較する。「手前」ラベルが付与された特徴要素412に対応する特徴要素三次元座標1201が「奥」ラベルが付与された特徴要素412に対応する特徴要素三次元座標1201よりも視点に近い値であれば、候補判定部115は、そのマッチング候補を正しいと判定する。候補判定部115は、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。
In step S <b> 306, the
このように第3の実施形態によれば、三次元計測装置によって計測される三次元座標が疎であるような状況においても、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第3の実施形態に関して、以下の変形例11を適用するようにしてもよい。
[変形例11]奥行き識別部114は、撮影画像10において特徴要素412が検出される位置での三次元座標として特徴要素三次元座標1201を推定するが、輪郭411上で計測された三次元座標1101をそのまま用いるようにしてもよい。この場合、候補判定部115は、特徴要素412ではなく、輪郭411の前後関係を判定するようにすればよい。また、テンプレート生成部102は、輪郭411上のサンプル点ではなく、輪郭を構成する直線(線分)に対して特徴奥行き識別情報を算出すればよい。
Thus, according to the third embodiment, it is possible to accurately estimate the three-dimensional position and orientation of the measurement object even in a situation where the three-dimensional coordinates measured by the three-dimensional measurement apparatus are sparse. Become. In addition to the example described above, the following
[Modification 11] The
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、計測対象物に係る三次元座標を1点のみ計測する場合に適用できる装置に関して説明する。本実施形態では、複数得られた三次元位置姿勢の候補の中から、1点の三次元座標と既知の平面との距離に基づいて適切なものを選択する。これにより、計測できる三次元座標が1点であるような状況においても、計測対象の位置姿勢を精度良く推定することが可能となる。なお、第4の実施形態における装置全体の構成は、図10に示した第3の実施形態における構成と同様である。以下では、第3の実施形態と異なる部分について説明し、第3の実施形態と同様の部分については説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. In this embodiment, estimation of the three-dimensional position and orientation of the measurement target will be described with respect to an apparatus that can be applied when measuring only one point of the three-dimensional coordinates related to the measurement target. In the present embodiment, an appropriate one is selected from a plurality of obtained three-dimensional position / posture candidates based on the distance between one point of three-dimensional coordinates and a known plane. This makes it possible to accurately estimate the position and orientation of the measurement target even in a situation where the three-dimensional coordinates that can be measured are one point. Note that the overall configuration of the apparatus in the fourth embodiment is the same as the configuration in the third embodiment shown in FIG. Below, a different part from 3rd Embodiment is demonstrated and description is abbreviate | omitted about the part similar to 3rd Embodiment.
三次元計測部104は、計測対象物201の表面の三次元座標を計測して、計測した三次元座標1101を三次元座標入力部118に出力する。本実施形態では、一例として三次元計測部104としてスポット投影三次元計測装置を用い、計測対象物201の表面の1点について、三次元座標1101を取得する。奥行き識別部114は、1点の三次元座標1101と平面202との間の距離に基づいて、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。
The three-
図13は、第4の実施形態における撮像部101、三次元計測部104、及び計測対象物201の関係を説明する図である。複数の計測対象物201が無作為に配置され、撮像部101は、その上方から全体を俯瞰した撮影画像10を取得する。また、三次元計測部104は、スポット光を計測対象物201に対して投影し、投影スポット上の三次元位置を三次元座標1101として取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に存在する。また、三次元計測部104から平面202までの距離は予め計測しておく。これは計測対象物201を配置しない状態で三次元座標1101を計測し、その値を保持することで実現される。
FIG. 13 is a diagram for explaining a relationship among the
第4の実施形態における動作について説明する。第4の実施形態における装置の処理の流れは、第3の実施形態と同様である。ただし、処理内容が第3の実施形態とは異なるステップが存在するため、それについて図3(a)及び図3(b)を参照して説明する。 The operation in the fourth embodiment will be described. The processing flow of the apparatus in the fourth embodiment is the same as that of the third embodiment. However, there are steps whose processing contents are different from those of the third embodiment, which will be described with reference to FIGS. 3 (a) and 3 (b).
図3(b)におけるステップS313にて、テンプレート生成部102は、テンプレート画像30から特徴要素412を抽出する。このとき、計測対象物201の輪郭411上の画素だけでなく、面上の画素についてもサンプリングを行う。
In step S <b> 313 in FIG. 3B, the
また、ステップS314にて、テンプレート生成部102は、ステップS313において抽出した特徴要素412について特徴奥行き識別情報を算出する。テンプレート生成部102は、次のようにして特徴奥行き識別情報を算出する。テンプレート生成部102は、計測対象物201の特徴要素412をサンプリングする際、ステップS312において奥行き値を保持した奥行きバッファを参照して奥行き値を得る。1枚のテンプレート画像30に対して所定数のサンプリングが終了した時点では、特徴要素数と同数の奥行き値が得られていることになる。テンプレート生成部102は、これらの奥行き値を最奥部の面からの距離に変換する。図13において、計測対象物201は平面202上に置かれているので、視点から観測される計測対象物201は最奥面が平面202に接することとなる。テンプレート生成部102は、サンプリングされた特徴要素412における奥行きと、最奥面(すなわち、計測対象物201が平面202上に置かれたとき、平面202と接する面)との距離を算出し、特徴奥行き識別情報としてテンプレート20に書き込む。
In step S314, the
また、図3(a)におけるステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、三次元計測部104は、計測対象物201上の三次元座標1101を計測する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、三次元計測部104は、三次元座標1101を三次元座標入力部118に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113及び奥行き識別部114に供給する。また、三次元座標入力部118は、入力された三次元座標1101を奥行き識別部114に供給する。
Further, in step S302 in FIG. 3A, the
また、ステップS305にて、奥行き識別部114は、三次元座標1101及びテンプレート20を参照して、撮影画像10における特徴要素三次元座標1201を推定する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。次に、奥行き識別部114は、テンプレート要素中に定義されている位置姿勢を基に、撮影画像10上で検出されたスポット光の画像座標の最近傍の特徴要素412を探索する。奥行き識別部114は、入力された三次元座標1101と、事前に算出した三次元計測部104−平面202間の距離とを参照して、三次元座標1101−平面202間の距離を算出する。
In step S305, the
また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、ステップS305において算出された三次元座標1101−平面202間の距離と、テンプレート20に記述されている特徴奥行き識別情報とを比較する。候補判定部115は、これらの値の差が一定のしきい値以内(すなわち、しきい値の範囲で概略等しいと見なせる状態)であれば、候補判定部115は、そのマッチング候補を正しいと判定する。候補判定部115は、正しいと判定されたマッチング候補に対応する位置姿勢の情報を、最終位置姿勢情報50として出力する。
In step S <b> 306, the
このように第4の実施形態によれば、計測できる三次元座標が1点であるような状況においても、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第4の実施形態に関して、以下の変形例12を適用するようにしてもよい。
[変形例12]本実施形態においてテンプレート生成部102は、計測対象物201の最奥面と特徴要素の奥行き値との差を特徴奥行き識別情報として算出したが、これに限られるものではない。物理シミュレーションを用いて計測対象物201が平面202に接する面を特定し、その面と特徴要素の奥行き値との差を算出するようにしてもよい。
As described above, according to the fourth embodiment, it is possible to accurately estimate the three-dimensional position and orientation of the measurement object even in a situation where the number of three-dimensional coordinates that can be measured is one point. Note that the present invention is not limited to the example described above, and the following modification 12 may be applied to the fourth embodiment.
[Modification 12] In the present embodiment, the
(第5の実施形態)
次に、本発明の第5の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、単一の撮像部が移動しながら連続的に複数の撮影画像を取得する場合に適用できる装置に関して説明する。本実施形態では、単一の撮像部がロボットハンド等の駆動部に取り付けられ、駆動部が連続的に動作する過程で視点位置の異なる画像が複数撮影される。過去の撮影画像と現在の撮影画像との視差の大小関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described. In the present embodiment, the estimation of the three-dimensional position and orientation of the measurement target will be described with respect to an apparatus that can be applied to a case where a plurality of captured images are acquired continuously while a single imaging unit moves. In the present embodiment, a single imaging unit is attached to a drive unit such as a robot hand, and a plurality of images with different viewpoint positions are captured in the process of the drive unit continuously operating. An appropriate one is selected from a plurality of obtained three-dimensional position and orientation candidates based on the magnitude relationship of the parallax between the past captured image and the current captured image. This makes it possible to accurately estimate the position and orientation of the measurement object without providing a three-dimensional measurement apparatus.
図14は、第5の実施形態における装置全体の構成例を示す図である。図14において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101及びテンプレート生成部102を有する。なお、図14に示す構成は一例であり。これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。
FIG. 14 is a diagram illustrating a configuration example of the entire apparatus according to the fifth embodiment. In FIG. 14, a rectangular frame indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The apparatus includes an
撮像部101は、三次元位置姿勢を推定する計測対象物201を含むシーンを撮像した撮影画像10を取得する。撮像部101は、不図示の駆動部に取り付けられており、駆動部が連続的に動作することによって時系列で視点位置の異なる複数の撮影画像10が取得される。また、撮像部101は、不図示の位置姿勢センサを有しており、駆動部の動きに応じて撮影画像10と同期した撮影画像位置姿勢情報14を取得する。撮像部101は、取得した撮影画像10及び撮影画像位置姿勢情報14を、情報処理装置100の撮影画像入力部111に出力する。なお、本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよい。
The
第5の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、及び候補保持部119を有する。撮影画像入力部111は、撮像部101が取得した撮影画像10及び撮影画像位置姿勢情報14を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。
The
候補探索部113は、入力される撮影画像10とテンプレート20とをテンプレートマッチングによって照合し、計測対象物のマッチング候補リスト40を生成して出力する。候補探索部113には、常に最新の撮影画像10及び撮影画像位置姿勢情報14が入力され、その時点におけるマッチング候補リスト40が生成される。また、候補探索部113は、撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を候補保持部119に出力する。
The
候補保持部119は、候補探索部113が過去に入力や生成した撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を保持する。候補判定部115は、候補探索部113が出力する最新の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40が入力される。また、候補判定部115は、候補保持部119が保持する過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40が入力される。候補判定部115は、入力されるこれらの情報に基づいて、最新のマッチング候補リスト40に含まれるマッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報のみを最終位置姿勢情報50として出力する。
The
第5の実施形態における動作について説明する。図15は、第5の実施形態における装置の処理の流れを示すフローチャートである。ステップS1501での事前準備の処理の流れは、図3(b)に示した第1の実施形態における事前準備の処理と同様である。 The operation in the fifth embodiment will be described. FIG. 15 is a flowchart showing the flow of processing of the apparatus in the fifth embodiment. The flow of the preparation process in step S1501 is the same as the preparation process in the first embodiment shown in FIG.
本実施形態においては、第1の実施形態におけるステップS302の処理に対応するステップS1503の処理は幾度も繰り返される。それに対して、第1の実施形態におけるステップS303の処理に対応するステップS1502の処理は、本装置の起動時に一度のみ処理すればよい。そのため、第5の実施形態では、ステップS1502にてテンプレート20の入力を行った後に、ステップS1503にて撮影画像10及び撮影画像位置姿勢情報14の入力を実行する。
In the present embodiment, the process of step S1503 corresponding to the process of step S302 in the first embodiment is repeated many times. On the other hand, the process of step S1502 corresponding to the process of step S303 in the first embodiment may be processed only once when the apparatus is activated. Therefore, in the fifth embodiment, after the
ステップS1503にて、撮像部101は、計測対象物201を含むシーンの画像を撮像するとともに、これと同期して撮像部101の位置姿勢情報を取得する。撮像部101は、取得した撮影画像10及び撮影画像位置姿勢情報14を撮影画像入力部111に出力する。撮影画像入力部111は、入力された撮影画像10及び撮影画像位置姿勢情報14を候補探索部113及び候補判定部115に供給する。
In step S1503, the
ステップS1504にて、候補探索部113は、第1の実施形態と同様にして位置姿勢の候補を探索する。次に、ステップS1505にて、奥行き識別部114は、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。なお、候補保持部119が過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を保持していない場合(すなわち、初回実行時)には、ステップS1505及びステップS1506の処理を行わずにステップS1508に進む。
In step S1504, the
ステップS1504では、奥行き識別部114は、まず候補探索部113から入力されたマッチング候補リスト40から位置姿勢候補を1つ取り出す。次に、奥行き識別部114は、候補探索部113から現在の撮影画像10及び撮影画像位置姿勢情報14を入力する。同時に、候補保持部119から、過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を入力する。
In step S1504, the
奥行き識別部114は、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素を1つずつ抽出して特徴対を構成する。なお、現在の撮影画像10又は過去の撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。
The
また、奥行き識別部114は、現在の撮影画像位置姿勢情報14及び過去の撮影画像位置姿勢情報14を参照して、過去の撮影画像10を平行化する。これにより、現在の撮影画像10及び過去の撮影画像10のエピポーラ線がx軸に平行な状態となる。奥行き識別部114は、各特徴対について特徴要素412が検出された現在の撮影画像10と過去の撮影画像10上の視差(すなわち、それぞれ検出されたx座標の差)を比較する。2画像の視差の比較は、第2の実施形態と同様の方法で行えばよい。
In addition, the
ステップS1506にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、2枚の画像(現在の撮影画像10及び過去の撮影画像10)の三角測量に基づき、マッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。
In step S <b> 1506, the
ステップS1507にて、候補保持部119は、候補探索部113から入力される最新のマッチング候補リスト40、撮影画像10、及び撮影画像位置姿勢情報14を保持する。これらの値は、次回のステップS1506の処理を実行する際に参照される。ステップS1508にて、ユーザからの指示に基づき、本実施形態の三次元位置姿勢の推定処理を終了する、又はステップS1503に戻って処理を継続する。
In step S <b> 1507, the
このように第5の実施形態によれば、単一の撮像部が移動しながら連続的に複数の撮影画像を取得することによって、三次元計測装置を設けなくとも、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第5の実施形態に関して、以下の変形例12を適用するようにしてもよい。
[変形例12]本実施形態においては、撮像部101が位置姿勢センサによって撮影画像位置姿勢情報14を取得するようにしているが、これに限定されるものではない。SfMあるいはSLAM技術を用いて、撮影画像10上で検出される特徴点座標に基づき、撮影画像入力部111が撮影画像位置姿勢情報14を生成するようにしてもよい。
As described above, according to the fifth embodiment, the three-dimensional position of the measurement object can be obtained without providing a three-dimensional measurement device by continuously acquiring a plurality of captured images while the single imaging unit moves. The posture can be estimated with high accuracy. The following modified example 12 may be applied to the fifth embodiment, not limited to the example described above.
[Modification 12] In the present embodiment, the
(第6の実施形態)
次に、本発明の第6の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定結果を用いて、ロボット等の駆動部が計測対象物を把持する場合に適用できる物体把持装置に関して説明する。本実施形態については、第5の実施形態と異なる部分についてのみ説明する。
(Sixth embodiment)
Next, a sixth embodiment of the present invention will be described. In the present embodiment, an object gripping apparatus that can be applied when a driving unit such as a robot grips a measurement target object using the estimation result of the three-dimensional position and orientation of the measurement target object will be described. In the present embodiment, only portions different from the fifth embodiment will be described.
本実施形態においては、三次元位置姿勢の推定を行う情報処理装置100の外部に不図示の制御部を備え、出力される最終位置姿勢情報50を基に駆動部に対して最終目的位置姿勢情報を生成する。この最終目的位置姿勢情報は、駆動部が有するエンドエフェクター(不図示)が計測対象物201を把持することができるようにする位置姿勢情報である。最終目的位置姿勢情報に関しては、最終位置姿勢情報50に対して所定の三次元変換を適用することで生成される。所定の三次元変換は、計測対象物201の形状とエンドエフェクターとの関係から定義され、そのエンドエフェクターが計測対象物201を把持するのに最も適した駆動部の位置姿勢を、計測対象物201の座標系において表したものである。所定の三次元変換は、本実施形態における処理の開始前に予め算出しておき、処理開始時にパラメータとして装置に入力される。
In the present embodiment, a control unit (not shown) is provided outside the
このように第6の実施形態によれば、最終位置姿勢情報50として出力される計測対象物の三次元位置姿勢の推定結果を用いて、最終目的位置姿勢情報を生成することで、ロボット等の駆動部が計測対象物を把持することが可能となる。
As described above, according to the sixth embodiment, the final target position / orientation information is generated by using the estimation result of the three-dimensional position / orientation of the measurement object output as the final position /
なお、「撮影画像入力部111」は、撮像部101が撮影した画像を情報処理装置100に入力できるものであれば、いかなるものでもよい。また、入力する画像においても、RGBカラー画像、グレイスケール画像、白黒画像、奥行き画像等、いかなる種類の画像でもよい。また、「特徴要素」は、画像中で検出される要素であれば何でもよく、点に限られず、線や円、矩形等の領域によって定義されるものであってもよい。また、「特徴要素」は、計測対象物を複数の視点から観測した画像から得ることができるものであり、各実施形態では計測対象物のCADモデルをレンダリングして生成する構成について説明したが、これに限られるものではない。例えば変形例2として説明したように、実際の計測対象物を複数の方向から撮影し、位置姿勢と対応づけてテンプレートを生成するようにしてもよい。
The “captured
また、「候補探索部113」は、入力した撮影画像から計測対象物の位置姿勢の候補を探索する構成に限られるものではない。例えば変形例6として示したように、位置姿勢に加えて計測対象物の種別を位置姿勢の候補に含め、計測対象物の種別を探索するような構成も含めることが可能である。また、「候補判定部115」は、検出された特徴要素相互の奥行き相対関係とテンプレートに記述された特徴要素相互の奥行き相対関係に基づいて、マッチング候補の正誤を判定するが、この特徴要素相互の奥行き相対関係には様々なものを用いることができる。また、「候補判定部115」は、マッチング候補の正誤判定の結果、正しいと判定されたマッチング候補を最終位置姿勢情報として出力するが、評価値等の中間結果を出力するようにしてもよい。例えば変形例8に一例を示したように、すべてのマッチング候補を出力する構成、評価値を含めて出力する構成、位置、姿勢の評価値をそれぞれ出力する構成等を適用可能である。
Further, the “
(本発明の他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments of the present invention)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
例えば、前述した各実施形態に示した情報処理装置は、図16に示すようなコンピュータ機能1600を有し、そのCPU1601により各実施形態での動作が実施される。コンピュータ機能1600は、図16に示すように、CPU1601と、ROM1602と、RAM1603とを備える。また、操作部(CONS)1609のコントローラ(CONSC)1605と、CRTやLCD等の表示部としてのディスプレイ(DISP)1610のディスプレイコントローラ(DISPC)1606とを備える。さらに、ハードディスク(HD)1611、及びフレキシブルディスク等の記憶デバイス(STD)1612のコントローラ(DCONT)1607と、ネットワークインタフェースカード(NIC)1608とを備える。それら機能部1601、1602、1603、1605、1606、1607、1608は、システムバス1604を介して互いに通信可能に接続された構成としている。
For example, the information processing apparatus shown in each embodiment described above has a
CPU1601は、ROM1602又はHD1611に記憶されたソフトウェア、又はSTD1612より供給されるソフトウェアを実行することで、システムバス1604に接続された各構成部を総括的に制御する。すなわち、CPU1601は、前述したような動作を行うための処理プログラムを、ROM1602、HD1611、又はSTD1612から読み出して実行することで、前述した各実施形態での動作を実現するための制御を行う。RAM1603は、CPU1601の主メモリ又はワークエリア等として機能する。CONSC1605は、CONS1609からの指示入力を制御する。DISPC1606は、DISP1610の表示を制御する。DCONT1607は、ブートプログラム、種々のアプリケーション、ユーザファイル、ネットワーク管理プログラム、及び前述した各実施形態における前記処理プログラム等を記憶するHD1611及びSTD1612とのアクセスを制御する。NIC1608はネットワーク1613上の他の装置と双方向にデータをやりとりする。
The
なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
100:情報処理装置 101:撮像部 102:テンプレート生成部 103:第二撮像部 104:三次元計測部 111:撮影画像入力部 112:テンプレート入力部 113:候補探索部 114:奥行き識別部 115:候補判定部 116:第二撮影画像入力部 117:第二候補探索部 118:三次元座標入力部 119:候補保持部 201:計測対象物 DESCRIPTION OF SYMBOLS 100: Information processing apparatus 101: Image pick-up part 102: Template production | generation part 103: 2nd image pick-up part 104: Three-dimensional measurement part 111: Captured image input part 112: Template input part 113: Candidate search part 114: Depth identification part 115: Candidate Determination unit 116: second captured image input unit 117: second candidate search unit 118: three-dimensional coordinate input unit 119: candidate holding unit 201: measurement object
Claims (11)
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、
前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段とを有することを特徴とする情報処理装置。 A photographed image input means for inputting a photographed image including the object;
A template input means for inputting information of a template having information on a feature element obtained from images obtained by observing the object from a plurality of viewpoints and a depth relative relationship between the feature elements;
Candidate search means for collating the feature elements described in the template with the feature elements detected from the photographed image and searching for matching candidates for the object included in the photographed image;
Depth identification means for identifying a depth relative relationship between at least two of the detected features;
Candidate determining means for determining whether the matching candidate is correct or not based on information on the relative depth relation obtained by the depth identifying means and information on the relative depth relation between the feature elements described in the template. A characteristic information processing apparatus.
前記テンプレートに記述された特徴要素と前記第二の撮影画像から検出される特徴要素との照合を行って、前記マッチング候補の中から前記第二の撮影画像に含まれる対象物のマッチング候補を探索する第二の候補探索部とを有することを特徴とする請求項1又は2記載の情報処理装置。 A second photographed image input means for inputting a second photographed image containing the object;
The feature element described in the template is matched with the feature element detected from the second photographed image, and the matching candidate of the object included in the second photographed image is searched from the matching candidates. The information processing apparatus according to claim 1, further comprising: a second candidate search unit that performs the processing.
前記奥行き識別手段は、前記三次元座標に基づいて前記検出された特徴要素の三次元位置を推定し、前記三次元位置の比較に基づいて奥行き相対関係を識別することを特徴とする請求項1又は2記載の情報処理装置。 Having a three-dimensional measuring means for measuring the three-dimensional coordinates of the object;
The depth identifying means estimates a three-dimensional position of the detected feature element based on the three-dimensional coordinates, and identifies a depth relative relation based on the comparison of the three-dimensional positions. Or the information processing apparatus of 2.
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、
前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段と、
前記対象物を把持する駆動手段と、
前記駆動手段の目的位置姿勢情報を生成する制御手段とを有し、
前記候補判定手段は、前記マッチング候補が前記撮影画像から検出された特徴要素における前記奥行き相対関係の情報と、前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とが一致した場合、前記マッチング候補を正しいと判定し、
前記制御手段は、正しいと判定された前記マッチング候補に対応する前記対象物の位置姿勢情報に基づき、前記対象物を把持するための前記目的位置姿勢情報を生成することを特徴とする物体把持装置。 A photographed image input means for inputting a photographed image including the object;
A template input means for inputting information of a template having information on a feature element obtained from images obtained by observing the object from a plurality of viewpoints and a depth relative relationship between the feature elements;
Candidate search means for collating the feature elements described in the template with the feature elements detected from the photographed image and searching for matching candidates for the object included in the photographed image;
Depth identification means for identifying a depth relative relationship between at least two of the detected features;
Candidate determination means for determining whether the matching candidate is correct or not based on information on the relative depth relation obtained by the depth identification means and information on the relative depth relation between feature elements described in the template;
Drive means for gripping the object;
Control means for generating target position and orientation information of the driving means,
The candidate determination unit, when the information on the relative depth relationship in the feature element in which the matching candidate is detected from the captured image matches the information on the relative depth relationship between the feature elements described in the template, The matching candidate is determined to be correct,
The control means generates the target position and orientation information for gripping the target object based on the position and orientation information of the target object corresponding to the matching candidate determined to be correct. .
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力工程と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索工程と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別工程と、
前記奥行き識別工程で得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定工程とを有することを特徴とする情報処理方法。 A photographed image input step for inputting a photographed image including the object;
A template input step of inputting information of a template having information on a feature element obtained from images obtained by observing an object from a plurality of viewpoints and a depth relative relationship between the feature elements;
A candidate search step of performing a matching between the feature element described in the template and the feature element detected from the photographed image, and searching for a matching candidate of an object included in the photographed image;
A depth identification step for identifying a depth relative relationship between at least two of the detected features;
A candidate determining step of determining whether the matching candidate is correct or not based on the information on the relative depth relationship obtained in the depth identifying step and the information on the relative depth relationship between the feature elements described in the template. A characteristic information processing method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017098251A JP2018195070A (en) | 2017-05-17 | 2017-05-17 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017098251A JP2018195070A (en) | 2017-05-17 | 2017-05-17 | Information processing apparatus, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018195070A true JP2018195070A (en) | 2018-12-06 |
Family
ID=64570315
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017098251A Withdrawn JP2018195070A (en) | 2017-05-17 | 2017-05-17 | Information processing apparatus, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018195070A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020153682A (en) * | 2019-03-18 | 2020-09-24 | 株式会社キーエンス | Image measuring device |
| CN113639630A (en) * | 2021-04-01 | 2021-11-12 | 浙江大学台州研究院 | Dimensional measuring instrument system based on multi-template matching and auto-focus function |
| CN114979618A (en) * | 2021-02-22 | 2022-08-30 | 株式会社东芝 | Measurement system and recording medium having measurement program recorded thereon |
| WO2022254725A1 (en) * | 2021-06-04 | 2022-12-08 | ファナック株式会社 | Workpiece detection system |
| KR102483078B1 (en) * | 2021-10-20 | 2022-12-29 | 금정현 | Providing method, apparatus and computer-readable medium of a real-time depth-based image synthesis between a background including a stereoscopic image and an object during shooting |
-
2017
- 2017-05-17 JP JP2017098251A patent/JP2018195070A/en not_active Withdrawn
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020153682A (en) * | 2019-03-18 | 2020-09-24 | 株式会社キーエンス | Image measuring device |
| JP7240913B2 (en) | 2019-03-18 | 2023-03-16 | 株式会社キーエンス | Image measuring device |
| CN114979618A (en) * | 2021-02-22 | 2022-08-30 | 株式会社东芝 | Measurement system and recording medium having measurement program recorded thereon |
| CN113639630A (en) * | 2021-04-01 | 2021-11-12 | 浙江大学台州研究院 | Dimensional measuring instrument system based on multi-template matching and auto-focus function |
| WO2022254725A1 (en) * | 2021-06-04 | 2022-12-08 | ファナック株式会社 | Workpiece detection system |
| JPWO2022254725A1 (en) * | 2021-06-04 | 2022-12-08 | ||
| CN116997926A (en) * | 2021-06-04 | 2023-11-03 | 发那科株式会社 | Workpiece inspection system |
| JP7688123B2 (en) | 2021-06-04 | 2025-06-03 | ファナック株式会社 | Workpiece Inspection System |
| KR102483078B1 (en) * | 2021-10-20 | 2022-12-29 | 금정현 | Providing method, apparatus and computer-readable medium of a real-time depth-based image synthesis between a background including a stereoscopic image and an object during shooting |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN110702111B (en) | Simultaneous localization and map creation (SLAM) using dual event cameras | |
| JP5618569B2 (en) | Position and orientation estimation apparatus and method | |
| JP4677536B1 (en) | 3D object recognition apparatus and 3D object recognition method | |
| JP5812599B2 (en) | Information processing method and apparatus | |
| CN103649674B (en) | Measuring equipment and messaging device | |
| US9679384B2 (en) | Method of detecting and describing features from an intensity image | |
| JP6503906B2 (en) | Image processing apparatus, image processing method and image processing program | |
| JP7479324B2 (en) | Information processing device, information processing method, and program | |
| US20140253679A1 (en) | Depth measurement quality enhancement | |
| JP7379065B2 (en) | Information processing device, information processing method, and program | |
| JP2018195070A (en) | Information processing apparatus, information processing method, and program | |
| US10607350B2 (en) | Method of detecting and describing features from an intensity image | |
| JP6817742B2 (en) | Information processing device and its control method | |
| JP2018091656A (en) | Information processing apparatus, measuring apparatus, system, calculation method, program, and article manufacturing method | |
| CN112146647A (en) | A binocular vision positioning method and chip for ground texture | |
| CN109934873B (en) | Method, device and equipment for acquiring marked image | |
| CN118642121A (en) | Spatial positioning method and system based on fusion of monocular vision ranging and laser point cloud | |
| US20190371001A1 (en) | Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium | |
| JP2021071420A (en) | Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method | |
| JP6198104B2 (en) | 3D object recognition apparatus and 3D object recognition method | |
| JP6802923B2 (en) | Object detection device and object detection method | |
| JP2006113832A (en) | Stereo image processing apparatus and program | |
| JP2022551885A (en) | Methods and systems for determining three-dimensional positions of object grip points, local frames of reference and grip patterns | |
| JP2019105588A (en) | Information processing apparatus, system, information processing method, and program | |
| JP7251631B2 (en) | Template creation device, object recognition processing device, template creation method, object recognition processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200424 |
|
| A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200707 |