[go: up one dir, main page]

JP2018195070A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2018195070A
JP2018195070A JP2017098251A JP2017098251A JP2018195070A JP 2018195070 A JP2018195070 A JP 2018195070A JP 2017098251 A JP2017098251 A JP 2017098251A JP 2017098251 A JP2017098251 A JP 2017098251A JP 2018195070 A JP2018195070 A JP 2018195070A
Authority
JP
Japan
Prior art keywords
depth
template
candidate
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017098251A
Other languages
Japanese (ja)
Inventor
小林 俊広
Toshihiro Kobayashi
俊広 小林
片山 昭宏
Akihiro Katayama
昭宏 片山
藤木 真和
Masakazu Fujiki
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017098251A priority Critical patent/JP2018195070A/en
Publication of JP2018195070A publication Critical patent/JP2018195070A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】計測対象物を高精度かつ高密度に三次元計測できなくとも、位置姿勢を高精度に推定できる情報処理装置を提供する。【解決手段】情報処理装置100は、計測対象物が含まれる撮影画像10、11を入力する撮影画像入力部101と、計測対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレート20の情報を入力するテンプレート入力部112と、テンプレートに記述された特徴要素と撮影画像から検出される特徴要素との照合を行って、撮影画像に含まれる計測対象物のマッチング候補を探索する候補探索部113と、検出された特徴要素相互の奥行き相対関係を識別する奥行き識別部114と、奥行き識別部により得られる奥行き相対関係とテンプレートに記述された特徴要素相互の奥行き相対関係とに基づいてマッチング候補の正誤を判定する候補判定部115とを有する。【選択図】図1Provided is an information processing apparatus capable of estimating a position and orientation with high accuracy even if a measurement object cannot be three-dimensionally measured with high accuracy and high density. An information processing apparatus includes a captured image input unit that inputs captured images including a measurement object, and feature elements and feature elements obtained from images obtained by observing the measurement object from a plurality of viewpoints. The template input unit 112 that inputs information of the template 20 having information on the mutual depth relative relationship is collated with the feature element described in the template and the feature element detected from the shot image, and is included in the shot image. A candidate search unit 113 for searching for a matching candidate of the measurement object, a depth identification unit 114 for identifying a depth relative relationship between detected feature elements, and a depth relative relationship obtained by the depth identification unit and features described in the template A candidate determination unit 115 that determines whether a matching candidate is correct or not based on a relative depth relationship between elements. [Selection] Figure 1

Description

本発明は、画像から計測対象の三次元的な位置姿勢情報を取得する情報処理装置、情報処理方法、及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program that acquire three-dimensional position and orientation information of a measurement target from an image.

近年、ロボットアームを用いて、無作為に配置された部品等の対象の把持や操作を行うため、撮像装置によって対象を撮影して三次元位置姿勢を推定する装置が提案されている。そのような装置では、予め計測対象を複数の視点から観察した画像を複数取得し、視点毎に画像中で検出される輪郭等の二次元特徴量を抽出してテンプレートと呼ばれるルックアップテーブルを生成しておく。装置の実行時には、入力された撮影画像から得られる特徴量とテンプレートに記述されている特徴量とを照合し、最も類似したテンプレートに関連付けられた視点の情報を用いて、計測対象の位置姿勢の概略値を取得する。   2. Description of the Related Art In recent years, there has been proposed an apparatus that uses a robot arm to capture and operate a target such as a randomly placed component and photograph a target with an imaging device to estimate a three-dimensional position and orientation. In such an apparatus, a plurality of images obtained by observing a measurement target from a plurality of viewpoints are acquired in advance, and a two-dimensional feature amount such as a contour detected in the image is extracted for each viewpoint to generate a lookup table called a template. Keep it. At the time of execution of the device, the feature quantity obtained from the input captured image is compared with the feature quantity described in the template, and the position and orientation of the measurement target is determined using the viewpoint information associated with the most similar template. Get an approximate value.

特許文献1には、カメラで撮影して得られた二次元画像に加えて、計測対象を三次元計測して推定される三次元の輪郭と面法線の情報を利用して、誤りのない正しい姿勢を推定する方法が記載されている。   In Patent Document 1, in addition to a two-dimensional image obtained by photographing with a camera, information on a three-dimensional contour and a surface normal estimated by three-dimensional measurement of a measurement target is used, and there is no error. A method for estimating the correct posture is described.

特開2014−178967号公報JP 2014-178967 A

しかしながら、特許文献1に記載の技術では、計測対象物を高精度かつ高密度に三次元計測できないと、位置姿勢の推定精度が低いという問題がある。本発明の目的は、計測対象物を高精度かつ高密度に三次元計測できなくとも、位置姿勢を高精度に推定できる情報処理装置を提供することにある。   However, the technique described in Patent Document 1 has a problem that the position and orientation estimation accuracy is low if the measurement object cannot be three-dimensionally measured with high accuracy and high density. An object of the present invention is to provide an information processing apparatus capable of estimating a position and orientation with high accuracy even if a measurement object cannot be three-dimensionally measured with high accuracy and high density.

本発明に係る情報処理装置は、対象物が含まれる撮影画像を入力する撮影画像入力手段と、対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段とを有することを特徴とする。   An information processing apparatus according to the present invention includes a photographed image input unit that inputs a photographed image including an object, a feature element obtained from images obtained by observing the object from a plurality of viewpoints, and information on a depth relative relationship between the feature elements. A template input unit that inputs information on a template having a feature, and a feature element described in the template and a feature element detected from the photographed image are collated, and a matching candidate for an object included in the photographed image is obtained. Candidate search means for searching, depth identification means for identifying a depth relative relationship between at least two detected feature elements, information on the depth relative relationship obtained by the depth identification means, and features described in the template Candidate determining means for determining whether the matching candidate is correct or not based on information on the relative depth relationship between elements. And wherein the Rukoto.

本発明によれば、高密度かつ高精度に三次元計測を行うことができなくとも、計測対象の位置姿勢を精度良く推定することが可能となる。   According to the present invention, it is possible to accurately estimate the position and orientation of a measurement target even if three-dimensional measurement cannot be performed with high density and high accuracy.

第1の実施形態における情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus in 1st Embodiment. 第1の実施形態における撮像部と計測対象物との関係を説明する図である。It is a figure explaining the relationship between the imaging part in 1st Embodiment, and a measurement target object. 第1の実施形態における処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process in 1st Embodiment. テンプレート生成部がテンプレート画像を生成する例を示す図である。It is a figure which shows the example in which a template production | generation part produces | generates a template image. テンプレートのデータ構造の例を示す図である。It is a figure which shows the example of the data structure of a template. 第1の実施形態において取得されるコントラストの例を示す図である。It is a figure which shows the example of the contrast acquired in 1st Embodiment. 第2の実施形態における情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus in 2nd Embodiment. 第2の実施形態における撮像部、第二撮像部、計測対象物の関係を説明する図である。It is a figure explaining the relationship between the imaging part in 2nd Embodiment, a 2nd imaging part, and a measurement target object. 第2の実施形態における奥行き識別部による視差比較を説明する図である。It is a figure explaining the parallax comparison by the depth identification part in 2nd Embodiment. 第3の実施形態における情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus in 3rd Embodiment. 第3の実施形態における撮像部、三次元計測部、計測対象物の関係を説明する図である。It is a figure explaining the relationship between the imaging part in 3rd Embodiment, a three-dimensional measuring part, and a measurement target object. 第3の実施形態での特徴要素三次元座標の取得方法を説明する図である。It is a figure explaining the acquisition method of the feature element three-dimensional coordinate in 3rd Embodiment. 第4の実施形態における撮像部、三次元計測部、計測対象物の関係を説明する図である。It is a figure explaining the relationship between the imaging part in 4th Embodiment, a three-dimensional measuring part, and a measurement target object. 第5の実施形態における情報処理装置の構成例を示す図である。It is a figure which shows the structural example of the information processing apparatus in 5th Embodiment. 第5の実施形態における処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process in 5th Embodiment. 本実施形態における情報処理装置を実現可能なコンピュータ機能を示す図である。It is a figure which shows the computer function which can implement | achieve the information processing apparatus in this embodiment.

以下、本発明の実施形態を図面に基づいて説明する。
(第1の実施形態)
本発明の第1の実施形態について説明する。本実施形態では、概ね同一平面上に存在する計測対象物の三次元位置姿勢の推定について、単一の撮像装置を用いて計測対象物を撮影する場合に適用できる装置に関して説明する。本実施形態では、撮像装置の焦点距離を変えて撮影した2枚の画像のコントラストに基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
A first embodiment of the present invention will be described. In the present embodiment, a description will be given of an apparatus that can be applied to the case of imaging a measurement object using a single imaging apparatus, for estimation of the three-dimensional position and orientation of the measurement object that exists on substantially the same plane. In the present embodiment, an appropriate one is selected from a plurality of obtained three-dimensional position and orientation candidates based on the contrast of two images taken by changing the focal length of the imaging apparatus. This makes it possible to accurately estimate the position and orientation of the measurement object without providing a three-dimensional measurement apparatus.

図1は、第1の実施形態における装置全体の構成例を示す図である。図1において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101及びテンプレート生成部102を有する。なお、図1に示す構成は一例であり、これに限定されるものではない。   FIG. 1 is a diagram illustrating a configuration example of the entire apparatus according to the first embodiment. In FIG. 1, a rectangular frame indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The apparatus includes an information processing apparatus 100 that estimates a three-dimensional position and orientation, and an imaging unit 101 and a template generation unit 102 that are connected thereto. The configuration shown in FIG. 1 is an example, and the present invention is not limited to this.

撮像部101は、三次元位置姿勢を推定する計測対象物を含むシーンを撮像した撮影画像を取得し、その撮影画像を情報処理装置100の撮影画像入力部111に出力する。撮像部101は、その内部に不図示の自動フォーカス制御機構を有し、外部からの制御によりレンズの焦点距離を任意に変更することが可能になっている。本実施形態では、撮像部101は、異なる焦点距離で2枚の撮影画像10及び11を取得する。テンプレート生成部102は、計測対象物201を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係を記述したテンプレート20を生成する。テンプレート生成部102は、生成したテンプレート20を情報処理装置100のテンプレート入力部112に出力する。   The imaging unit 101 acquires a captured image obtained by capturing a scene including a measurement target for estimating a three-dimensional position and orientation, and outputs the captured image to the captured image input unit 111 of the information processing apparatus 100. The imaging unit 101 has an automatic focus control mechanism (not shown) inside, and can arbitrarily change the focal length of the lens by external control. In the present embodiment, the imaging unit 101 acquires two captured images 10 and 11 at different focal lengths. The template generation unit 102 generates a template 20 that describes a feature element obtained from images obtained by observing the measurement target 201 from a plurality of viewpoints and a depth relative relationship between the feature elements. The template generation unit 102 outputs the generated template 20 to the template input unit 112 of the information processing apparatus 100.

図2は、第1の実施形態における撮像部101と計測対象物201との関係を説明する図である。平面202上に複数の計測対象物201が無作為に配置され、撮像部101は、その上方から全体を俯瞰した撮影画像10、11を取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に接している。また、撮像部101の光軸と平面202とが略直交するように撮像部101が配置されている。   FIG. 2 is a diagram illustrating the relationship between the imaging unit 101 and the measurement object 201 in the first embodiment. A plurality of measurement objects 201 are randomly arranged on the plane 202, and the imaging unit 101 acquires the captured images 10 and 11 obtained by looking down on the whole from above. The individual measurement objects 201 take various positions and orientations, but rarely overlap each other, and are generally in contact with the plane 202. Further, the imaging unit 101 is arranged so that the optical axis of the imaging unit 101 and the plane 202 are substantially orthogonal.

第1の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、及び候補判定部115を有する。撮影画像入力部111は、撮像部101が撮像した撮影画像10及び11を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。テンプレート入力部112は、テンプレート生成部102が生成したテンプレート20を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。   The information processing apparatus 100 according to the first embodiment includes a captured image input unit 111, a template input unit 112, a candidate search unit 113, a depth identification unit 114, and a candidate determination unit 115. The captured image input unit 111 captures the captured images 10 and 11 captured by the imaging unit 101 into the information processing apparatus 100 and supplies the captured images 10 and 11 to the candidate search unit 113 and the candidate determination unit 115. The template input unit 112 takes the template 20 generated by the template generation unit 102 into the information processing apparatus 100 and supplies the template 20 to the candidate search unit 113 and the candidate determination unit 115.

候補探索部113は、入力される撮影画像10とテンプレート20とをテンプレートマッチングによって照合し、計測対象物の位置姿勢のマッチング候補を探索する。候補探索部113は、探索結果に基づきマッチング候補リスト40を生成して奥行き識別部40及び候補判定部115に出力する。   The candidate search unit 113 collates the input captured image 10 with the template 20 by template matching, and searches for a matching candidate for the position and orientation of the measurement target. The candidate search unit 113 generates a matching candidate list 40 based on the search result, and outputs the matching candidate list 40 to the depth identification unit 40 and the candidate determination unit 115.

奥行き識別部114は、撮影画像10、11から検出される特徴要素相互の奥行き相対関係を識別する。奥行き識別部114は、2枚の撮影画像10及び11を参照してテンプレート20に含まれる特徴要素の奥行きの前後関係を識別し、識別した奥行きの前後関係の情報を候補判定部115に出力する。候補判定部115は、奥行き識別部114によって得られる奥行き相対関係とテンプレート20に記述された特徴要素相互の奥行き相対関係とに基づいてマッチング候補の正誤を判定する。候補判定部115は、特徴要素の奥行きの前後関係の情報に基づいて、マッチング候補リスト40に含まれる位置姿勢の正誤を判定し、正しいと判定された位置姿勢の情報のみを最終位置姿勢情報50として出力する。   The depth identifying unit 114 identifies the relative depth relationship between the feature elements detected from the captured images 10 and 11. The depth identifying unit 114 identifies the depth context of the feature elements included in the template 20 with reference to the two captured images 10 and 11, and outputs the identified depth context information to the candidate determining unit 115. . The candidate determination unit 115 determines the correctness of the matching candidate based on the depth relative relationship obtained by the depth identification unit 114 and the depth relative relationship between the feature elements described in the template 20. The candidate determination unit 115 determines the correctness of the position and orientation included in the matching candidate list 40 based on the depth context information of the feature element, and only the position and orientation information determined to be correct is the final position and orientation information 50. Output as.

第1の実施形態における動作について説明する。図3は、第1の実施形態における装置の処理の流れを示すフローチャートである。図3(a)には処理全体の流れを示しており、図3(b)には図3(a)に示すステップS301での事前準備の処理の流れを示している。   The operation in the first embodiment will be described. FIG. 3 is a flowchart illustrating a processing flow of the apparatus according to the first embodiment. FIG. 3A shows the flow of the entire process, and FIG. 3B shows the flow of the preparation process in step S301 shown in FIG. 3A.

ステップS301にて、事前準備の処理を行い、テンプレート生成部102が、計測対象物201に係るテンプレート20を生成する。テンプレート生成部102は、情報処理装置100には含まれないので、ステップS301の処理は、本実施形態における処理に先立って事前準備として実施する。なお、テンプレート20が生成された後は、本実施形態の処理を繰り返し行う場合においても、ステップS301の処理は省略可能である。   In step S <b> 301, pre-preparation processing is performed, and the template generation unit 102 generates the template 20 related to the measurement target 201. Since the template generation unit 102 is not included in the information processing apparatus 100, the process of step S301 is performed as advance preparation prior to the process in the present embodiment. Note that after the template 20 is generated, the process of step S301 can be omitted even when the process of this embodiment is repeated.

図3(b)を参照して、ステップS301での事前準備の処理の詳細について説明する。ステップS311にて、テンプレート生成部102は、計測対象物201の三次元モデルを読み込む。ここで三次元モデルは、計測対象物201の設計時に生成されたCADデータであるとし、そのCADデータには、計測対象物201の頂点の三次元座標及び辺や面を構成する頂点のインデックスに関する情報が記述されているものとする。   With reference to FIG.3 (b), the detail of the preparation process in step S301 is demonstrated. In step S <b> 311, the template generation unit 102 reads a three-dimensional model of the measurement object 201. Here, the three-dimensional model is CAD data generated at the time of designing the measurement object 201, and the CAD data relates to the three-dimensional coordinates of the vertices of the measurement object 201 and the indices of the vertices constituting the sides and surfaces. It is assumed that information is described.

また、ステップS311にて、テンプレート生成部102は、計測対象物201の三次元モデルを描画するための視点を複数設定する。この視点は、図2に示したような計測対象物201の位置姿勢を推定する状況下で、計測対象物201が実際に取り得る姿勢を網羅した様々な見え方での画像が生成されるように設定する。本実施形態では、計測対象物201を外接球の中心に配置するような正多面体を仮定し、正多面体の頂点の位置に描画のための視点を設定するものとする。また、この後のステップS312において、外接球の半径を変えたもの、視点の画像面内での回転角を変えた画像も描画するため、これらも異なる視点として設定しておく。テンプレート生成部102は、数百から数千程度の数の視点を設定することとなるが、実際に設定する視点は、計測対象物201の大きさや取り得る姿勢、推定に要求される姿勢の分解能等の要因に応じて適宜決定すればよい。   In step S <b> 311, the template generation unit 102 sets a plurality of viewpoints for drawing the three-dimensional model of the measurement object 201. This viewpoint is such that images with various appearances covering the postures that the measurement target 201 can actually take are generated under the situation where the position and orientation of the measurement target 201 are estimated as shown in FIG. Set to. In the present embodiment, a regular polyhedron is assumed in which the measurement object 201 is arranged at the center of the circumscribed sphere, and the viewpoint for drawing is set at the position of the vertex of the regular polyhedron. In step S312, the image with the radius of the circumscribed sphere changed and the image with the rotation angle of the viewpoint changed in the image plane are also drawn, so these are set as different viewpoints. The template generation unit 102 sets hundreds to thousands of viewpoints. The viewpoints to be actually set are the size of the measurement object 201, possible postures, and resolution of postures required for estimation. What is necessary is just to determine suitably according to factors, such as.

ステップS312〜ステップS315の処理は、ステップS311において設定された視点毎に実行され、視点数に等しい回数繰り返し実行される。ステップS312にて、テンプレート生成部102は、ステップS311において設定された視点から計測対象物201の三次元モデルを描画して図4(b)に示すようなテンプレート画像30を生成する。このとき、視点位置から各画素を構成する三次元座標までの奥行き値は不図示の奥行きバッファに保持される。次に、ステップS313にて、テンプレート生成部102は、テンプレート画像30から輪郭411上の画素を規定の数だけサンプリングし、テンプレート20を構成するデータの一部である特徴要素412を抽出する。   The processing from step S312 to step S315 is executed for each viewpoint set in step S311 and is repeatedly executed a number of times equal to the number of viewpoints. In step S312, the template generation unit 102 draws a three-dimensional model of the measurement target 201 from the viewpoint set in step S311 to generate a template image 30 as shown in FIG. At this time, the depth value from the viewpoint position to the three-dimensional coordinates constituting each pixel is held in a depth buffer (not shown). Next, in step S 313, the template generation unit 102 samples a predetermined number of pixels on the contour 411 from the template image 30, and extracts a feature element 412 that is a part of data constituting the template 20.

図4(a)は、本実施形態において、テンプレート生成部102がテンプレート画像30を生成する例を示す図である。テンプレート画像30は、例えば計測対象物201の三次元モデルをコンピュータグラフィックスを用いて、ステップS311において設定された視点位置(401〜405等)から描画することによって生成する。図4(b)には、生成されたテンプレート画像30、及び後述する輪郭抽出処理の結果として得られる計測対象物201に係る輪郭411及びサンプリングされた特徴要素412の例を示している。   FIG. 4A is a diagram illustrating an example in which the template generation unit 102 generates the template image 30 in the present embodiment. The template image 30 is generated by, for example, drawing a three-dimensional model of the measurement object 201 from the viewpoint position (401 to 405, etc.) set in step S311 using computer graphics. FIG. 4B shows an example of the generated template image 30 and the contour 411 and the sampled feature element 412 related to the measurement object 201 obtained as a result of the contour extraction process described later.

図5は、テンプレート生成部102によって生成されるテンプレート20のデータ構造の例を示す図である。テンプレート20は、複数のテンプレート要素の集合体で構成される。個々のテンプレート要素は、テンプレート画像30を生成した視点の位置姿勢と複数の特徴要素412とを有する。個々の特徴要素412は、特徴位置、特徴パラメータ、及び特徴奥行き識別情報を有する。   FIG. 5 is a diagram illustrating an example of a data structure of the template 20 generated by the template generation unit 102. The template 20 is composed of a collection of a plurality of template elements. Each template element has the position and orientation of the viewpoint that generated the template image 30 and a plurality of feature elements 412. Each feature element 412 has a feature position, a feature parameter, and feature depth identification information.

本実施形態においては、特徴位置としてテンプレート画像30から抽出される計測対象物201の輪郭411の画像座標が格納され、特徴パラメータとして輪郭411の勾配の方向を示す値が格納される。テンプレート生成部102は、個々のテンプレート画像30に対して輪郭抽出処理を適用した後、輪郭411を構成している画素を規定の数だけサンプリングして、その画素の座標と輪郭勾配とを算出してテンプレート20に書き込む。   In the present embodiment, image coordinates of the contour 411 of the measurement target 201 extracted from the template image 30 are stored as feature positions, and values indicating the direction of the gradient of the contour 411 are stored as feature parameters. After applying the contour extraction process to each template image 30, the template generation unit 102 samples a predetermined number of pixels constituting the contour 411, and calculates the coordinates and contour gradient of the pixels. To the template 20.

ステップS314にて、テンプレート生成部102は、ステップS313において抽出した特徴要素412について特徴奥行き識別情報を算出する。テンプレート生成部102は、次のようにして特徴奥行き識別情報を算出する。テンプレート生成部102は、計測対象物201の特徴要素412をサンプリングする際、ステップS312において奥行き値を保持した奥行きバッファを参照して奥行き値を得る。1枚のテンプレート画像30に対して所定数のサンプリングが終了した時点では、特徴要素数と同数の奥行き値が得られていることになる。テンプレート生成部102は、これらの奥行き値に対して「手前」又は「奥」のラベルを割り当てる。本実施形態では、複数の奥行き値に対して、判別分析によって手前、奥を区分するためのしきい値を定める。判別分析では、それぞれ「手前」「奥」のラベルが付与された値からなるグループに対して、それぞれのグループ内分散を最小化させグループ間分散を最大化させるしきい値が決定される。テンプレート生成部102は、しきい値よりも奥行き値が小さいものに「手前」ラベルを付与し、しきい値よりも奥行き値が大きいものに「奥」ラベルを付与し、ラベルの識別情報を特徴奥行き識別情報(ID)としてテンプレート20に書き込む。   In step S314, the template generation unit 102 calculates feature depth identification information for the feature element 412 extracted in step S313. The template generation unit 102 calculates the feature depth identification information as follows. When sampling the feature element 412 of the measurement object 201, the template generation unit 102 obtains a depth value by referring to the depth buffer that holds the depth value in step S312. When a predetermined number of samplings are completed for one template image 30, the same number of depth values as the number of feature elements are obtained. The template generation unit 102 assigns “front” or “back” labels to these depth values. In the present embodiment, threshold values for distinguishing the front and back are determined by discriminant analysis for a plurality of depth values. In the discriminant analysis, a threshold value for minimizing the intra-group variance and maximizing the inter-group variance is determined for each group of values having the labels “front” and “back”. The template generation unit 102 assigns a “front” label to those having a depth value smaller than the threshold value, and assigns a “back” label to those having a depth value larger than the threshold value. Write into the template 20 as depth identification information (ID).

ステップS315では、ステップS311において設定されたすべての視点についてステップS312〜ステップS315の処理が行われた場合、ステップS316に進み、そうでない場合、ステップS312に戻る。ステップS316にて、テンプレート生成部102は、算出されたテンプレート20を不図示の記憶手段に保持する。   In step S315, if the processes in steps S312 to S315 have been performed for all the viewpoints set in step S311, the process proceeds to step S316. If not, the process returns to step S312. In step S316, the template generation unit 102 holds the calculated template 20 in a storage unit (not shown).

図3(a)に戻り、ステップS302にて、撮像部101は、計測対象物201を含むシーンの画像を撮像する。第1の実施形態において撮像部101は、焦点距離の異なる2枚の撮影画像10及び11を取得して撮影画像入力部111に出力する。撮影画像10は、平面202の位置にフォーカスが合っている状態で撮影された画像であり、撮影画像11は、平面202に対して手前側(計測対象物201の上端)にフォーカスが合っている状態で撮影された画像である。撮影画像入力部111は、入力された撮影画像10、11を候補探索部113及び候補判定部115に供給する。ステップS303にて、テンプレート入力部112は、ステップS316において記録されたテンプレート20を記憶手段から読み込んで情報処理装置100に入力する。   Returning to FIG. 3A, in step S <b> 302, the imaging unit 101 captures an image of a scene including the measurement object 201. In the first embodiment, the imaging unit 101 acquires two captured images 10 and 11 having different focal lengths and outputs them to the captured image input unit 111. The captured image 10 is an image captured in a state where the position of the plane 202 is in focus, and the captured image 11 is focused on the near side (the upper end of the measurement target 201) with respect to the plane 202. It is an image taken in a state. The captured image input unit 111 supplies the input captured images 10 and 11 to the candidate search unit 113 and the candidate determination unit 115. In step S303, the template input unit 112 reads the template 20 recorded in step S316 from the storage unit and inputs it to the information processing apparatus 100.

ステップS304にて、候補探索部113は、位置姿勢の候補を探索する。候補探索部113は、まず撮影画像10に対して輪郭抽出処理を行う。次に、候補探索部113は、テンプレート20に含まれる各テンプレート要素について、いわゆるテンプレートマッチングによって、撮影画像10上に設定された領域をシフトさせながら輪郭411と撮影画像10から検出される輪郭との類似度を算出する。輪郭411の情報は、特徴要素412中に特徴位置及び特徴パラメータとして記述されている。類似度は、特徴要素412に定義されている輪郭411の位置及び方向が、撮影画像10から検出された輪郭の位置及び方向と一致した場合に高くなるように設定される。すべての特徴要素412の類似度の総和がテンプレート要素、撮影画像10の領域毎に算出される。   In step S304, candidate search unit 113 searches for a position and orientation candidate. The candidate search unit 113 first performs contour extraction processing on the captured image 10. Next, the candidate search unit 113 shifts the region set on the photographed image 10 by so-called template matching for each template element included in the template 20 between the contour 411 and the contour detected from the photographed image 10. Calculate similarity. Information on the contour 411 is described in the feature element 412 as a feature position and a feature parameter. The similarity is set so as to increase when the position and direction of the contour 411 defined in the feature element 412 match the position and direction of the contour detected from the captured image 10. The sum of the similarities of all the feature elements 412 is calculated for each area of the template element and the captured image 10.

候補探索部113は、類似度の総和が所定のしきい値を超えたテンプレート要素をすべてマッチング候補として、マッチング候補リスト40に保持する。マッチング候補リスト40には、テンプレート要素の識別番号、類似度、及び撮影画像10上におけるテンプレートの位置が格納される。テンプレート20は計測対象物201をあらゆる方向の視点から描画することで生成されるため、テンプレート要素に記述されている位置姿勢を計測対象物201の三次元姿勢とみなすことができる。また、計測対象物201の三次元位置は、撮影画像10上で検出されたテンプレート要素の位置と、テンプレート要素に記述されている位置姿勢から算出することができる。例えば、撮影画像10上で検出されたテンプレート要素を代表する中心座標と、テンプレート要素に記述されている位置姿勢から算出される計測対象物201と視点との距離から、計測対象物201の三次元位置を算出可能である。   The candidate search unit 113 holds all template elements whose sum of similarities exceeds a predetermined threshold as matching candidates in the matching candidate list 40. The matching candidate list 40 stores the identification number of template elements, the degree of similarity, and the position of the template on the captured image 10. Since the template 20 is generated by drawing the measurement object 201 from a viewpoint in any direction, the position and orientation described in the template element can be regarded as the three-dimensional attitude of the measurement object 201. Further, the three-dimensional position of the measurement object 201 can be calculated from the position of the template element detected on the captured image 10 and the position and orientation described in the template element. For example, the 3D of the measurement target 201 is calculated from the center coordinates representing the template element detected on the captured image 10 and the distance between the measurement target 201 and the viewpoint calculated from the position and orientation described in the template element. The position can be calculated.

ステップS305にて、奥行き識別部114は、2枚の撮影画像10及び11を参照してテンプレート20に含まれる特徴要素の奥行きの前後関係、つまり特徴要素相互の奥行きの相対関係を識別する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、テンプレート要素中に定義されている特徴要素から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。   In step S <b> 305, the depth identifying unit 114 refers to the two captured images 10 and 11 and identifies the depth relationship between the feature elements included in the template 20, that is, the relative relationship between the depths of the feature elements. The depth identifying unit 114 first extracts one matching candidate from the matching candidate list 40. Then, the depth identifying unit 114 refers to the feature depth identification information from the feature elements defined in the template element, and obtains the feature element to which the “front” label is assigned and the feature element to which the “back” label is assigned. A feature pair is constructed by extracting one by one. In addition, when the feature element extracted on the picked-up image 10 is not observed, the feature element is not used. The depth identification unit 114 repeats this process to set a plurality of feature pairs.

次に、奥行き識別部114は、撮影画像10及び11を参照し、特徴要素412のコントラストの大小を比較する。本実施形態では、特徴要素412に対応する撮影画像10及び11における画素の輝度を比較することで、それを実現する。具体的には、撮影画像10における輝度が撮影画像11における輝度よりも高い場合、コントラストが高いと判断して値“1”を割り当て、それ以外の場合、コントラストが低いと判断して値“0”を割り当てる。本実施形態において、それぞれの撮影画像のフォーカス位置は、撮影画像10では平面202の位置に設定され、撮影画像11では計測対象物201の上端に設定されている。したがって、撮影画像10のコントラストがより高い場合(すなわち、比較結果を示す値が“1”である場合)、その特徴要素412は相対的に奥側に位置すると判断し、そうでない場合には手前側に位置すると判断する。   Next, the depth identifying unit 114 refers to the captured images 10 and 11 and compares the contrast levels of the feature elements 412. In the present embodiment, this is realized by comparing the luminance of the pixels in the captured images 10 and 11 corresponding to the feature element 412. Specifically, when the brightness in the captured image 10 is higher than the brightness in the captured image 11, it is determined that the contrast is high and a value “1” is assigned. In other cases, the contrast is determined to be low and the value “0” is determined. ". In the present embodiment, the focus position of each captured image is set to the position of the plane 202 in the captured image 10, and is set to the upper end of the measurement object 201 in the captured image 11. Accordingly, when the contrast of the captured image 10 is higher (that is, when the value indicating the comparison result is “1”), it is determined that the feature element 412 is relatively located on the far side, and otherwise, the front side Judged to be located on the side.

図6は、奥行き識別部114によって取得されるコントラストの例を示す図である。テンプレート要素に定義されているある特徴要素412の位置を黒丸で示している。図6(a)は撮影画像10でのコントラストの例を示し、図6(b)は撮影画像11でのコントラストの例を示している。図6において、下に示すグラフは、輪郭線411に直交する断面A−B間の輝度変化の例を示すものである。   FIG. 6 is a diagram illustrating an example of contrast acquired by the depth identifying unit 114. The positions of certain feature elements 412 defined in the template elements are indicated by black circles. FIG. 6A illustrates an example of contrast in the captured image 10, and FIG. 6B illustrates an example of contrast in the captured image 11. In FIG. 6, the graph shown below shows an example of the luminance change between the cross sections A and B orthogonal to the contour line 411.

図6(a)に示すように撮影画像10においては、計測対象物201の輪郭線411の部分にフォーカスが合っている状態であり、コントラストが高く、特徴要素412の位置(黒丸)での輝度ピークも相対的に大きな値となっている。一方、図6(b)に示すように撮影画像11においては、計測対象物201の輪郭線411からフォーカスが外れた状態であり、コントラストが低く、特徴要素412の位置での輝度ピークも相対的に小さな値となっている。そのため、撮影画像10及び11の特徴要素412の位置での輝度値を比較することは、コントラストを比較することと等価であると見なすことができる。   As shown in FIG. 6A, the captured image 10 is in a state where the contour line 411 of the measurement target 201 is in focus, the contrast is high, and the luminance at the position of the feature element 412 (black circle). The peak is also relatively large. On the other hand, as shown in FIG. 6B, the captured image 11 is out of focus from the outline 411 of the measurement object 201, has low contrast, and the luminance peak at the position of the feature element 412 is also relative. It is a small value. Therefore, comparing the luminance values at the positions of the characteristic elements 412 of the captured images 10 and 11 can be regarded as equivalent to comparing the contrast.

次に、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定し、正しいと判断された情報を最終位置姿勢情報50として出力する。候補判定部115は、特徴対に設定されたそれぞれの特徴要素412について、ステップS305において取得されたコントラストの比較結果と特徴奥行き識別情報とを参照し、マッチング候補の姿勢の正誤を判定する。具体的には、特徴奥行き識別情報の「手前」ラベルが付与された特徴要素412について比較結果が0であり、かつ、特徴奥行き識別情報の「奥」ラベルが付与された特徴要素412について比較結果が1であれば、そのマッチング候補は正しいと判断される。   Next, in step S <b> 306, the candidate determination unit 115 determines whether the matching candidates included in the matching candidate list 40 are correct, and outputs information determined to be correct as final position and orientation information 50. For each feature element 412 set as a feature pair, the candidate determination unit 115 refers to the contrast comparison result acquired in step S305 and the feature depth identification information, and determines whether the matching candidate posture is correct or incorrect. Specifically, the comparison result is 0 for the feature element 412 to which the “front” label of the feature depth identification information is assigned, and the comparison result for the feature element 412 to which the “back” label of the feature depth identification information is assigned. If is 1, the matching candidate is determined to be correct.

本実施形態では、位置姿勢判定の安定性を高めるために、複数の特徴対に対して前述の判定を実施し、正しいと判定される割合が所定のしきい値よりも高い場合、そのマッチング候補を正しいと判定する。これにより、隠れているために観測されない特徴要素やノイズの影響を軽減することが可能となる。候補判定部115は、正しいと判定したマッチング候補に対応する位置姿勢の情報を、最終位置姿勢情報50として出力する。なお、正しいと判定されたマッチング候補が複数存在する場合、候補判定部115は、正しいと判定される割合が最も高いマッチング候補を選択して、対応する位置姿勢の情報を最終位置姿勢情報50とする。   In this embodiment, in order to improve the stability of the position / orientation determination, the above-described determination is performed on a plurality of feature pairs, and when the ratio determined to be correct is higher than a predetermined threshold, the matching candidate Is determined to be correct. This makes it possible to reduce the influence of characteristic elements and noise that are not observed because they are hidden. The candidate determination unit 115 outputs position and orientation information corresponding to the matching candidate determined to be correct as final position and orientation information 50. When there are a plurality of matching candidates determined to be correct, the candidate determination unit 115 selects the matching candidate having the highest ratio determined to be correct, and sets the corresponding position and orientation information as the final position and orientation information 50. To do.

このように第1の実施形態によれば、概ね同一平面上に存在する計測対象物について、三次元計測装置を設けなくとも、単一の撮像装置で計測対象物を撮影することによって三次元位置姿勢を精度良く推定することが可能となる。   As described above, according to the first embodiment, a three-dimensional position can be obtained by photographing a measurement target with a single imaging device without providing a three-dimensional measurement device for the measurement target that exists on substantially the same plane. The posture can be estimated with high accuracy.

なお、前述した例に限らず、第1の実施形態に関して、以下の変形例1〜変形例8を適用するようにしてもよい。各変形例を、単独で適用するようにしてもよいし、組み合わせて適用するようにしてもよい。
[変形例1]テンプレート生成部102によるテンプレート20の生成は、本実施形態での処理に先立って行う例に限らず、ステップS303の段階で行うようにしてもよい。また、テンプレート入力部112がテンプレート生成部102の機能を有し、テンプレート20を生成するようにしてもよい。
In addition to the example described above, the following first to eighth modifications may be applied to the first embodiment. Each modification may be applied alone or in combination.
[Modification 1] The generation of the template 20 by the template generation unit 102 is not limited to the example performed prior to the processing in the present embodiment, but may be performed in the step S303. Alternatively, the template input unit 112 may have the function of the template generation unit 102 and generate the template 20.

[変形例2]テンプレート20を生成する際、撮像部101を所定の位置姿勢に移動させて、計測対象物201を撮影することで撮影画像10を取得してもよい。撮影画像10の撮影時の位置姿勢は、例えば撮像部101の位置姿勢を位置姿勢センサを用いて計測すればよい。また、SfM(Structure from Motion)又はSLAM(Simultaneous Localization And Mapping)技術を利用して、撮影した一連の画像群から撮像部101の位置姿勢を推定してもよい。 [Modification 2] When the template 20 is generated, the captured image 10 may be acquired by moving the imaging unit 101 to a predetermined position and orientation and capturing the measurement object 201. For example, the position and orientation of the captured image 10 may be measured by using the position and orientation sensor of the imaging unit 101. Alternatively, the position and orientation of the imaging unit 101 may be estimated from a series of captured images using SfM (Structure from Motion) or SLAM (Simultaneous Localization And Mapping) technology.

[変形例3]本実施形態において、特徴奥行き識別情報は「手前」又は「奥」の二種類としたが、これを任意の数に設定してもよい。例えば「手前」「奥」に加えて、「中間」のラベルを設定してもよいし、あるいは奥行き値を連続値のまま保持させるようにしてもよい。 [Modification 3] In the present embodiment, the feature depth identification information has two types of “front” and “back”, but may be set to an arbitrary number. For example, in addition to “front” and “back”, a “middle” label may be set, or the depth value may be held as a continuous value.

[変形例4]撮像部201の絞り位置に符号化開口(Coded Aperture)を設け、候補判定部115が撮影画像10に対してブラインドデコンボリューションを適用して、奥行きの概略値を推定するようにしてもよい。この場合、撮像部201では撮影画像を1枚取得すればよいので、撮像部201はフォーカス制御機構を備える必要はない。奥行き推定は、例えばA. Levin et al, Image and Depth from a Conventional Camera with a Coded Aperture, SIGGRAPH 2007に記載の方法を用いればよい。 [Modification 4] A coded aperture is provided at the aperture position of the imaging unit 201, and the candidate determination unit 115 applies blind deconvolution to the captured image 10 to estimate an approximate depth value. May be. In this case, since the imaging unit 201 only needs to acquire one captured image, the imaging unit 201 does not need to include a focus control mechanism. For the depth estimation, for example, a method described in A. Levin et al, Image and Depth from a Conventional Camera with a Coded Aperture, SIGGRAPH 2007 may be used.

[変形例5]テンプレート生成部102が特徴要素を設定するのは計測対象物201の輪郭上に限られるものではなく、例えば計測対象物201の面上に特徴要素412を設定してもよい。 [Modification 5] The template generation unit 102 sets the feature elements not only on the outline of the measurement target 201, but may set the feature elements 412 on the surface of the measurement target 201, for example.

[変形例6]候補探索部113がマッチング候補リスト40を生成するにあたり、位置姿勢の候補だけでなく、計測対象物201の種別を含めるようにしてもよい。複数種類の計測対象物201が存在する場合、その一部あるいはすべての種別のテンプレート20を生成してもよい。この場合、テンプレート要素に計測対象物201の種別を記録するようにすればよい。 [Modification 6] When the candidate search unit 113 generates the matching candidate list 40, not only the position and orientation candidates but also the type of the measurement object 201 may be included. When there are a plurality of types of measurement objects 201, some or all types of templates 20 may be generated. In this case, the type of the measurement target 201 may be recorded in the template element.

[変形例7]テンプレート生成部102は、計測対象物201のあらゆる見え方の視点を設定しているが、これに限られるものではない。計測対象物201が取り得る位置姿勢が限定される場合については、その位置姿勢に対応する視点に限ってテンプレート画像30を生成するようにしてもよい。これにより、テンプレートの総数が削減されるため、処理速度を向上させることができる。 [Modification 7] The template generation unit 102 sets the viewpoints for all the ways of viewing the measurement object 201, but is not limited to this. When the position and orientation that the measurement object 201 can take is limited, the template image 30 may be generated only from the viewpoint corresponding to the position and orientation. Thereby, since the total number of templates is reduced, the processing speed can be improved.

[変形例8]候補判定部115は、正しいと判定された位置姿勢候補のみを最終位置姿勢情報として出力するが、正誤に関係なくすべての位置姿勢候補と、判定に使用した評価値との組を出力するようにしてもよい。また、候補判定部115は、マッチング候補リスト40に位置姿勢候補が1つしか含まれない場合、その候補の正誤判定結果を出力するようにしてもよい。候補判定部115は、位置と姿勢の各々について評価値を算出し、算出した評価値を出力するようにしてもよい。 [Modification 8] The candidate determination unit 115 outputs only the position / orientation candidates determined to be correct as the final position / orientation information, but a set of all position / orientation candidates and the evaluation values used for the determination, regardless of whether they are correct or incorrect. May be output. Further, when only one position / orientation candidate is included in the matching candidate list 40, the candidate determination unit 115 may output a result of the correctness determination of the candidate. The candidate determination unit 115 may calculate an evaluation value for each of the position and orientation and output the calculated evaluation value.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態では、概ね同一平面上に存在する計測対象物の三次元位置姿勢の推定について、2つの撮像装置で計測対象物を撮影する場合に適用できる装置に関して説明する。本実施形態では、2枚の画像中の視差の大小関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the present embodiment, estimation of a three-dimensional position and orientation of a measurement object that exists on substantially the same plane will be described with respect to an apparatus that can be applied when the measurement object is imaged with two imaging devices. In the present embodiment, an appropriate one is selected from a plurality of obtained three-dimensional position / posture candidates based on the magnitude relationship of parallax in two images. This makes it possible to accurately estimate the position and orientation of the measurement object without providing a three-dimensional measurement apparatus.

図7は、第2の実施形態における装置全体の構成例を示す図である。図7において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101、テンプレート生成部102、及び第二撮像部103を有する。なお、図7に示す構成は一例であり、これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。   FIG. 7 is a diagram illustrating a configuration example of the entire apparatus according to the second embodiment. In FIG. 7, a rectangular frame indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The apparatus includes an information processing apparatus 100 that estimates a three-dimensional position and orientation, and an imaging unit 101, a template generation unit 102, and a second imaging unit 103 that are connected to the information processing apparatus 100. The configuration illustrated in FIG. 7 is an example, and the present invention is not limited to this. In the following description, parts different from the first embodiment will be described, and description of parts similar to those of the first embodiment will be omitted.

本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよく、1枚の撮影画像10を取得する。第二撮像部103は、三次元位置姿勢を推定する計測対象物201を含むシーンを撮像した撮影画像を取得し、その撮像画像を情報処理装置100の第二撮影画像入力部116に出力する。第二撮像部103は、1枚の撮影画像11を取得する。ここで、撮像部101と第二撮像部103とは事前に較正(キャリブレーション)がなされている。複数カメラ間の較正については数多くの手法が提案されているが、いかなる方法を用いてもよい。本実施形態では、撮像部101及び第二撮像部103の各々の内部パラメータ(焦点距離、主点位置、歪み係数)や、外部パラメータ(撮像部101と第二撮像部103間の相対的な三次元位置姿勢)は予め得られており、既知であるものとみなす。   In the present embodiment, the imaging unit 101 does not need to have an automatic focus control mechanism therein, and acquires a single captured image 10. The second imaging unit 103 acquires a captured image obtained by capturing a scene including the measurement object 201 for estimating the three-dimensional position and orientation, and outputs the captured image to the second captured image input unit 116 of the information processing apparatus 100. The second imaging unit 103 acquires one captured image 11. Here, the imaging unit 101 and the second imaging unit 103 are calibrated in advance. Many methods have been proposed for calibration between multiple cameras, but any method may be used. In the present embodiment, internal parameters (focal length, principal point position, distortion coefficient) of the imaging unit 101 and the second imaging unit 103 and external parameters (relative tertiary between the imaging unit 101 and the second imaging unit 103). The original position / posture) is obtained in advance and is assumed to be known.

図8は、第2の実施形態における撮像部101、第二撮像部103、及び計測対象物201の関係を説明する図である。平面202上に複数の計測対象物201が無作為に配置され、撮像部101及び第二撮像部103は、その上方から全体を俯瞰した撮影画像10、11をそれぞれ取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に接している。なお、撮像部101及び第二撮像部103は、その光軸と平面202とが略直交するように配置する必要はない。   FIG. 8 is a diagram illustrating the relationship between the imaging unit 101, the second imaging unit 103, and the measurement object 201 in the second embodiment. A plurality of measurement objects 201 are randomly arranged on the plane 202, and the imaging unit 101 and the second imaging unit 103 respectively acquire the captured images 10 and 11 obtained by bird's-eye view from above. The individual measurement objects 201 take various positions and orientations, but rarely overlap each other, and are generally in contact with the plane 202. Note that the imaging unit 101 and the second imaging unit 103 do not have to be arranged so that the optical axis and the plane 202 are substantially orthogonal.

第2の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、第二撮影画像入力部116、及び第二候補探索部117を有する。第二撮影画像入力部116は、第二撮像部103が撮像した撮影画像11を情報処理装置100内部に取り込んで第二候補探索部117に供給する。   The information processing apparatus 100 according to the second embodiment includes a captured image input unit 111, a template input unit 112, a candidate search unit 113, a depth identification unit 114, a candidate determination unit 115, a second captured image input unit 116, and a second candidate. A search unit 117 is included. The second captured image input unit 116 captures the captured image 11 captured by the second imaging unit 103 into the information processing apparatus 100 and supplies the captured image 11 to the second candidate search unit 117.

第二候補探索部117は、入力される撮影画像11と、マッチング候補リスト40に含まれるマッチング候補の位置姿勢に対応するテンプレート20とをテンプレートマッチングによって照合する。奥行き識別部114は、2枚の撮影画像10及び11を参照して特徴要素412の検出座標の視差を算出し、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。   The second candidate search unit 117 collates the input captured image 11 with the template 20 corresponding to the position and orientation of the matching candidate included in the matching candidate list 40 by template matching. The depth identifying unit 114 calculates the parallax of the detected coordinates of the feature element 412 with reference to the two photographed images 10 and 11 and identifies the depth relationship of the feature elements included in the template 20.

第2の実施形態における動作について説明する。第2の実施形態における装置の処理の流れは、第1の実施形態と同様である。ただし、処理内容が第1の実施形態とは異なるステップが存在するため、それについて図3(a)を参照して説明する。   The operation in the second embodiment will be described. The processing flow of the apparatus in the second embodiment is the same as that of the first embodiment. However, there are steps whose processing contents are different from those of the first embodiment, which will be described with reference to FIG.

ステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、第二撮像部103も同様に計測対象物201を含むシーンの撮影画像11を撮像する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、第二撮像部103は、撮影画像11を第二撮影画像入力部116に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113及び候補判定部115に供給し、第二撮影画像入力部116は、入力された撮影画像11を第二候補探索部117に供給する。   In step S302, the imaging unit 101 captures the captured image 10 of the scene including the measurement target 201, and the second imaging unit 103 similarly captures the captured image 11 of the scene including the measurement target 201. The imaging unit 101 outputs the captured image 10 to the captured image input unit 111, and the second imaging unit 103 outputs the captured image 11 to the second captured image input unit 116. The captured image input unit 111 supplies the input captured image 10 to the candidate search unit 113 and the candidate determination unit 115, and the second captured image input unit 116 supplies the input captured image 11 to the second candidate search unit 117. Supply.

本実施形態での撮像部101及び第二撮像部103は較正されているため、第二撮影画像入力部116は、入力される撮影画像11に対して較正時の内部パラメータ及び外部パラメータを用いて平行化を行う。以降、本実施形態では、撮影画像10及び撮影画像11について、エピポーラ線はx軸(横方向)に平行であるものとして説明する。   Since the imaging unit 101 and the second imaging unit 103 in the present embodiment are calibrated, the second captured image input unit 116 uses the internal parameters and the external parameters at the time of calibration for the input captured image 11. Perform parallelization. Hereinafter, in the present embodiment, the captured image 10 and the captured image 11 will be described assuming that the epipolar line is parallel to the x axis (lateral direction).

また、ステップS304にて、候補探索部113及び第二候補探索部117は、位置姿勢の候補を探索する。候補探索部113が行う処理は、第1の実施形態と同様である。以下、第二候補探索部117が位置姿勢の候補を探索する処理の内容について説明する。第二候補探索部117は、候補探索部113と同様に、まず撮影画像11に対して輪郭抽出処理を行う。そして、テンプレート20に含まれる各テンプレート要素について、撮影画像11における領域をシフトさせながらテンプレートマッチングによって、特徴要素412に定義されている輪郭411と、撮影画像11から検出される輪郭との類似度を算出する。輪郭411の情報は、特徴要素412中に特徴位置及び特徴パラメータとして記述されている。   In step S304, candidate search unit 113 and second candidate search unit 117 search for position and orientation candidates. The process performed by the candidate search unit 113 is the same as that in the first embodiment. Hereinafter, the content of the process in which the second candidate search unit 117 searches for a position / posture candidate will be described. Similar to the candidate search unit 113, the second candidate search unit 117 first performs contour extraction processing on the captured image 11. For each template element included in the template 20, the similarity between the contour 411 defined in the feature element 412 and the contour detected from the captured image 11 is determined by template matching while shifting the region in the captured image 11. calculate. Information on the contour 411 is described in the feature element 412 as a feature position and a feature parameter.

本実施形態では、既に候補探索部113によってマッチング候補が取得されているので、これを利用して第二候補探索部117の処理を効率的に行う。具体的には、第二候補探索部117は、マッチング候補リスト40からマッチング候補を取り出し、テンプレート要素の識別番号と撮影画像10上における領域の位置とを参照し、撮影画像11上におけるテンプレート要素の位置を推定する。テンプレート要素の識別番号から、そのテンプレート要素の位置姿勢を参照できるので、計測対象物201の三次元位置姿勢が得られることとなる。   In the present embodiment, since the matching candidate has already been acquired by the candidate search unit 113, the process of the second candidate search unit 117 is efficiently performed using this. Specifically, the second candidate search unit 117 extracts matching candidates from the matching candidate list 40, refers to the template element identification number and the position of the region on the captured image 10, and determines the template element on the captured image 11. Estimate the position. Since the position and orientation of the template element can be referred to from the identification number of the template element, the three-dimensional position and orientation of the measurement object 201 can be obtained.

この三次元位置姿勢に対して、較正時の外部パラメータを用いて、撮像部101の位置姿勢から第二撮像部103の位置姿勢への三次元変換を求め、第二撮像部103の内部パラメータを用いて撮影画像11に射影する。これにより、撮影画像11上におけるテンプレート要素の位置が得られる。第二候補探索部117は、得られた撮影画像11上におけるテンプレート要素の位置を初期値として、その近傍で撮影画像11に対して候補探索部113と同様にテンプレートマッチングを行う。このようにして、最終的に正確な撮影画像11上におけるテンプレートの位置が算出される。第二候補探索部117は、マッチング候補リスト40に撮影画像11上におけるテンプレート要素位置の座標を記録する。   With respect to this three-dimensional position and orientation, using external parameters at the time of calibration, three-dimensional conversion from the position and orientation of the imaging unit 101 to the position and orientation of the second imaging unit 103 is obtained, and the internal parameters of the second imaging unit 103 are determined. Using this, the projected image 11 is projected. Thereby, the position of the template element on the captured image 11 is obtained. The second candidate search unit 117 performs template matching on the captured image 11 in the vicinity thereof in the same manner as the candidate search unit 113 with the position of the template element on the captured image 11 obtained as an initial value. In this way, the position of the template on the final captured image 11 is finally calculated. The second candidate search unit 117 records the coordinates of the template element position on the captured image 11 in the matching candidate list 40.

また、ステップS305にて、奥行き識別部114は、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10又は撮影画像11上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。   In step S <b> 305, the depth identifying unit 114 identifies the depth context of the feature elements included in the template 20. The depth identifying unit 114 first extracts one matching candidate from the matching candidate list 40. The depth identifying unit 114 refers to the feature depth identification information from the feature element 412 defined in the template element, and the feature element to which the “front” label is assigned and the feature element to which the “back” label is assigned. Are extracted one by one to form a feature pair. In addition, when the feature element extracted on the picked-up image 10 or the picked-up image 11 is not observed, the feature element is not used. The depth identification unit 114 repeats this process to set a plurality of feature pairs.

次に、奥行き識別部114は、各特徴対について特徴要素412が検出された撮影画像10及び撮影画像11上の視差を比較する。本実施形態において、撮影画像10及び撮影画像11のエピポーラ線はx軸に平行であるため、奥行き識別部114は、特徴要素412における撮影画像10と撮影画像11とのx座標の差を比較する。図9は、第2の実施形態における奥行き識別部114による視差の比較を説明する図である。特徴対を構成する2つの特徴要素412(図中の412aと412b)が検出された撮影画像10及び撮影画像11での検出座標についてx座標の差を求め、視差daと視差dbとを算出する。 Next, the depth identifying unit 114 compares the parallax on the captured image 10 and the captured image 11 in which the feature element 412 is detected for each feature pair. In the present embodiment, since the epipolar lines of the captured image 10 and the captured image 11 are parallel to the x axis, the depth identifying unit 114 compares the difference of the x coordinates of the captured image 10 and the captured image 11 in the feature element 412. . FIG. 9 is a diagram for explaining a comparison of parallax by the depth identifying unit 114 in the second embodiment. Determining a difference x-coordinate for the detection coordinates in the two feature elements 412 captured image 10 and the captured image 11 (412a and 412b in the drawing) is detected making up the feature pairs, the parallax d a parallax d b calculate.

また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、2枚の撮影画像10と撮影画像11との三角測量に基づき、マッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。   In step S <b> 306, the candidate determination unit 115 determines the correctness of the matching candidates included in the matching candidate list 40 and outputs the final position / orientation information 50. The candidate determination unit 115 determines the correctness of the matching candidate based on the triangulation of the two captured images 10 and 11, and the position / orientation information corresponding to the matching candidate determined to be correct is the final position / orientation information. 50 is output.

具体的には、候補判定部115は、各特徴要素の特徴奥行き識別情報とステップS305において算出された視差daと視差dbの相対的な大小関係とを比較する。図9に示した例において、特徴要素412aの特徴奥行き識別情報が「手前」、特徴要素412bの特徴奥行き識別情報が「奥」であるとする。特徴要素412aと特徴要素412bとの相対的な幾何関係により、手前側に位置する特徴要素412aの視差が、奥側に位置する特徴要素412bの視差より大きくなる。そのため、候補判定部115は、da>dbであれば、そのマッチング候補を正しいと判定し、da<dbであれば、そのマッチング候補を誤りであると判定する。本実施形態では、位置姿勢判定の安定性を高めるために、複数の特徴対に対して前述の判定を実施し、正しいと判定される割合が所定のしきい値よりも高い場合、そのマッチング候補に対応する位置姿勢を正しいと判定する。これにより、隠れているために観測されない特徴要素やノイズの影響を軽減することが可能となる。 Specifically, the candidate determination unit 115 compares the relative magnitude relationship between the disparity d a parallax d b calculated in feature depth identification information and step S305 of the feature element. In the example shown in FIG. 9, it is assumed that the feature depth identification information of the feature element 412a is “front” and the feature depth identification information of the feature element 412b is “back”. Due to the relative geometric relationship between the feature element 412a and the feature element 412b, the parallax of the feature element 412a located on the near side is larger than the parallax of the feature element 412b located on the far side. Therefore, the candidate determination unit 115 determines that the matching candidate is correct if d a > d b , and determines that the matching candidate is incorrect if d a <d b . In this embodiment, in order to improve the stability of the position / orientation determination, the above-described determination is performed on a plurality of feature pairs, and when the ratio determined to be correct is higher than a predetermined threshold, the matching candidate It is determined that the position and orientation corresponding to is correct. This makes it possible to reduce the influence of characteristic elements and noise that are not observed because they are hidden.

このように第2の実施形態によれば、概ね同一平面上に存在する計測対象物について、2つの撮像装置で計測対象物を撮影することで、三次元計測装置を設けなくとも、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。撮影画像中で特徴要素が検出される座標の差(視差量)のみに基づき比較を行うため、三次元座標を明に算出することがなく、浮動小数演算を行うことなく整数演算のみで実行できるので、処理時間が短縮され処理速度が向上する。さらに、片方の撮影画像上で探索された位置姿勢の候補に基づき、較正時の幾何関係に基づいて他方の撮影画像上での位置を推定し、その近傍に限定して探索を行う。そのため、通常のステレオ計測で必要となる対応探索と比較して処理時間を短縮でき処理速度を向上させることができる。   As described above, according to the second embodiment, the measurement object is photographed with the two imaging devices with respect to the measurement object that is substantially on the same plane, so that the measurement object can be provided without providing a three-dimensional measurement device. It is possible to accurately estimate the three-dimensional position and orientation. Since the comparison is based only on the difference (parallax amount) of the coordinates at which the feature elements are detected in the captured image, the three-dimensional coordinates are not calculated clearly and can be executed only by integer arithmetic without performing floating point arithmetic. Therefore, the processing time is shortened and the processing speed is improved. Furthermore, based on the position and orientation candidates searched on one of the captured images, the position on the other captured image is estimated based on the geometric relationship at the time of calibration, and the search is limited to the vicinity thereof. Therefore, the processing time can be shortened and the processing speed can be improved as compared with the correspondence search required in normal stereo measurement.

なお、前述した例に限らず、第2の実施形態に関して、以下の変形例9、変形例10を適用するようにしてもよく、変形例を単独で適用するようにしてもよいし、組み合わせて適用するようにしてもよい。
[変形例9]第二撮像部103は、撮像部101に対して解像度や光学特性等の性能が低いものを用いてもよく、このようにした場合、本実施形態における装置を安価に実現することが可能となる。
In addition, not only the example mentioned above but regarding the second embodiment, the following modified examples 9 and 10 may be applied, the modified examples may be applied alone, or in combination. You may make it apply.
[Modification 9] The second imaging unit 103 may use a lower performance such as resolution and optical characteristics than the imaging unit 101. In this case, the apparatus according to the present embodiment is realized at low cost. It becomes possible.

[変形例10]本実施形態において、撮像部101と第二撮像部103との較正は必ずしも精密に行われなくてもよい。候補判定部115は特徴対の前後関係のみを判定しているのであるから、撮像部101と第二撮像部103の内部パラメータ及び外部パラメータは特徴対の前後関係の区別がつけられる程度の精度があればよい。 [Modification 10] In this embodiment, the imaging unit 101 and the second imaging unit 103 need not be calibrated accurately. Since the candidate determination unit 115 determines only the context of the feature pair, the internal parameters and the external parameters of the image capturing unit 101 and the second image capturing unit 103 are accurate enough to distinguish the context of the feature pair. I just need it.

(第3の実施形態)
次に、本発明の第3の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、三次元計測装置によって計測される三次元座標が疎である場合に適用できる装置に関して説明する。本実施形態では、三次元計測装置によって計測された疎な三次元座標から、特徴要素位置における三次元座標を推定する。推定された三次元座標の前後関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置によって計測される三次元座標が疎であるような状況においても、計測対象の位置姿勢を精度良く推定することが可能となる。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In the present embodiment, the estimation of the three-dimensional position and orientation of the measurement object will be described with respect to an apparatus applicable when the three-dimensional coordinates measured by the three-dimensional measurement apparatus are sparse. In the present embodiment, the three-dimensional coordinates at the feature element positions are estimated from the sparse three-dimensional coordinates measured by the three-dimensional measuring apparatus. Based on the estimated context of the three-dimensional coordinates, an appropriate one is selected from a plurality of obtained three-dimensional position and orientation candidates. This makes it possible to accurately estimate the position and orientation of the measurement target even in a situation where the three-dimensional coordinates measured by the three-dimensional measurement apparatus are sparse.

図10は、第3の実施形態における装置全体の構成例を示す図である。図10において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101、テンプレート生成部102、及び三次元計測部104を有する。なお、図10に示す構成は一例であり、これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。   FIG. 10 is a diagram illustrating a configuration example of the entire apparatus according to the third embodiment. In FIG. 10, a rectangular frame indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The apparatus includes an information processing apparatus 100 that estimates a three-dimensional position and orientation, and an imaging unit 101, a template generation unit 102, and a three-dimensional measurement unit 104 that are connected thereto. The configuration shown in FIG. 10 is an example, and the present invention is not limited to this. In the following description, parts different from those of the first embodiment will be described, and description of parts similar to those of the first embodiment will be omitted.

本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよく、1枚の撮影画像10を取得する。三次元計測部104は、計測対象物201表面の三次元座標を計測して、計測した三次元座標1101を三次元座標入力部118に出力する。本実施形態では、一例として三次元計測部104としてマルチスリット投影三次元計測装置を用い、撮影画像10の解像度に対して、投影スリットに平行な方向には密であるが垂直な方向には疎となる三次元座標1101を取得するものとする。   In the present embodiment, the imaging unit 101 does not need to have an automatic focus control mechanism therein, and acquires a single captured image 10. The three-dimensional measurement unit 104 measures the three-dimensional coordinates on the surface of the measurement object 201 and outputs the measured three-dimensional coordinates 1101 to the three-dimensional coordinate input unit 118. In this embodiment, as an example, a multi-slit projection three-dimensional measurement apparatus is used as the three-dimensional measurement unit 104, and the resolution of the captured image 10 is dense in the direction parallel to the projection slit but sparse in the vertical direction. Assume that the three-dimensional coordinates 1101 to be obtained are acquired.

図11は、第3の実施形態における撮像部101、三次元計測部104、及び計測対象物201の関係を説明する図である。複数の計測対象物201が存在し、撮像部101は、その上方から全体を俯瞰した撮影画像10を取得する。また、三次元計測部104は、複数のスリット光を計測対象物201に対して投影し、投影スリット線1102上の三次元位置を三次元座標1101の集合として取得する。個々の計測対象物201は無作為に様々な位置姿勢を取り、概ね同一平面上に存在していなくともよく、互いに重なり合う状況も生じ得る。なお、撮像部101は、その光軸と計測対象物201が載置される平面とが略直交するように配置する必要はない。   FIG. 11 is a diagram illustrating the relationship among the imaging unit 101, the three-dimensional measurement unit 104, and the measurement object 201 in the third embodiment. There are a plurality of measurement objects 201, and the imaging unit 101 acquires the captured image 10 obtained by bird's-eye view from above. Further, the three-dimensional measuring unit 104 projects a plurality of slit lights onto the measurement object 201 and acquires a three-dimensional position on the projection slit line 1102 as a set of three-dimensional coordinates 1101. The individual measurement objects 201 take various positions and orientations at random, and do not necessarily exist on the same plane, and may overlap each other. Note that the imaging unit 101 does not have to be arranged so that its optical axis and the plane on which the measurement object 201 is placed are substantially orthogonal.

ここで、撮像部101と三次元計測部104とは事前に較正(キャリブレーション)がなされている。カメラ等の撮像部101と三次元計測装置等の三次元計測部104との間の較正については数多くの手法が提案されているが、いかなる方法を用いてもよい。本実施形態では、撮像部101の内部パラメータ(焦点距離、主点位置、歪み係数)及び撮像部101と三次元計測部104間の相対的な三次元位置姿勢は予め得られており、既知であるものとみなす。   Here, the imaging unit 101 and the three-dimensional measurement unit 104 are calibrated in advance. Many methods have been proposed for calibration between the imaging unit 101 such as a camera and the three-dimensional measuring unit 104 such as a three-dimensional measuring device, but any method may be used. In the present embodiment, internal parameters (focal length, principal point position, distortion coefficient) of the imaging unit 101 and a relative three-dimensional position and orientation between the imaging unit 101 and the three-dimensional measurement unit 104 are obtained in advance and are known. Consider it.

第3の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、及び三次元座標入力部118を有する。撮影画像入力部111は、撮像部101が撮像した撮影画像10を情報処理装置100内部に取り込んで候補探索部113、候補判定部115、及び奥行き識別部114に供給する。三次元座標入力部118は、三次元計測部104が計測した三次元座標1101を情報処理装置100内部に取り込んで奥行き識別部114に供給する。   The information processing apparatus 100 according to the third embodiment includes a captured image input unit 111, a template input unit 112, a candidate search unit 113, a depth identification unit 114, a candidate determination unit 115, and a three-dimensional coordinate input unit 118. The captured image input unit 111 captures the captured image 10 captured by the imaging unit 101 into the information processing apparatus 100 and supplies the captured image 10 to the candidate search unit 113, the candidate determination unit 115, and the depth identification unit 114. The three-dimensional coordinate input unit 118 takes the three-dimensional coordinates 1101 measured by the three-dimensional measurement unit 104 into the information processing apparatus 100 and supplies the information to the depth identification unit 114.

奥行き識別部114は、撮影画像10、三次元座標1101、テンプレート20、及びマッチング候補リスト40を用いて、計測対象物201の特徴要素位置における特徴要素三次元座標1201を複数推定する。そして、奥行き識別部114は、これらの位置関係に基づき、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。   The depth identifying unit 114 estimates a plurality of feature element three-dimensional coordinates 1201 at the feature element positions of the measurement target 201 using the captured image 10, the three-dimensional coordinates 1101, the template 20, and the matching candidate list 40. Then, the depth identifying unit 114 identifies the depth context of the feature elements included in the template 20 based on these positional relationships.

第3の実施形態における動作について説明する。第3の実施形態における装置の処理の流れは、第1の実施形態と同様である。ただし、処理内容が第1の実施形態とは異なるステップが存在するため、それについて図3(a)を参照して説明する。   The operation in the third embodiment will be described. The processing flow of the apparatus in the third embodiment is the same as that in the first embodiment. However, there are steps whose processing contents are different from those of the first embodiment, which will be described with reference to FIG.

ステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、三次元計測部104は、計測対象物201上の三次元座標1101を計測する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、三次元計測部104は、三次元座標1101を三次元座標入力部118に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113、奥行き識別部114、及び候補判定部115に供給する。また、三次元座標入力部118は、入力された三次元座標1101を奥行き識別部114に供給する。   In step S <b> 302, the imaging unit 101 captures the captured image 10 of the scene including the measurement target 201, and the three-dimensional measurement unit 104 measures the three-dimensional coordinates 1101 on the measurement target 201. The imaging unit 101 outputs the captured image 10 to the captured image input unit 111, and the three-dimensional measurement unit 104 outputs the three-dimensional coordinates 1101 to the three-dimensional coordinate input unit 118. The captured image input unit 111 supplies the input captured image 10 to the candidate search unit 113, the depth identification unit 114, and the candidate determination unit 115. Further, the three-dimensional coordinate input unit 118 supplies the input three-dimensional coordinates 1101 to the depth identification unit 114.

また、ステップS305にて、奥行き識別部114は、三次元座標1101及びテンプレート20を参照して、撮影画像10における特徴要素三次元座標1201を推定する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。そして、奥行き識別部114は、候補探索部113によって抽出された撮影画像10の輪郭と、テンプレート要素中に定義されている特徴要素412、三次元座標1101とを参照して、特徴要素三次元座標1201を算出する。   In step S305, the depth identifying unit 114 estimates the feature element three-dimensional coordinates 1201 in the captured image 10 with reference to the three-dimensional coordinates 1101 and the template 20. The depth identifying unit 114 first extracts one matching candidate from the matching candidate list 40. Then, the depth identifying unit 114 refers to the contour of the captured image 10 extracted by the candidate searching unit 113, the feature element 412 and the three-dimensional coordinate 1101 defined in the template element, and the feature element three-dimensional coordinate. 1201 is calculated.

図12は、本実施形態での特徴要素三次元座標1201の取得方法を説明する図である。奥行き識別部114は、計測対象物201上の三次元座標1101を用いて、撮影画像10における特徴要素412の位置における三次元座標である特徴要素三次元座標1201を取得する。図12において、特徴要素412と特徴要素三次元座標1201は同一の場所に存在する。特徴要素412の位置での特徴要素三次元座標1201は、この段階では未知である。そのため、奥行き識別部114は、周囲の三次元座標1101を用いて、特徴要素三次元座標1201を推定する。   FIG. 12 is a diagram illustrating a method for acquiring the feature element three-dimensional coordinates 1201 in the present embodiment. The depth identifying unit 114 uses the three-dimensional coordinates 1101 on the measurement object 201 to acquire the feature element three-dimensional coordinates 1201 that are the three-dimensional coordinates at the position of the feature element 412 in the captured image 10. In FIG. 12, the feature element 412 and the feature element three-dimensional coordinate 1201 exist in the same place. The feature element three-dimensional coordinates 1201 at the position of the feature element 412 are unknown at this stage. Therefore, the depth identifying unit 114 estimates the feature element three-dimensional coordinates 1201 using the surrounding three-dimensional coordinates 1101.

具体的には、奥行き識別部114は、候補探索部113において抽出された撮影画像10の輪郭411について、同一輪郭上で計測された特徴要素412近傍の三次元座標1101を探索する。図12において、輪郭411上の2つの黒丸が探索された近傍の三次元座標1101a、1101bを表している。次に、奥行き識別部114は、撮像部101の内部パラメータ、及び撮像部101と三次元計測部104との間の外部パラメータを用いて、三次元座標1101a、1101bが撮影画像10に投影される画像座標を算出する。奥行き識別部114は、特徴要素の画像座標と三次元座標1101a、1101bが撮影画像10に投影される画像座標との距離を各々算出し、三次元座標1101a、1101bを算出した2つの距離で内分することで特徴要素三次元座標1201を算出する。   Specifically, the depth identifying unit 114 searches for the three-dimensional coordinates 1101 near the feature element 412 measured on the same contour for the contour 411 of the captured image 10 extracted by the candidate searching unit 113. In FIG. 12, two three-dimensional coordinates 1101a and 1101b in the vicinity where two black circles on the outline 411 are searched are shown. Next, the depth identifying unit 114 projects the three-dimensional coordinates 1101 a and 1101 b on the captured image 10 using the internal parameters of the imaging unit 101 and the external parameters between the imaging unit 101 and the three-dimensional measurement unit 104. Image coordinates are calculated. The depth identification unit 114 calculates the distance between the image coordinates of the feature element and the image coordinates on which the three-dimensional coordinates 1101a and 1101b are projected on the captured image 10, and uses the two distances calculated as the three-dimensional coordinates 1101a and 1101b. By dividing, the feature element three-dimensional coordinates 1201 are calculated.

次に、奥行き識別部114は、第1の実施形態と同様に、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素とを1つずつ抽出して特徴対を構成する。なお、撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。   Next, as in the first embodiment, the depth identification unit 114 refers to the feature depth identification information from the feature elements 412 defined in the template element, and the feature elements assigned the “front” label and the “back” The feature elements to which the label is given are extracted one by one to form a feature pair. In addition, when the feature element extracted on the picked-up image 10 is not observed, the feature element is not used. The depth identification unit 114 repeats this process to set a plurality of feature pairs.

また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、各特徴対についてステップS305において算出された特徴要素三次元座標1201と、特徴奥行き識別情報とを比較する。「手前」ラベルが付与された特徴要素412に対応する特徴要素三次元座標1201が「奥」ラベルが付与された特徴要素412に対応する特徴要素三次元座標1201よりも視点に近い値であれば、候補判定部115は、そのマッチング候補を正しいと判定する。候補判定部115は、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。   In step S <b> 306, the candidate determination unit 115 determines the correctness of the matching candidates included in the matching candidate list 40 and outputs the final position / orientation information 50. The candidate determination unit 115 compares the feature element three-dimensional coordinates 1201 calculated in step S305 for each feature pair with the feature depth identification information. If the feature element three-dimensional coordinate 1201 corresponding to the feature element 412 to which the “front” label is assigned is closer to the viewpoint than the feature element three-dimensional coordinate 1201 to which the feature element 412 to which the “back” label is assigned is closer to the viewpoint. The candidate determination unit 115 determines that the matching candidate is correct. The candidate determination unit 115 outputs position and orientation information corresponding to the matching candidate determined to be correct as final position and orientation information 50.

このように第3の実施形態によれば、三次元計測装置によって計測される三次元座標が疎であるような状況においても、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第3の実施形態に関して、以下の変形例11を適用するようにしてもよい。
[変形例11]奥行き識別部114は、撮影画像10において特徴要素412が検出される位置での三次元座標として特徴要素三次元座標1201を推定するが、輪郭411上で計測された三次元座標1101をそのまま用いるようにしてもよい。この場合、候補判定部115は、特徴要素412ではなく、輪郭411の前後関係を判定するようにすればよい。また、テンプレート生成部102は、輪郭411上のサンプル点ではなく、輪郭を構成する直線(線分)に対して特徴奥行き識別情報を算出すればよい。
Thus, according to the third embodiment, it is possible to accurately estimate the three-dimensional position and orientation of the measurement object even in a situation where the three-dimensional coordinates measured by the three-dimensional measurement apparatus are sparse. Become. In addition to the example described above, the following modification 11 may be applied to the third embodiment.
[Modification 11] The depth identification unit 114 estimates the feature element three-dimensional coordinates 1201 as the three-dimensional coordinates at the position where the feature element 412 is detected in the captured image 10, but the three-dimensional coordinates measured on the contour 411. 1101 may be used as it is. In this case, the candidate determination unit 115 may determine the front-rear relationship of the contour 411 instead of the feature element 412. Moreover, the template production | generation part 102 should just calculate the feature depth identification information with respect to the straight line (line segment) which comprises an outline instead of the sample point on the outline 411. FIG.

(第4の実施形態)
次に、本発明の第4の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、計測対象物に係る三次元座標を1点のみ計測する場合に適用できる装置に関して説明する。本実施形態では、複数得られた三次元位置姿勢の候補の中から、1点の三次元座標と既知の平面との距離に基づいて適切なものを選択する。これにより、計測できる三次元座標が1点であるような状況においても、計測対象の位置姿勢を精度良く推定することが可能となる。なお、第4の実施形態における装置全体の構成は、図10に示した第3の実施形態における構成と同様である。以下では、第3の実施形態と異なる部分について説明し、第3の実施形態と同様の部分については説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described. In this embodiment, estimation of the three-dimensional position and orientation of the measurement target will be described with respect to an apparatus that can be applied when measuring only one point of the three-dimensional coordinates related to the measurement target. In the present embodiment, an appropriate one is selected from a plurality of obtained three-dimensional position / posture candidates based on the distance between one point of three-dimensional coordinates and a known plane. This makes it possible to accurately estimate the position and orientation of the measurement target even in a situation where the three-dimensional coordinates that can be measured are one point. Note that the overall configuration of the apparatus in the fourth embodiment is the same as the configuration in the third embodiment shown in FIG. Below, a different part from 3rd Embodiment is demonstrated and description is abbreviate | omitted about the part similar to 3rd Embodiment.

三次元計測部104は、計測対象物201の表面の三次元座標を計測して、計測した三次元座標1101を三次元座標入力部118に出力する。本実施形態では、一例として三次元計測部104としてスポット投影三次元計測装置を用い、計測対象物201の表面の1点について、三次元座標1101を取得する。奥行き識別部114は、1点の三次元座標1101と平面202との間の距離に基づいて、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。   The three-dimensional measuring unit 104 measures the three-dimensional coordinates of the surface of the measurement object 201 and outputs the measured three-dimensional coordinates 1101 to the three-dimensional coordinate input unit 118. In the present embodiment, as an example, a three-dimensional coordinate 1101 is acquired for one point on the surface of the measurement target 201 using a spot projection three-dimensional measurement device as the three-dimensional measurement unit 104. The depth identifying unit 114 identifies the depth context of the feature elements included in the template 20 based on the distance between one point of the three-dimensional coordinates 1101 and the plane 202.

図13は、第4の実施形態における撮像部101、三次元計測部104、及び計測対象物201の関係を説明する図である。複数の計測対象物201が無作為に配置され、撮像部101は、その上方から全体を俯瞰した撮影画像10を取得する。また、三次元計測部104は、スポット光を計測対象物201に対して投影し、投影スポット上の三次元位置を三次元座標1101として取得する。個々の計測対象物201は様々な位置姿勢を取るが、互いに重なり合うことは少なく、概ね平面202上に存在する。また、三次元計測部104から平面202までの距離は予め計測しておく。これは計測対象物201を配置しない状態で三次元座標1101を計測し、その値を保持することで実現される。   FIG. 13 is a diagram for explaining a relationship among the imaging unit 101, the three-dimensional measurement unit 104, and the measurement object 201 in the fourth embodiment. A plurality of measurement objects 201 are randomly arranged, and the imaging unit 101 acquires a captured image 10 obtained by bird's-eye view from above. In addition, the three-dimensional measurement unit 104 projects spot light onto the measurement object 201 and acquires a three-dimensional position on the projection spot as three-dimensional coordinates 1101. The individual measurement objects 201 take various positions and orientations, but rarely overlap each other, and generally exist on the plane 202. The distance from the three-dimensional measuring unit 104 to the plane 202 is measured in advance. This is realized by measuring the three-dimensional coordinate 1101 without placing the measurement object 201 and holding the value.

第4の実施形態における動作について説明する。第4の実施形態における装置の処理の流れは、第3の実施形態と同様である。ただし、処理内容が第3の実施形態とは異なるステップが存在するため、それについて図3(a)及び図3(b)を参照して説明する。   The operation in the fourth embodiment will be described. The processing flow of the apparatus in the fourth embodiment is the same as that of the third embodiment. However, there are steps whose processing contents are different from those of the third embodiment, which will be described with reference to FIGS. 3 (a) and 3 (b).

図3(b)におけるステップS313にて、テンプレート生成部102は、テンプレート画像30から特徴要素412を抽出する。このとき、計測対象物201の輪郭411上の画素だけでなく、面上の画素についてもサンプリングを行う。   In step S <b> 313 in FIG. 3B, the template generation unit 102 extracts the feature element 412 from the template image 30. At this time, sampling is performed not only on the pixels on the contour 411 of the measurement object 201 but also on the pixels on the surface.

また、ステップS314にて、テンプレート生成部102は、ステップS313において抽出した特徴要素412について特徴奥行き識別情報を算出する。テンプレート生成部102は、次のようにして特徴奥行き識別情報を算出する。テンプレート生成部102は、計測対象物201の特徴要素412をサンプリングする際、ステップS312において奥行き値を保持した奥行きバッファを参照して奥行き値を得る。1枚のテンプレート画像30に対して所定数のサンプリングが終了した時点では、特徴要素数と同数の奥行き値が得られていることになる。テンプレート生成部102は、これらの奥行き値を最奥部の面からの距離に変換する。図13において、計測対象物201は平面202上に置かれているので、視点から観測される計測対象物201は最奥面が平面202に接することとなる。テンプレート生成部102は、サンプリングされた特徴要素412における奥行きと、最奥面(すなわち、計測対象物201が平面202上に置かれたとき、平面202と接する面)との距離を算出し、特徴奥行き識別情報としてテンプレート20に書き込む。   In step S314, the template generation unit 102 calculates feature depth identification information for the feature element 412 extracted in step S313. The template generation unit 102 calculates the feature depth identification information as follows. When sampling the feature element 412 of the measurement object 201, the template generation unit 102 obtains a depth value by referring to the depth buffer that holds the depth value in step S312. When a predetermined number of samplings are completed for one template image 30, the same number of depth values as the number of feature elements are obtained. The template generation unit 102 converts these depth values into distances from the innermost surface. In FIG. 13, since the measurement object 201 is placed on the plane 202, the measurement object 201 observed from the viewpoint is in contact with the plane 202 at the innermost surface. The template generation unit 102 calculates the distance between the depth of the sampled feature element 412 and the innermost surface (that is, the surface in contact with the plane 202 when the measurement object 201 is placed on the plane 202). Write to the template 20 as depth identification information.

また、図3(a)におけるステップS302にて、撮像部101は、計測対象物201を含むシーンの撮影画像10を撮像し、三次元計測部104は、計測対象物201上の三次元座標1101を計測する。撮像部101は、撮影画像10を撮影画像入力部111に出力し、三次元計測部104は、三次元座標1101を三次元座標入力部118に出力する。撮影画像入力部111は、入力された撮影画像10を候補探索部113及び奥行き識別部114に供給する。また、三次元座標入力部118は、入力された三次元座標1101を奥行き識別部114に供給する。   Further, in step S302 in FIG. 3A, the imaging unit 101 captures the captured image 10 of the scene including the measurement target 201, and the three-dimensional measurement unit 104 determines the three-dimensional coordinates 1101 on the measurement target 201. Measure. The imaging unit 101 outputs the captured image 10 to the captured image input unit 111, and the three-dimensional measurement unit 104 outputs the three-dimensional coordinates 1101 to the three-dimensional coordinate input unit 118. The captured image input unit 111 supplies the input captured image 10 to the candidate search unit 113 and the depth identification unit 114. Further, the three-dimensional coordinate input unit 118 supplies the input three-dimensional coordinates 1101 to the depth identification unit 114.

また、ステップS305にて、奥行き識別部114は、三次元座標1101及びテンプレート20を参照して、撮影画像10における特徴要素三次元座標1201を推定する。奥行き識別部114は、まずマッチング候補リスト40からマッチング候補を1つ取り出す。次に、奥行き識別部114は、テンプレート要素中に定義されている位置姿勢を基に、撮影画像10上で検出されたスポット光の画像座標の最近傍の特徴要素412を探索する。奥行き識別部114は、入力された三次元座標1101と、事前に算出した三次元計測部104−平面202間の距離とを参照して、三次元座標1101−平面202間の距離を算出する。   In step S305, the depth identifying unit 114 estimates the feature element three-dimensional coordinates 1201 in the captured image 10 with reference to the three-dimensional coordinates 1101 and the template 20. The depth identifying unit 114 first extracts one matching candidate from the matching candidate list 40. Next, the depth identifying unit 114 searches for the nearest feature element 412 of the image coordinates of the spot light detected on the captured image 10 based on the position and orientation defined in the template element. The depth identifying unit 114 calculates the distance between the three-dimensional coordinate 1101 and the plane 202 with reference to the input three-dimensional coordinate 1101 and the previously calculated distance between the three-dimensional measurement unit 104 and the plane 202.

また、ステップS306にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、ステップS305において算出された三次元座標1101−平面202間の距離と、テンプレート20に記述されている特徴奥行き識別情報とを比較する。候補判定部115は、これらの値の差が一定のしきい値以内(すなわち、しきい値の範囲で概略等しいと見なせる状態)であれば、候補判定部115は、そのマッチング候補を正しいと判定する。候補判定部115は、正しいと判定されたマッチング候補に対応する位置姿勢の情報を、最終位置姿勢情報50として出力する。   In step S <b> 306, the candidate determination unit 115 determines the correctness of the matching candidates included in the matching candidate list 40 and outputs the final position / orientation information 50. The candidate determination unit 115 compares the distance between the three-dimensional coordinates 1101-the plane 202 calculated in step S <b> 305 and the feature depth identification information described in the template 20. Candidate determination section 115 determines that the matching candidate is correct if the difference between these values is within a certain threshold value (that is, in a state in which it can be regarded as approximately equal within the threshold range). To do. The candidate determination unit 115 outputs position and orientation information corresponding to the matching candidate determined to be correct as final position and orientation information 50.

このように第4の実施形態によれば、計測できる三次元座標が1点であるような状況においても、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第4の実施形態に関して、以下の変形例12を適用するようにしてもよい。
[変形例12]本実施形態においてテンプレート生成部102は、計測対象物201の最奥面と特徴要素の奥行き値との差を特徴奥行き識別情報として算出したが、これに限られるものではない。物理シミュレーションを用いて計測対象物201が平面202に接する面を特定し、その面と特徴要素の奥行き値との差を算出するようにしてもよい。
As described above, according to the fourth embodiment, it is possible to accurately estimate the three-dimensional position and orientation of the measurement object even in a situation where the number of three-dimensional coordinates that can be measured is one point. Note that the present invention is not limited to the example described above, and the following modification 12 may be applied to the fourth embodiment.
[Modification 12] In the present embodiment, the template generation unit 102 calculates the difference between the innermost surface of the measurement target 201 and the depth value of the feature element as the feature depth identification information. However, the present invention is not limited to this. A surface where the measurement object 201 is in contact with the plane 202 may be specified using physical simulation, and the difference between the surface and the depth value of the feature element may be calculated.

(第5の実施形態)
次に、本発明の第5の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定について、単一の撮像部が移動しながら連続的に複数の撮影画像を取得する場合に適用できる装置に関して説明する。本実施形態では、単一の撮像部がロボットハンド等の駆動部に取り付けられ、駆動部が連続的に動作する過程で視点位置の異なる画像が複数撮影される。過去の撮影画像と現在の撮影画像との視差の大小関係に基づいて、複数得られた三次元位置姿勢の候補の中から適切なものを選択する。これにより、三次元計測装置を備えることなく、計測対象物の位置姿勢を精度良く推定することが可能となる。
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described. In the present embodiment, the estimation of the three-dimensional position and orientation of the measurement target will be described with respect to an apparatus that can be applied to a case where a plurality of captured images are acquired continuously while a single imaging unit moves. In the present embodiment, a single imaging unit is attached to a drive unit such as a robot hand, and a plurality of images with different viewpoint positions are captured in the process of the drive unit continuously operating. An appropriate one is selected from a plurality of obtained three-dimensional position and orientation candidates based on the magnitude relationship of the parallax between the past captured image and the current captured image. This makes it possible to accurately estimate the position and orientation of the measurement object without providing a three-dimensional measurement apparatus.

図14は、第5の実施形態における装置全体の構成例を示す図である。図14において、長方形の枠は本実施形態の各処理を行う機能モジュールを示し、矢印はデータの流れを示している。装置は、三次元位置姿勢の推定を行う情報処理装置100と、それに接続する撮像部101及びテンプレート生成部102を有する。なお、図14に示す構成は一例であり。これに限定されるものではない。また、以下では第1の実施形態と異なる部分について説明し、第1の実施形態と同様の部分については説明を省略する。   FIG. 14 is a diagram illustrating a configuration example of the entire apparatus according to the fifth embodiment. In FIG. 14, a rectangular frame indicates a functional module that performs each process of the present embodiment, and an arrow indicates a data flow. The apparatus includes an information processing apparatus 100 that estimates a three-dimensional position and orientation, and an imaging unit 101 and a template generation unit 102 that are connected thereto. Note that the configuration shown in FIG. 14 is an example. It is not limited to this. In the following description, parts different from those of the first embodiment will be described, and description of parts similar to those of the first embodiment will be omitted.

撮像部101は、三次元位置姿勢を推定する計測対象物201を含むシーンを撮像した撮影画像10を取得する。撮像部101は、不図示の駆動部に取り付けられており、駆動部が連続的に動作することによって時系列で視点位置の異なる複数の撮影画像10が取得される。また、撮像部101は、不図示の位置姿勢センサを有しており、駆動部の動きに応じて撮影画像10と同期した撮影画像位置姿勢情報14を取得する。撮像部101は、取得した撮影画像10及び撮影画像位置姿勢情報14を、情報処理装置100の撮影画像入力部111に出力する。なお、本実施形態において撮像部101は、その内部に自動フォーカス制御機構を有していなくともよい。   The imaging unit 101 acquires a captured image 10 obtained by capturing a scene including a measurement object 201 for estimating a three-dimensional position and orientation. The imaging unit 101 is attached to a drive unit (not shown), and a plurality of captured images 10 having different viewpoint positions in time series are acquired by continuously operating the drive unit. The imaging unit 101 includes a position and orientation sensor (not shown), and acquires captured image position and orientation information 14 synchronized with the captured image 10 according to the movement of the drive unit. The imaging unit 101 outputs the acquired captured image 10 and captured image position / orientation information 14 to the captured image input unit 111 of the information processing apparatus 100. In the present embodiment, the imaging unit 101 does not have to have an automatic focus control mechanism therein.

第5の実施形態における情報処理装置100は、撮影画像入力部111、テンプレート入力部112、候補探索部113、奥行き識別部114、候補判定部115、及び候補保持部119を有する。撮影画像入力部111は、撮像部101が取得した撮影画像10及び撮影画像位置姿勢情報14を情報処理装置100内部に取り込んで候補探索部113及び候補判定部115に供給する。   The information processing apparatus 100 according to the fifth embodiment includes a captured image input unit 111, a template input unit 112, a candidate search unit 113, a depth identification unit 114, a candidate determination unit 115, and a candidate holding unit 119. The captured image input unit 111 captures the captured image 10 and the captured image position / orientation information 14 acquired by the imaging unit 101 into the information processing apparatus 100 and supplies them to the candidate search unit 113 and the candidate determination unit 115.

候補探索部113は、入力される撮影画像10とテンプレート20とをテンプレートマッチングによって照合し、計測対象物のマッチング候補リスト40を生成して出力する。候補探索部113には、常に最新の撮影画像10及び撮影画像位置姿勢情報14が入力され、その時点におけるマッチング候補リスト40が生成される。また、候補探索部113は、撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を候補保持部119に出力する。   The candidate search unit 113 collates the input captured image 10 with the template 20 by template matching, generates a measurement target matching candidate list 40, and outputs it. The candidate search unit 113 always receives the latest captured image 10 and captured image position / orientation information 14 and generates a matching candidate list 40 at that time. The candidate search unit 113 also outputs the captured image 10, the captured image position / orientation information 14, and the matching candidate list 40 to the candidate holding unit 119.

候補保持部119は、候補探索部113が過去に入力や生成した撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を保持する。候補判定部115は、候補探索部113が出力する最新の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40が入力される。また、候補判定部115は、候補保持部119が保持する過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40が入力される。候補判定部115は、入力されるこれらの情報に基づいて、最新のマッチング候補リスト40に含まれるマッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報のみを最終位置姿勢情報50として出力する。   The candidate holding unit 119 holds the captured image 10, the captured image position / orientation information 14, and the matching candidate list 40 that are input or generated in the past by the candidate search unit 113. The candidate determination unit 115 receives the latest captured image 10, the captured image position / orientation information 14, and the matching candidate list 40 output from the candidate search unit 113. Further, the candidate determination unit 115 receives the past captured image 10, the captured image position / orientation information 14, and the matching candidate list 40 that are stored in the candidate storage unit 119. Based on the input information, the candidate determination unit 115 determines whether the matching candidates included in the latest matching candidate list 40 are correct or incorrect, and finally outputs only the position and orientation information corresponding to the matching candidates determined to be correct. Output as position and orientation information 50.

第5の実施形態における動作について説明する。図15は、第5の実施形態における装置の処理の流れを示すフローチャートである。ステップS1501での事前準備の処理の流れは、図3(b)に示した第1の実施形態における事前準備の処理と同様である。   The operation in the fifth embodiment will be described. FIG. 15 is a flowchart showing the flow of processing of the apparatus in the fifth embodiment. The flow of the preparation process in step S1501 is the same as the preparation process in the first embodiment shown in FIG.

本実施形態においては、第1の実施形態におけるステップS302の処理に対応するステップS1503の処理は幾度も繰り返される。それに対して、第1の実施形態におけるステップS303の処理に対応するステップS1502の処理は、本装置の起動時に一度のみ処理すればよい。そのため、第5の実施形態では、ステップS1502にてテンプレート20の入力を行った後に、ステップS1503にて撮影画像10及び撮影画像位置姿勢情報14の入力を実行する。   In the present embodiment, the process of step S1503 corresponding to the process of step S302 in the first embodiment is repeated many times. On the other hand, the process of step S1502 corresponding to the process of step S303 in the first embodiment may be processed only once when the apparatus is activated. Therefore, in the fifth embodiment, after the template 20 is input in step S1502, the captured image 10 and the captured image position / orientation information 14 are input in step S1503.

ステップS1503にて、撮像部101は、計測対象物201を含むシーンの画像を撮像するとともに、これと同期して撮像部101の位置姿勢情報を取得する。撮像部101は、取得した撮影画像10及び撮影画像位置姿勢情報14を撮影画像入力部111に出力する。撮影画像入力部111は、入力された撮影画像10及び撮影画像位置姿勢情報14を候補探索部113及び候補判定部115に供給する。   In step S1503, the imaging unit 101 captures an image of a scene including the measurement target 201, and acquires position and orientation information of the imaging unit 101 in synchronization with the image. The imaging unit 101 outputs the acquired captured image 10 and captured image position / orientation information 14 to the captured image input unit 111. The captured image input unit 111 supplies the input captured image 10 and captured image position / orientation information 14 to the candidate search unit 113 and the candidate determination unit 115.

ステップS1504にて、候補探索部113は、第1の実施形態と同様にして位置姿勢の候補を探索する。次に、ステップS1505にて、奥行き識別部114は、テンプレート20に含まれる特徴要素の奥行きの前後関係を識別する。なお、候補保持部119が過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を保持していない場合(すなわち、初回実行時)には、ステップS1505及びステップS1506の処理を行わずにステップS1508に進む。   In step S1504, the candidate search unit 113 searches for position and orientation candidates in the same manner as in the first embodiment. Next, in step S <b> 1505, the depth identifying unit 114 identifies the depth context of the feature elements included in the template 20. Note that if the candidate holding unit 119 does not hold the past captured image 10, the captured image position / orientation information 14, and the matching candidate list 40 (that is, at the time of the first execution), the processing of step S1505 and step S1506 is performed. Without proceeding to step S1508.

ステップS1504では、奥行き識別部114は、まず候補探索部113から入力されたマッチング候補リスト40から位置姿勢候補を1つ取り出す。次に、奥行き識別部114は、候補探索部113から現在の撮影画像10及び撮影画像位置姿勢情報14を入力する。同時に、候補保持部119から、過去の撮影画像10、撮影画像位置姿勢情報14、及びマッチング候補リスト40を入力する。   In step S1504, the depth identifying unit 114 first extracts one position / orientation candidate from the matching candidate list 40 input from the candidate searching unit 113. Next, the depth identifying unit 114 inputs the current captured image 10 and the captured image position / orientation information 14 from the candidate searching unit 113. At the same time, the past captured image 10, the captured image position and orientation information 14, and the matching candidate list 40 are input from the candidate holding unit 119.

奥行き識別部114は、テンプレート要素中に定義されている特徴要素412から特徴奥行き識別情報を参照し、「手前」ラベルが付与された特徴要素と「奥」ラベルが付与された特徴要素を1つずつ抽出して特徴対を構成する。なお、現在の撮影画像10又は過去の撮影画像10上で抽出された特徴要素が観測されなかった場合、その特徴要素は使用しない。奥行き識別部114は、この処理を繰り返して複数の特徴対を設定する。   The depth identification unit 114 refers to the feature depth identification information from the feature elements 412 defined in the template element, and includes one feature element to which the “front” label is assigned and one feature element to which the “back” label is assigned. A feature pair is constructed by extracting each one. In addition, when the feature element extracted on the present captured image 10 or the past captured image 10 is not observed, the feature element is not used. The depth identification unit 114 repeats this process to set a plurality of feature pairs.

また、奥行き識別部114は、現在の撮影画像位置姿勢情報14及び過去の撮影画像位置姿勢情報14を参照して、過去の撮影画像10を平行化する。これにより、現在の撮影画像10及び過去の撮影画像10のエピポーラ線がx軸に平行な状態となる。奥行き識別部114は、各特徴対について特徴要素412が検出された現在の撮影画像10と過去の撮影画像10上の視差(すなわち、それぞれ検出されたx座標の差)を比較する。2画像の視差の比較は、第2の実施形態と同様の方法で行えばよい。   In addition, the depth identifying unit 114 refers to the current captured image position / orientation information 14 and the past captured image position / orientation information 14 to parallelize the past captured image 10. Thereby, the epipolar line of the present captured image 10 and the past captured image 10 is in a state parallel to the x axis. The depth identifying unit 114 compares the current captured image 10 in which the feature element 412 is detected for each feature pair with the parallax (that is, the difference between the detected x coordinates) in the past captured image 10. The comparison of the parallax between the two images may be performed by the same method as in the second embodiment.

ステップS1506にて、候補判定部115は、マッチング候補リスト40に含まれるマッチング候補の正誤を判定して最終位置姿勢情報50を出力する。候補判定部115は、2枚の画像(現在の撮影画像10及び過去の撮影画像10)の三角測量に基づき、マッチング候補の正誤を判定し、正しいと判定されたマッチング候補に対応する位置姿勢の情報を最終位置姿勢情報50として出力する。   In step S <b> 1506, the candidate determination unit 115 determines whether the matching candidates included in the matching candidate list 40 are correct and outputs the final position / orientation information 50. The candidate determination unit 115 determines the correctness of the matching candidate based on triangulation of the two images (the current captured image 10 and the past captured image 10), and the position and orientation corresponding to the matching candidate determined to be correct. The information is output as final position and orientation information 50.

ステップS1507にて、候補保持部119は、候補探索部113から入力される最新のマッチング候補リスト40、撮影画像10、及び撮影画像位置姿勢情報14を保持する。これらの値は、次回のステップS1506の処理を実行する際に参照される。ステップS1508にて、ユーザからの指示に基づき、本実施形態の三次元位置姿勢の推定処理を終了する、又はステップS1503に戻って処理を継続する。   In step S <b> 1507, the candidate holding unit 119 holds the latest matching candidate list 40, the captured image 10, and the captured image position / orientation information 14 input from the candidate search unit 113. These values are referred to when the next process of step S1506 is executed. In step S1508, based on an instruction from the user, the three-dimensional position / orientation estimation process of this embodiment is terminated, or the process returns to step S1503 to continue the process.

このように第5の実施形態によれば、単一の撮像部が移動しながら連続的に複数の撮影画像を取得することによって、三次元計測装置を設けなくとも、計測対象物の三次元位置姿勢を精度良く推定することが可能となる。なお、前述した例に限らず、第5の実施形態に関して、以下の変形例12を適用するようにしてもよい。
[変形例12]本実施形態においては、撮像部101が位置姿勢センサによって撮影画像位置姿勢情報14を取得するようにしているが、これに限定されるものではない。SfMあるいはSLAM技術を用いて、撮影画像10上で検出される特徴点座標に基づき、撮影画像入力部111が撮影画像位置姿勢情報14を生成するようにしてもよい。
As described above, according to the fifth embodiment, the three-dimensional position of the measurement object can be obtained without providing a three-dimensional measurement device by continuously acquiring a plurality of captured images while the single imaging unit moves. The posture can be estimated with high accuracy. The following modified example 12 may be applied to the fifth embodiment, not limited to the example described above.
[Modification 12] In the present embodiment, the imaging unit 101 acquires the captured image position / orientation information 14 using the position / orientation sensor, but the present invention is not limited to this. The captured image input unit 111 may generate the captured image position / orientation information 14 based on the feature point coordinates detected on the captured image 10 using SfM or SLAM technology.

(第6の実施形態)
次に、本発明の第6の実施形態について説明する。本実施形態では、計測対象物の三次元位置姿勢の推定結果を用いて、ロボット等の駆動部が計測対象物を把持する場合に適用できる物体把持装置に関して説明する。本実施形態については、第5の実施形態と異なる部分についてのみ説明する。
(Sixth embodiment)
Next, a sixth embodiment of the present invention will be described. In the present embodiment, an object gripping apparatus that can be applied when a driving unit such as a robot grips a measurement target object using the estimation result of the three-dimensional position and orientation of the measurement target object will be described. In the present embodiment, only portions different from the fifth embodiment will be described.

本実施形態においては、三次元位置姿勢の推定を行う情報処理装置100の外部に不図示の制御部を備え、出力される最終位置姿勢情報50を基に駆動部に対して最終目的位置姿勢情報を生成する。この最終目的位置姿勢情報は、駆動部が有するエンドエフェクター(不図示)が計測対象物201を把持することができるようにする位置姿勢情報である。最終目的位置姿勢情報に関しては、最終位置姿勢情報50に対して所定の三次元変換を適用することで生成される。所定の三次元変換は、計測対象物201の形状とエンドエフェクターとの関係から定義され、そのエンドエフェクターが計測対象物201を把持するのに最も適した駆動部の位置姿勢を、計測対象物201の座標系において表したものである。所定の三次元変換は、本実施形態における処理の開始前に予め算出しておき、処理開始時にパラメータとして装置に入力される。   In the present embodiment, a control unit (not shown) is provided outside the information processing apparatus 100 that estimates the three-dimensional position and orientation, and final target position and orientation information is output to the drive unit based on the output final position and orientation information 50. Is generated. This final target position / posture information is position / posture information that enables an end effector (not shown) of the drive unit to grip the measurement target 201. The final target position / orientation information is generated by applying predetermined three-dimensional transformation to the final position / orientation information 50. The predetermined three-dimensional transformation is defined from the relationship between the shape of the measurement target object 201 and the end effector, and the position and orientation of the drive unit most suitable for the end effector to hold the measurement target object 201 is determined as the measurement target object 201. It is expressed in the coordinate system. The predetermined three-dimensional conversion is calculated in advance before the start of processing in the present embodiment, and is input to the apparatus as a parameter at the start of processing.

このように第6の実施形態によれば、最終位置姿勢情報50として出力される計測対象物の三次元位置姿勢の推定結果を用いて、最終目的位置姿勢情報を生成することで、ロボット等の駆動部が計測対象物を把持することが可能となる。   As described above, according to the sixth embodiment, the final target position / orientation information is generated by using the estimation result of the three-dimensional position / orientation of the measurement object output as the final position / orientation information 50, so that the robot or the like The drive unit can grip the measurement object.

なお、「撮影画像入力部111」は、撮像部101が撮影した画像を情報処理装置100に入力できるものであれば、いかなるものでもよい。また、入力する画像においても、RGBカラー画像、グレイスケール画像、白黒画像、奥行き画像等、いかなる種類の画像でもよい。また、「特徴要素」は、画像中で検出される要素であれば何でもよく、点に限られず、線や円、矩形等の領域によって定義されるものであってもよい。また、「特徴要素」は、計測対象物を複数の視点から観測した画像から得ることができるものであり、各実施形態では計測対象物のCADモデルをレンダリングして生成する構成について説明したが、これに限られるものではない。例えば変形例2として説明したように、実際の計測対象物を複数の方向から撮影し、位置姿勢と対応づけてテンプレートを生成するようにしてもよい。   The “captured image input unit 111” may be any unit as long as it can input an image captured by the imaging unit 101 to the information processing apparatus 100. The input image may be any type of image such as an RGB color image, a gray scale image, a black and white image, or a depth image. The “feature element” is not limited to a point as long as it is an element detected in the image, and may be defined by an area such as a line, a circle, or a rectangle. In addition, the “feature element” can be obtained from images obtained by observing the measurement object from a plurality of viewpoints, and in each embodiment, the configuration in which the CAD model of the measurement object is rendered and generated has been described. It is not limited to this. For example, as described in Modification 2, an actual measurement object may be photographed from a plurality of directions, and a template may be generated in association with the position and orientation.

また、「候補探索部113」は、入力した撮影画像から計測対象物の位置姿勢の候補を探索する構成に限られるものではない。例えば変形例6として示したように、位置姿勢に加えて計測対象物の種別を位置姿勢の候補に含め、計測対象物の種別を探索するような構成も含めることが可能である。また、「候補判定部115」は、検出された特徴要素相互の奥行き相対関係とテンプレートに記述された特徴要素相互の奥行き相対関係に基づいて、マッチング候補の正誤を判定するが、この特徴要素相互の奥行き相対関係には様々なものを用いることができる。また、「候補判定部115」は、マッチング候補の正誤判定の結果、正しいと判定されたマッチング候補を最終位置姿勢情報として出力するが、評価値等の中間結果を出力するようにしてもよい。例えば変形例8に一例を示したように、すべてのマッチング候補を出力する構成、評価値を含めて出力する構成、位置、姿勢の評価値をそれぞれ出力する構成等を適用可能である。   Further, the “candidate search unit 113” is not limited to the configuration for searching for a candidate for the position and orientation of the measurement object from the input captured image. For example, as shown as Modification 6, it is possible to include a configuration in which the type of the measurement object is included in the position and orientation candidates and the type of the measurement object is searched in addition to the position and orientation. Further, the “candidate determination unit 115” determines the correctness of the matching candidate based on the detected depth relative relationship between the feature elements and the depth relative relationship between the feature elements described in the template. Various depth relative relationships can be used. Further, the “candidate determination unit 115” outputs the matching candidate determined to be correct as a result of the correctness determination of the matching candidate as final position and orientation information, but may output an intermediate result such as an evaluation value. For example, as shown in an example in Modification 8, a configuration for outputting all matching candidates, a configuration for outputting including evaluation values, a configuration for outputting evaluation values for positions and orientations, and the like can be applied.

(本発明の他の実施形態)
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments of the present invention)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

例えば、前述した各実施形態に示した情報処理装置は、図16に示すようなコンピュータ機能1600を有し、そのCPU1601により各実施形態での動作が実施される。コンピュータ機能1600は、図16に示すように、CPU1601と、ROM1602と、RAM1603とを備える。また、操作部(CONS)1609のコントローラ(CONSC)1605と、CRTやLCD等の表示部としてのディスプレイ(DISP)1610のディスプレイコントローラ(DISPC)1606とを備える。さらに、ハードディスク(HD)1611、及びフレキシブルディスク等の記憶デバイス(STD)1612のコントローラ(DCONT)1607と、ネットワークインタフェースカード(NIC)1608とを備える。それら機能部1601、1602、1603、1605、1606、1607、1608は、システムバス1604を介して互いに通信可能に接続された構成としている。   For example, the information processing apparatus shown in each embodiment described above has a computer function 1600 as shown in FIG. 16, and the CPU 1601 performs operations in each embodiment. As shown in FIG. 16, the computer function 1600 includes a CPU 1601, a ROM 1602, and a RAM 1603. Further, a controller (CONSC) 1605 of the operation unit (CONS) 1609 and a display controller (DISPC) 1606 of a display (DISP) 1610 as a display unit such as a CRT or LCD are provided. Further, a hard disk (HD) 1611, a controller (DCONT) 1607 of a storage device (STD) 1612 such as a flexible disk, and a network interface card (NIC) 1608 are provided. These functional units 1601, 1602, 1603, 1605, 1606, 1607, 1608 are configured to be communicably connected to each other via a system bus 1604.

CPU1601は、ROM1602又はHD1611に記憶されたソフトウェア、又はSTD1612より供給されるソフトウェアを実行することで、システムバス1604に接続された各構成部を総括的に制御する。すなわち、CPU1601は、前述したような動作を行うための処理プログラムを、ROM1602、HD1611、又はSTD1612から読み出して実行することで、前述した各実施形態での動作を実現するための制御を行う。RAM1603は、CPU1601の主メモリ又はワークエリア等として機能する。CONSC1605は、CONS1609からの指示入力を制御する。DISPC1606は、DISP1610の表示を制御する。DCONT1607は、ブートプログラム、種々のアプリケーション、ユーザファイル、ネットワーク管理プログラム、及び前述した各実施形態における前記処理プログラム等を記憶するHD1611及びSTD1612とのアクセスを制御する。NIC1608はネットワーク1613上の他の装置と双方向にデータをやりとりする。   The CPU 1601 generally controls each component connected to the system bus 1604 by executing software stored in the ROM 1602 or the HD 1611 or software supplied from the STD 1612. That is, the CPU 1601 reads out from the ROM 1602, the HD 1611, or the STD 1612 and executes a processing program for performing the above-described operation, thereby performing control for realizing the operation in each of the above-described embodiments. The RAM 1603 functions as a main memory or work area for the CPU 1601. The CONSC 1605 controls instruction input from the CONS 1609. The DISPC 1606 controls the display of the DISP 1610. The DCONT 1607 controls access to the HD 1611 and the STD 1612 that store a boot program, various applications, user files, a network management program, and the processing program in each of the above-described embodiments. The NIC 1608 exchanges data with other devices on the network 1613 in both directions.

なお、前記実施形態は、何れも本発明を実施するにあたっての具体化のほんの一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100:情報処理装置 101:撮像部 102:テンプレート生成部 103:第二撮像部 104:三次元計測部 111:撮影画像入力部 112:テンプレート入力部 113:候補探索部 114:奥行き識別部 115:候補判定部 116:第二撮影画像入力部 117:第二候補探索部 118:三次元座標入力部 119:候補保持部 201:計測対象物 DESCRIPTION OF SYMBOLS 100: Information processing apparatus 101: Image pick-up part 102: Template production | generation part 103: 2nd image pick-up part 104: Three-dimensional measurement part 111: Captured image input part 112: Template input part 113: Candidate search part 114: Depth identification part 115: Candidate Determination unit 116: second captured image input unit 117: second candidate search unit 118: three-dimensional coordinate input unit 119: candidate holding unit 201: measurement object

Claims (11)

対象物が含まれる撮影画像を入力する撮影画像入力手段と、
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、
前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段とを有することを特徴とする情報処理装置。
A photographed image input means for inputting a photographed image including the object;
A template input means for inputting information of a template having information on a feature element obtained from images obtained by observing the object from a plurality of viewpoints and a depth relative relationship between the feature elements;
Candidate search means for collating the feature elements described in the template with the feature elements detected from the photographed image and searching for matching candidates for the object included in the photographed image;
Depth identification means for identifying a depth relative relationship between at least two of the detected features;
Candidate determining means for determining whether the matching candidate is correct or not based on information on the relative depth relation obtained by the depth identifying means and information on the relative depth relation between the feature elements described in the template. A characteristic information processing apparatus.
前記候補判定手段は、前記マッチング候補が前記撮影画像から検出された特徴要素における前記奥行き相対関係の情報と、前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とが同じである場合、前記マッチング候補を正しいと判定することを特徴とする請求項1記載の情報処理装置。   When the candidate determination unit has the same information on the relative depth relationship in the feature element in which the matching candidate is detected from the captured image and the information on the relative depth relationship between the feature elements described in the template, The information processing apparatus according to claim 1, wherein the matching candidate is determined to be correct. 前記奥行き識別手段は、焦点距離の異なる複数の前記撮影画像のコントラストの大小関係と、前記テンプレートを基に取得した特徴要素相互の位置関係との比較に基づいて奥行き相対関係を識別することを特徴とする請求項1又は2記載の情報処理装置。   The depth identifying means identifies a depth relative relationship based on a comparison between a contrast relationship of a plurality of the captured images having different focal lengths and a positional relationship between feature elements acquired based on the template. The information processing apparatus according to claim 1 or 2. 前記奥行き識別手段は、複数の前記撮影画像における前記特徴要素の検出座標の比較に基づいて奥行き相対関係を識別することを特徴とする請求項1又は2記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the depth identifying unit identifies a depth relative relationship based on a comparison of detected coordinates of the feature elements in a plurality of the captured images. 対象物が含まれる第二の撮影画像を入力する第二の撮影画像入力手段と、
前記テンプレートに記述された特徴要素と前記第二の撮影画像から検出される特徴要素との照合を行って、前記マッチング候補の中から前記第二の撮影画像に含まれる対象物のマッチング候補を探索する第二の候補探索部とを有することを特徴とする請求項1又は2記載の情報処理装置。
A second photographed image input means for inputting a second photographed image containing the object;
The feature element described in the template is matched with the feature element detected from the second photographed image, and the matching candidate of the object included in the second photographed image is searched from the matching candidates. The information processing apparatus according to claim 1, further comprising: a second candidate search unit that performs the processing.
対象物の三次元座標を計測する三次元計測手段を有し、
前記奥行き識別手段は、前記三次元座標に基づいて前記検出された特徴要素の三次元位置を推定し、前記三次元位置の比較に基づいて奥行き相対関係を識別することを特徴とする請求項1又は2記載の情報処理装置。
Having a three-dimensional measuring means for measuring the three-dimensional coordinates of the object;
The depth identifying means estimates a three-dimensional position of the detected feature element based on the three-dimensional coordinates, and identifies a depth relative relation based on the comparison of the three-dimensional positions. Or the information processing apparatus of 2.
前記候補判定手段は、前記マッチング候補に係る対象物の位置姿勢の正誤を判定することを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the candidate determination unit determines whether the position and orientation of an object related to the matching candidate is correct or incorrect. 前記候補判定手段は、前記マッチング候補に係る対象物の種別の正誤を判定することを特徴とする請求項1〜6の何れか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the candidate determination unit determines whether the type of an object related to the matching candidate is correct or incorrect. 対象物が含まれる撮影画像を入力する撮影画像入力手段と、
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力手段と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索手段と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別手段と、
前記奥行き識別手段により得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定手段と、
前記対象物を把持する駆動手段と、
前記駆動手段の目的位置姿勢情報を生成する制御手段とを有し、
前記候補判定手段は、前記マッチング候補が前記撮影画像から検出された特徴要素における前記奥行き相対関係の情報と、前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とが一致した場合、前記マッチング候補を正しいと判定し、
前記制御手段は、正しいと判定された前記マッチング候補に対応する前記対象物の位置姿勢情報に基づき、前記対象物を把持するための前記目的位置姿勢情報を生成することを特徴とする物体把持装置。
A photographed image input means for inputting a photographed image including the object;
A template input means for inputting information of a template having information on a feature element obtained from images obtained by observing the object from a plurality of viewpoints and a depth relative relationship between the feature elements;
Candidate search means for collating the feature elements described in the template with the feature elements detected from the photographed image and searching for matching candidates for the object included in the photographed image;
Depth identification means for identifying a depth relative relationship between at least two of the detected features;
Candidate determination means for determining whether the matching candidate is correct or not based on information on the relative depth relation obtained by the depth identification means and information on the relative depth relation between feature elements described in the template;
Drive means for gripping the object;
Control means for generating target position and orientation information of the driving means,
The candidate determination unit, when the information on the relative depth relationship in the feature element in which the matching candidate is detected from the captured image matches the information on the relative depth relationship between the feature elements described in the template, The matching candidate is determined to be correct,
The control means generates the target position and orientation information for gripping the target object based on the position and orientation information of the target object corresponding to the matching candidate determined to be correct. .
対象物が含まれる撮影画像を入力する撮影画像入力工程と、
対象物を複数の視点から観測した画像から得られる特徴要素及び特徴要素相互の奥行き相対関係の情報を有するテンプレートの情報を入力するテンプレート入力工程と、
前記テンプレートに記述された特徴要素と前記撮影画像から検出される特徴要素との照合を行って、前記撮影画像に含まれる対象物のマッチング候補を探索する候補探索工程と、
少なくとも2つの前記検出された特徴要素相互の奥行き相対関係を識別する奥行き識別工程と、
前記奥行き識別工程で得られる前記奥行き相対関係の情報と前記テンプレートに記述された特徴要素相互の奥行き相対関係の情報とに基づいて、前記マッチング候補の正誤を判定する候補判定工程とを有することを特徴とする情報処理方法。
A photographed image input step for inputting a photographed image including the object;
A template input step of inputting information of a template having information on a feature element obtained from images obtained by observing an object from a plurality of viewpoints and a depth relative relationship between the feature elements;
A candidate search step of performing a matching between the feature element described in the template and the feature element detected from the photographed image, and searching for a matching candidate of an object included in the photographed image;
A depth identification step for identifying a depth relative relationship between at least two of the detected features;
A candidate determining step of determining whether the matching candidate is correct or not based on the information on the relative depth relationship obtained in the depth identifying step and the information on the relative depth relationship between the feature elements described in the template. A characteristic information processing method.
請求項1〜8の何れか1項に記載の情報処理装置の各手段としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claims 1-8.
JP2017098251A 2017-05-17 2017-05-17 Information processing apparatus, information processing method, and program Withdrawn JP2018195070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017098251A JP2018195070A (en) 2017-05-17 2017-05-17 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017098251A JP2018195070A (en) 2017-05-17 2017-05-17 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2018195070A true JP2018195070A (en) 2018-12-06

Family

ID=64570315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098251A Withdrawn JP2018195070A (en) 2017-05-17 2017-05-17 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2018195070A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020153682A (en) * 2019-03-18 2020-09-24 株式会社キーエンス Image measuring device
CN113639630A (en) * 2021-04-01 2021-11-12 浙江大学台州研究院 Dimensional measuring instrument system based on multi-template matching and auto-focus function
CN114979618A (en) * 2021-02-22 2022-08-30 株式会社东芝 Measurement system and recording medium having measurement program recorded thereon
WO2022254725A1 (en) * 2021-06-04 2022-12-08 ファナック株式会社 Workpiece detection system
KR102483078B1 (en) * 2021-10-20 2022-12-29 금정현 Providing method, apparatus and computer-readable medium of a real-time depth-based image synthesis between a background including a stereoscopic image and an object during shooting

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020153682A (en) * 2019-03-18 2020-09-24 株式会社キーエンス Image measuring device
JP7240913B2 (en) 2019-03-18 2023-03-16 株式会社キーエンス Image measuring device
CN114979618A (en) * 2021-02-22 2022-08-30 株式会社东芝 Measurement system and recording medium having measurement program recorded thereon
CN113639630A (en) * 2021-04-01 2021-11-12 浙江大学台州研究院 Dimensional measuring instrument system based on multi-template matching and auto-focus function
WO2022254725A1 (en) * 2021-06-04 2022-12-08 ファナック株式会社 Workpiece detection system
JPWO2022254725A1 (en) * 2021-06-04 2022-12-08
CN116997926A (en) * 2021-06-04 2023-11-03 发那科株式会社 Workpiece inspection system
JP7688123B2 (en) 2021-06-04 2025-06-03 ファナック株式会社 Workpiece Inspection System
KR102483078B1 (en) * 2021-10-20 2022-12-29 금정현 Providing method, apparatus and computer-readable medium of a real-time depth-based image synthesis between a background including a stereoscopic image and an object during shooting

Similar Documents

Publication Publication Date Title
CN110702111B (en) Simultaneous localization and map creation (SLAM) using dual event cameras
JP5618569B2 (en) Position and orientation estimation apparatus and method
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
JP5812599B2 (en) Information processing method and apparatus
CN103649674B (en) Measuring equipment and messaging device
US9679384B2 (en) Method of detecting and describing features from an intensity image
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
JP7479324B2 (en) Information processing device, information processing method, and program
US20140253679A1 (en) Depth measurement quality enhancement
JP7379065B2 (en) Information processing device, information processing method, and program
JP2018195070A (en) Information processing apparatus, information processing method, and program
US10607350B2 (en) Method of detecting and describing features from an intensity image
JP6817742B2 (en) Information processing device and its control method
JP2018091656A (en) Information processing apparatus, measuring apparatus, system, calculation method, program, and article manufacturing method
CN112146647A (en) A binocular vision positioning method and chip for ground texture
CN109934873B (en) Method, device and equipment for acquiring marked image
CN118642121A (en) Spatial positioning method and system based on fusion of monocular vision ranging and laser point cloud
US20190371001A1 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP2021071420A (en) Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method
JP6198104B2 (en) 3D object recognition apparatus and 3D object recognition method
JP6802923B2 (en) Object detection device and object detection method
JP2006113832A (en) Stereo image processing apparatus and program
JP2022551885A (en) Methods and systems for determining three-dimensional positions of object grip points, local frames of reference and grip patterns
JP2019105588A (en) Information processing apparatus, system, information processing method, and program
JP7251631B2 (en) Template creation device, object recognition processing device, template creation method, object recognition processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200707