[go: up one dir, main page]

JP2003254716A - Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program - Google Patents

Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program

Info

Publication number
JP2003254716A
JP2003254716A JP2002057837A JP2002057837A JP2003254716A JP 2003254716 A JP2003254716 A JP 2003254716A JP 2002057837 A JP2002057837 A JP 2002057837A JP 2002057837 A JP2002057837 A JP 2002057837A JP 2003254716 A JP2003254716 A JP 2003254716A
Authority
JP
Japan
Prior art keywords
orientation
identification information
dimensional position
image
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002057837A
Other languages
Japanese (ja)
Inventor
Yuichi Abe
友一 阿部
Ryuichi Imaizumi
竜一 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002057837A priority Critical patent/JP2003254716A/en
Publication of JP2003254716A publication Critical patent/JP2003254716A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To measure a position and a posture without being affected by magnetic field, atmospheric pressure, temperature and the like, based on a plurality of optical information sources arranged on an object surface. <P>SOLUTION: Object recognition having a space resolution for three- dimensional position and three-dimensional posture is realized using a photographed image with a two-dimensional image sensor, by attaching a plurality of pieces of optical discrimination information onto the object. For example, three or four markers are arranged on the surface of the measuring object, and positions of the markers are traced in an image-picked-up image. An optimum three-dimensional position and posture estimating algorithm is selected in response to the number of the detected markers and a positional relation thereof to measure the three-dimensional position and posture of the measuring object. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、実世界上に配置さ
れたオブジェクトの空間上の位置や姿勢を計測する3次
元位置・姿勢計測装置及び方法、記憶媒体、並びにコン
ピュータ・プログラムに係り、特に、オブジェクトが発
する複数の情報信号を基にオブジェクトの空間上の位置
や姿勢を計測する3次元位置・姿勢計測装置及び方法、
記憶媒体、並びにコンピュータ・プログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional position / orientation measuring device and method, a storage medium, and a computer program for measuring the spatial position and orientation of an object placed in the real world, and more particularly to a computer program. , A three-dimensional position / orientation measuring apparatus and method for measuring the position and orientation of an object in space based on a plurality of information signals emitted by the object,
The present invention relates to a storage medium and a computer program.

【0002】さらに詳しくは、本発明は、実世界上に配
置されたオブジェクトの位置や姿勢を磁界や気圧、温度
などの影響を受けない光学方式により計測する3次元位
置・姿勢計測装置及び方法、記憶媒体、並びにコンピュ
ータ・プログラムに係り、特に、オブジェクト表面上に
配設された複数の光学情報源を基にその位置や姿勢を計
測する3次元位置・姿勢計測装置及び方法、記憶媒体、
並びにコンピュータ・プログラムに関する。
More specifically, the present invention relates to a three-dimensional position / orientation measuring apparatus and method for measuring the position and orientation of an object placed in the real world by an optical method that is not affected by magnetic fields, atmospheric pressure, temperature, etc. The present invention relates to a storage medium and a computer program, and more particularly, to a three-dimensional position / orientation measuring apparatus and method for measuring the position and orientation of a plurality of optical information sources arranged on the surface of an object, a storage medium,
And computer programs.

【0003】[0003]

【従来の技術】情報処理技術や情報通信技術が高度に発
達した現代においては、パーソナル・コンピュータや携
帯情報端末を始めとする情報機器がオフィスや家庭内な
どの実世界上のいたるところに遍在する。このような環
境下では、機器どうしを接続して、いつでもどこでも欲
しい情報を入手する「ユビキタス(Ubiquitous)・コン
ピューティング」や、実世界の状況(実世界の事物やユ
ーザの位置など)を積極的に利用した拡張現実システム
(Augmented Reality:AR)の実現が期待される。
2. Description of the Related Art In the modern age of advanced information processing technology and information communication technology, information devices such as personal computers and personal digital assistants are ubiquitous in the real world such as offices and homes. To do. In such an environment, actively connect to "Ubiquitous Computing," which connects devices to obtain desired information anytime and anywhere, and the real-world situation (real-world things, user positions, etc.). It is expected that the augmented reality system (Augmented Reality: AR) used for

【0004】ユビキタス・コンピューティングの概念
は、人がどこに移動しても利用できるコンピュータの環
境が同じであることである。すなわち、「いつでもどこ
でも」なのだから、究極のユビキタス・コンピューティ
ングは、必ずしもコンピュータやPDA(Personal Dig
ital Assistant)や携帯電話機などの情報端末を必要と
はしない。
The concept of ubiquitous computing is that the environment of computers that can be used regardless of where a person moves is the same. In other words, because it is "anytime, anywhere", the ultimate ubiquitous computing is not necessarily a computer or PDA (Personal Dig
Ital Assistant) and information terminals such as mobile phones are not required.

【0005】また、拡張現実システムによれば、ユーザ
の位置などの実世界状況を利用したサービスを提供する
ことができる。この場合、ユーザは携帯端末を保持する
だけで、システムはユーザの近傍や視界中にある実世界
の事物に応じた情報を提示して、ネットワーク上にある
膨大な情報を利用して日常生活のあらゆる局面を支援す
ることができる。例えば、ショッピング・モールでカメ
ラ付き携帯端末をかざしてCDショップを訪ねると、お
薦めの新譜が端末上で表示される。また、レストランの
看板を見ると、料理の感想が表示される。
Further, according to the augmented reality system, it is possible to provide a service utilizing the real world situation such as the position of the user. In this case, the user simply holds the mobile terminal, and the system presents information according to real-world things in the vicinity of the user or in the field of view, and uses the vast amount of information on the network to carry out daily life. Can support all aspects. For example, when a user visits a CD shop by holding a camera-equipped mobile terminal in a shopping mall, a recommended new song is displayed on the terminal. Also, looking at the signboard of the restaurant, the impression of the food is displayed.

【0006】しかしながら、ネットワーク上でデータ転
送先となるコンピュータや周辺機器(すなわちユーザ端
末などのターゲット)を指定したり、あるいはユーザの
位置や実世界オブジェクトに関連した情報を入手しよう
とすると、すぐ目の前にある相手であっても、その名前
(若しくは、機器固有のIDやネットワーク・アドレ
ス、ホスト・ネーム、URL/URIなどの資源識別情
報)を知る必要がある。すなわち、ユーザ操作に関して
言えば、間接的な形式でしかコンピュータ間の連携がな
されておらず、直感性にやや欠ける。
However, when a computer or a peripheral device (that is, a target such as a user terminal) as a data transfer destination is designated on the network or an attempt is made to obtain information related to the position of the user or a real world object, it is immediately noticeable. It is necessary to know the name (or the ID unique to the device, the network address, the host name, the resource identification information such as the URL / URI) even if the other party is in front of. That is, in terms of user operations, the computers are linked only in an indirect form, and the intuition is somewhat lacking.

【0007】また、煩雑な手続を省略してユーザの識別
情報を転送するための技術として、RFタグのような、
実世界コンピューティングを利用した手法が提案されて
いる。これらの手法によれば、ユーザは意識してネット
ワークにアクセスする必要はなく、自動的に拾われたオ
ブジェクトのIDなどから、オブジェクトに関連する情
報を獲得することができる。
Further, as a technique for transferring the identification information of the user while omitting a complicated procedure, such as an RF tag,
Methods using real world computing have been proposed. According to these methods, the user does not need to consciously access the network, and the information related to the object can be acquired from the ID of the object automatically picked up.

【0008】RFタグは、固有の識別情報や読み書き可
能な記憶領域を含んだデバイスであり、特定周波数の電
波を受信したことに応答して識別情報や記憶されている
情報に相当する電波を発信する動作特性を持ち、読み取
り装置側で無線タグの識別情報や記憶領域に書き込まれ
ている情報を読み出すことができる。したがって、無線
タグの識別情報として機器IDやネットワーク・アドレ
ス、ホスト・ネームを持たせたり、記憶領域にURL/
URIやその他のオブジェクトに関連する情報を書き込
んでおくことにより、システムでは、登録されたアプリ
ケーションを実行させたり(例えば「メールを起動す
る」など)、認識されたIDを基に相手のネットワーク
・アドレスを探索して自動的に接続を果たしたり、認識
されたURLを基に資源アクセスを行ったりすることが
できる。
The RF tag is a device including unique identification information and a readable / writable storage area, and transmits a radio wave corresponding to the identification information or the stored information in response to reception of a radio wave of a specific frequency. The reading device can read the identification information of the wireless tag and the information written in the storage area. Therefore, a device ID, a network address, and a host name are given as identification information of the wireless tag, and a URL /
By writing the information related to the URI and other objects, the system can execute the registered application (for example, "launch mail") or the network address of the other party based on the recognized ID. Can be searched for to automatically establish a connection, or resource access can be performed based on the recognized URL.

【0009】しかしながら、RFタグの場合、ユーザは
RFタグをタグ読み取り装置に向けたり接触させたりし
なければならない。すなわち、至近距離の物体のみ認識
が可能であり、遠くのものを認識することはできない。
However, in the case of the RF tag, the user has to point or contact the RF tag to the tag reader. That is, it is possible to recognize only an object at a close range and not a far object.

【0010】勿論、上述した拡張現実システム以外にも
実世界状況の用途がある。例えば、家庭用エンターテイ
メント機器などにおける3次元ユーザ・インターフェー
スとして、オブジェクトの3次元的な位置や姿勢などの
実世界状況を利用することができる。
Of course, there are applications in real world situations other than the augmented reality system described above. For example, a real world situation such as a three-dimensional position or orientation of an object can be used as a three-dimensional user interface in a home entertainment device or the like.

【0011】オブジェクトの3次元的な位置や姿勢など
の実世界状況を取得するためには、例えば、磁気方式、
超音波方式、機械方式、光学方式などを利用した計測シ
ステムを利用することが考えられる。磁気方式は磁気変
換技術を利用した3次元計測であり、磁界内にコイルを
置くと電流が誘起される現象を応用したものである。超
音波方式は送信及び受信装置から構成され、受信された
超音波の音圧や到達時間から3次元計測を行なうもので
ある。機械方式は多関節アームのような機械的な可動部
を持ち、その動きから3次元位置情報を求めるものであ
る。光学方式は3点以上のマーカをカメラで撮影し、得
られた画像情報を基に3次元計測を行なうものである。
In order to obtain the real world situation such as the three-dimensional position and posture of an object, for example, a magnetic method,
It is conceivable to use a measurement system using an ultrasonic method, a mechanical method, an optical method, or the like. The magnetic method is a three-dimensional measurement using magnetic conversion technology, and is an application of a phenomenon in which a current is induced when a coil is placed in a magnetic field. The ultrasonic system is composed of a transmitter and a receiver, and performs three-dimensional measurement from the sound pressure and arrival time of the received ultrasonic waves. The mechanical system has a mechanically movable part such as an articulated arm, and obtains three-dimensional position information from its movement. In the optical method, three or more markers are photographed by a camera, and three-dimensional measurement is performed based on the obtained image information.

【0012】しかしながら、従来から応用されている磁
気方式は磁界を使った計測システムなので、その磁界を
乱す電子機器や金属部品、地磁気などの影響を受ける。
また、超音波方式は超音波の位相あるいは到達時間を計
測するので、気圧や温度の影響を受ける。さらに機械方
式はある程度の精度を得るには高価なものになり、測定
範囲も狭くなる。また、複数の機械方式装置を同時に扱
うことを考慮すると、他の装置よりも扱い難い。
However, since the magnetic method applied so far is a measurement system using a magnetic field, it is affected by electronic equipment, metal parts, and geomagnetism that disturb the magnetic field.
Further, since the ultrasonic method measures the phase or arrival time of ultrasonic waves, it is affected by atmospheric pressure and temperature. Further, the mechanical system becomes expensive to obtain a certain degree of accuracy, and the measuring range becomes narrow. Also, considering that a plurality of mechanical devices are handled at the same time, it is more difficult to handle than other devices.

【0013】一方、光学方式は磁界や気圧、温度などの
影響を受けず、広範囲にわたって3次元情報を計測する
ことが可能である。「見る」という行為自体は非常にワ
イドレンジであり優れている。ところが、手や他の物体
によってマーカなどの視認情報が隠れ、取得された画像
データからマーカが検出されない場合、3次元情報を計
測することが不可能である。さらに、すべてのマーカが
検出された場合においても、画像データから3次元位置
および姿勢を推定するアルゴリズムによっては必ずしも
一意に求まるとは限らず、検出されたマーカの画像座標
値、数および組み合わせに依存する。
On the other hand, the optical system can measure three-dimensional information over a wide range without being affected by a magnetic field, atmospheric pressure, temperature and the like. The act of "seeing" is very wide range and excellent. However, when the visual information such as the marker is hidden by the hand or other object and the marker is not detected from the acquired image data, it is impossible to measure the three-dimensional information. Further, even when all the markers are detected, it is not always uniquely determined by the algorithm that estimates the three-dimensional position and orientation from the image data, and depends on the image coordinate value, the number, and the combination of the detected markers. To do.

【0014】[0014]

【発明が解決しようとする課題】本発明の目的は、実世
界上に配置されたオブジェクトの空間上の位置や姿勢を
計測することができる、優れた3次元位置・姿勢計測装
置及び方法、記憶媒体、並びにコンピュータ・プログラ
ムを提供することにある。
An object of the present invention is to provide an excellent three-dimensional position / orientation measuring apparatus and method capable of measuring the position and orientation in space of an object placed in the real world. It is to provide a medium and a computer program.

【0015】本発明のさらなる目的は、実世界上に配置
されたオブジェクトの位置や姿勢を磁界や気圧、温度な
どの影響を受けない光学方式により計測することができ
る、優れた3次元位置・姿勢計測装置及び方法、記憶媒
体、並びにコンピュータ・プログラムを提供することに
ある。
A further object of the present invention is to provide an excellent three-dimensional position / orientation capable of measuring the position and orientation of an object placed in the real world by an optical system that is not affected by magnetic fields, atmospheric pressure, temperature and the like. A measuring device and method, a storage medium, and a computer program are provided.

【0016】本発明のさらなる目的は、オブジェクト表
面上に配設された複数の光学情報源に基づいて、その位
置や姿勢を磁界や気圧、温度などの影響を受けずに計測
することができる、ロバストな3次元位置・姿勢計測装
置及び方法、記憶媒体、並びにコンピュータ・プログラ
ムを提供することにある。
A further object of the present invention is to measure the position and orientation of an object based on a plurality of optical information sources arranged on the surface of the object, without being affected by magnetic fields, atmospheric pressure, temperature and the like. It is to provide a robust three-dimensional position / orientation measuring apparatus and method, a storage medium, and a computer program.

【0017】[0017]

【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、その第1の側面
は、現実空間上の物体の空間的な位置及び姿勢を推定す
る3次元位置・姿勢計測装置又は方法であって、測定対
象物体上には互いの位置関係が既知である複数の光学的
識別情報が配設されており、測定対象物体を含んだ現実
空間上のシーンを捕捉する画像入力部又はステップと、
前記画像入力部又はステップによる入力画像から光学的
識別情報を抽出する識別情報抽出部又はステップと、前
記識別情報抽出部又はステップにより抽出された光学的
識別情報の状態に応じて測定対象物体の空間的位置及び
姿勢を計算するための方法を選択する位置・姿勢計算方
法選択部又はステップと、前記位置・姿勢計算方法選択
部により選択された方法に従って、前記識別情報抽出部
により抽出された光学的識別情報を用いて測定対象物体
の空間的位置及び姿勢を計算する位置・姿勢計算部又は
ステップと、を具備することを特徴とする3次元位置・
姿勢計測装置又は方法である。
The present invention has been made in consideration of the above problems, and the first aspect thereof is to estimate the spatial position and orientation of an object in the physical space. A dimensional position / orientation measuring device or method, in which a plurality of optical identification information whose positional relationships are known are arranged on a measurement target object, and a scene in a real space including the measurement target object. An image input section or step for capturing
An identification information extraction unit or step for extracting optical identification information from the input image by the image input unit or step, and a space of the measurement target object according to the state of the optical identification information extracted by the identification information extraction unit or step. A position / orientation calculation method selecting unit or step for selecting a method for calculating the target position and orientation, and the optical information extracted by the identification information extracting unit according to the method selected by the position / orientation calculation method selecting unit. And a position / orientation calculation unit or step for calculating the spatial position and orientation of the object to be measured using the identification information.
An attitude measuring device or method.

【0018】本発明の第1の側面に係る3次元位置・姿
勢計測装置又は方法によれば、物体表面上に配設された
複数の光学情報源に基づいてその位置や姿勢を計測す
る。すなわち、物体に複数の光学的識別情報を取り付け
て、2次元イメージ・センサによる撮影画像を利用して
3次元的な位置や姿勢などの空間解像度を持つ物体認識
を行なう。光学的なデータ伝送による計測を基調として
いることから、磁界や気圧、温度などの影響を受けずに
計測することができる。
According to the three-dimensional position / orientation measuring apparatus or method according to the first aspect of the present invention, the position or orientation of the object is measured based on a plurality of optical information sources arranged on the surface of the object. That is, a plurality of pieces of optical identification information are attached to an object, and an object having a spatial resolution such as a three-dimensional position and orientation is recognized by using an image captured by a two-dimensional image sensor. Since the measurement is based on optical data transmission, the measurement can be performed without being affected by the magnetic field, atmospheric pressure, temperature and the like.

【0019】例えば、板状の測定対象物体の表面に3点
以上の光学的識別情報を配置して、撮像画像中でこれら
光学的識別情報の空間的な位置や姿勢を追跡することが
できる。ここで言う光学的識別情報は、例えば、光を点
滅させるLEDなどの発光素子で構成することができ、
識別情報やその他のデータを点滅パターンに符号化する
ことによって、測定対象物体から3次元位置・姿勢計測
装置に向けてデータ伝送を行なうことができる。
For example, it is possible to arrange optical identification information at three or more points on the surface of a plate-shaped object to be measured and track the spatial position and orientation of these optical identification information in a captured image. The optical identification information referred to here can be composed of, for example, a light emitting element such as an LED that blinks light,
By encoding the identification information and other data into a blinking pattern, data can be transmitted from the measurement target object to the three-dimensional position / orientation measuring device.

【0020】また、測定対象物体上には互いの位置関係
が既知である4個以上の光学的識別情報を配設していて
もよい。そして、平行四辺形の4つの頂点となる光学的
識別情報の組み合わせが少なくとも1つあるように配置
してもよい。
Further, four or more pieces of optical identification information whose positional relationship is known may be provided on the object to be measured. Further, it may be arranged such that there is at least one combination of the optical identification information which becomes the four vertices of the parallelogram.

【0021】あるいは、立方体形状をなす測定対象物体
の各頂点毎に光学的識別情報を配置していてもよい。こ
のような場合、平行四辺形の4つの頂点となる光学的識
別情報の組み合わせを多数形成することができる。そし
て、測定対象物体を眺める向きや、ユーザの手やその他
の障害物によるオクルージョンに応じて、立方体から一
部の平行四辺形の組み合わせを画像入力部が捕捉するこ
とができる。
Alternatively, the optical identification information may be arranged at each vertex of the cube-shaped measuring object. In such a case, it is possible to form a large number of combinations of the optical identification information that form the four vertices of the parallelogram. Then, the image input unit can capture some combinations of parallelograms from the cube according to the direction in which the object to be measured is viewed and the occlusion by the user's hand or other obstacle.

【0022】また、画像上で検出された複数の位置から
3次元位置・姿勢を推定する最適なアルゴリズムは一意
ではなく、検出された光学的識別情報の個数やその状況
に応じて区々である。本発明の第1の側面に係る3次元
位置・姿勢計測装置又は方法によれば、3次元位置・姿
勢を推定するための複数のアルゴリズムをあらかじめ用
意しておき、入力画像から検出された光学的識別情報の
個数や位置関係に応じて、最適な3次元位置・姿勢推定
アルゴリズムを選択して測定対象物体の3次元位置・姿
勢の計測を行なうことができる。
Further, the optimum algorithm for estimating the three-dimensional position / orientation from a plurality of positions detected on the image is not unique, and varies depending on the number of detected optical identification information and its situation. . According to the three-dimensional position / orientation measuring apparatus or method according to the first aspect of the present invention, a plurality of algorithms for estimating the three-dimensional position / orientation are prepared in advance, and the optical signals detected from the input image are detected. The optimum three-dimensional position / orientation estimation algorithm can be selected according to the number of pieces of identification information and the positional relationship to measure the three-dimensional position / orientation of the measurement target object.

【0023】例えば、Robert M. Haralick、Chung-nan
Lee、Karsten Ottenberg、及びMichael Nolle共著の論
文"Analysis and Solutions of The Three Point Persp
ective Pose Estimation Problem"(In Proceedings of
the Conference on ComputerVision and Pattern Reco
gnition, Maui, Hawaii, USA, pp.592-598, 1991)に
は、対象物体上に配設された既知の3点の位置から該物
体の3次元位置及び姿勢を計測する方法について記述さ
れている。
For example, Robert M. Haralick, Chung-nan
Lee, Karsten Ottenberg, and Michael Nolle, "Analysis and Solutions of The Three Point Persp"
ective Pose Estimation Problem "(In Proceedings of
the Conference on ComputerVision and Pattern Reco
gnition, Maui, Hawaii, USA, pp.592-598, 1991) describes a method for measuring the three-dimensional position and orientation of an object from the known three points on the object. There is.

【0024】したがって、前記位置・姿勢計算方法選択
部又はステップは、前記識別情報抽出部又はステップに
より3個以上の光学的識別情報が抽出されたことに応答
して、画像上の3点の位置を基に対応する3次元位置及
び姿勢を数学的に算出するRobert外著の方法を選
択するようにしてもよい。
Therefore, the position / orientation calculation method selection unit or step is responsive to the extraction of three or more optical identification information by the identification information extraction unit or step, and the position of three points on the image. The method by Robert et al., Which mathematically calculates the corresponding three-dimensional position and orientation based on, may be selected.

【0025】但し、入力画像から3個以上の光学的識別
情報が抽出された場合であっても、3個の光学的識別情
報によって構成される3角形の少なくとも1つの辺が前
記画像入力部における投影平面と略平行であるような場
合、この辺に対向する頂点の空間的な位置を一意に求め
ることができない。したがって、このような場合には、
前記位置・姿勢計算方法選択部又はステップは、空間的
位置関係が既知である3点の画像上の位置を基に対応す
る3次元位置及び姿勢を求める前記の数学的算出方法以
外を選択することが好ましい。
However, even when three or more pieces of optical identification information are extracted from the input image, at least one side of the triangle formed by the three pieces of optical identification information is in the image input section. If it is substantially parallel to the projection plane, the spatial position of the apex facing this side cannot be uniquely obtained. Therefore, in such a case,
The position / orientation calculation method selection unit or step selects a method other than the mathematical calculation method for obtaining the corresponding three-dimensional position and orientation based on the positions on the image of three points whose spatial positional relationships are known. Is preferred.

【0026】また、加藤博一、Mark Billinghurst、浅
野浩一、橘啓八郎共著の論文『マーカー追跡に基づく拡
張現実感システムとそのキャリブレーション』(日本バ
ーチャルリアリティ学会論文誌, Vol.4, No.4, 1999)
には、平行四辺形の各頂点に配置された4つのマーカを
基に平行四辺形の3次元位置及び姿勢を計測する方法に
ついて記載されている。
A paper entitled "Augmented Reality System Based on Marker Tracking and Its Calibration" by Hirokazu Kato, Mark Billinghurst, Koichi Asano, and Keihachiro Tachibana (Journal of the Virtual Reality Society of Japan, Vol.4, No.4) , 1999)
Describes a method of measuring a three-dimensional position and orientation of a parallelogram based on four markers arranged at each vertex of the parallelogram.

【0027】したがって、前記位置・姿勢計算方法選択
部又はステップは、現実空間上で既知の平行四辺形を構
成する4つの点の画像上での位置を基に対応する3次元
位置及び姿勢を数学的に算出する加藤外著の方法を選択
するようにしてもよい。
Therefore, the position / orientation calculation method selection unit or step mathematically calculates the corresponding three-dimensional position and orientation based on the positions on the image of four points forming a known parallelogram in the real space. It is also possible to select the method of Kato's work that is calculated dynamically.

【0028】また、入力画像から平行四辺形の4つの頂
点となる光学的識別情報の組み合わせが複数検出された
場合には、信頼度が最大となる平行四辺形を選択して、
その位置・姿勢を計算するようにしてもよい。ここで言
う信頼度が最大とは、例えば2次元入力画像に写像され
たときの面積が最大となることを指す。
Further, when a plurality of combinations of optical identification information which are four vertices of a parallelogram are detected from the input image, the parallelogram having the highest reliability is selected,
The position / orientation may be calculated. The maximum reliability here means that, for example, the area when mapped to a two-dimensional input image becomes maximum.

【0029】また、前記位置・姿勢計算方法選択部又は
ステップは、前記識別情報抽出部又はステップにより抽
出された光学的識別情報の状態により測定対象物体の空
間的位置及び姿勢を数学的に算出することが好ましくな
いと判断された場合には、前記画像入力部又はステップ
による前フレームにおける測定対象物体の位置及び姿勢
を初期値としてその3次元位置及び姿勢を推定する方法
を選択するようにしてもよい。
The position / orientation calculation method selection unit or step mathematically calculates the spatial position and orientation of the object to be measured based on the state of the optical identification information extracted by the identification information extraction unit or step. If it is determined that this is not preferable, the method for estimating the three-dimensional position and orientation of the object to be measured in the previous frame by the image input unit or step may be selected as an initial value. Good.

【0030】また、本発明の第2の側面は、現実空間上
の物体の空間的な位置及び姿勢を推定するための処理を
コンピュータ・システム上で実行するように記述された
コンピュータ・ソフトウェアをコンピュータ可読形式で
物理的に格納した記憶媒体であって、前記コンピュータ
・ソフトウェアは、測定対象物体上には互いの位置関係
が既知である複数の光学的識別情報が配設されており、
測定対象物体を含んだ現実空間上のシーンを捕捉する画
像入力ステップと、前記画像入力ステップによる入力画
像から光学的識別情報を抽出する識別情報抽出ステップ
と、前記識別情報抽出ステップにより抽出された光学的
識別情報の状態に応じて測定対象物体の空間的位置及び
姿勢を計算するための方法を選択する位置・姿勢計算方
法選択ステップと、前記位置・姿勢計算方法選択ステッ
プにより選択された方法に従って、前記識別情報抽出ス
テップにより抽出された光学的識別情報を用いて測定対
象物体の空間的位置及び姿勢を計算する位置・姿勢計算
ステップと、を具備することを特徴とする記憶媒体であ
る。
Further, a second aspect of the present invention is a computer software written so as to execute processing for estimating a spatial position and orientation of an object in a physical space on a computer system. A storage medium physically stored in a readable format, wherein the computer software is provided with a plurality of optical identification information whose mutual positional relationship is known on the object to be measured,
An image input step of capturing a scene in a real space including an object to be measured, an identification information extraction step of extracting optical identification information from an input image by the image input step, and an optical element extracted by the identification information extraction step. Position / orientation calculation method selecting step for selecting a method for calculating the spatial position and orientation of the measurement target object according to the state of the physical identification information, and according to the method selected by the position / orientation calculation method selecting step, And a position / orientation calculation step of calculating a spatial position and orientation of the measurement target object using the optical identification information extracted by the identification information extraction step.

【0031】本発明の第2の側面に係る記憶媒体は、例
えば、さまざまなプログラム・コードを実行可能な汎用
コンピュータ・システムに対して、コンピュータ・ソフ
トウェアをコンピュータ可読な形式で提供する媒体であ
る。このような媒体は、例えば、DVD(Digital Vers
atile Disc)やCD(Compact Disc)、FD(Flexible
Disk)、MO(Magneto-Optical disc)などの着脱自
在で可搬性の記憶媒体である。あるいは、ネットワーク
(ネットワークは無線、有線の区別を問わない)などの
伝送媒体などを経由してコンピュータ・ソフトウェアを
特定のコンピュータ・システムに提供することも技術的
に可能である。
The storage medium according to the second aspect of the present invention is a medium for providing computer software in a computer-readable format to a general-purpose computer system capable of executing various program codes, for example. Such a medium is, for example, a DVD (Digital Vers
atile Disc), CD (Compact Disc), FD (Flexible Disc)
Disk), MO (Magneto-Optical disc), and other removable storage media. Alternatively, it is technically possible to provide computer software to a specific computer system via a transmission medium such as a network (whether the network is wireless or wired).

【0032】また、本発明の第2の側面に係る記憶媒体
は、コンピュータ・システム上で所定のコンピュータ・
ソフトウェアの機能を実現するための、コンピュータ・
ソフトウェアと記憶媒体との構造上又は機能上の協働的
関係を定義したものである。換言すれば、本発明の第2
の側面に係る記憶媒体を介して所定のコンピュータ・ソ
フトウェアをコンピュータ・システムにインストールす
ることによって、コンピュータ・システム上では協働的
作用が発揮され、本発明の第1の側面に係る3次元位置
・姿勢計測装置又はその方法と同様の作用効果を得るこ
とができる。
Further, the storage medium according to the second aspect of the present invention is a computer system having a predetermined computer
A computer for realizing software functions
It defines a structural or functional collaborative relationship between software and a storage medium. In other words, the second aspect of the present invention
By installing the predetermined computer software in the computer system via the storage medium according to the third aspect, the cooperative action is exerted on the computer system, and the three-dimensional position according to the first aspect of the present invention. It is possible to obtain the same effects as those of the posture measuring device or the method thereof.

【0033】また、本発明の第3の側面は、現実空間上
の物体の空間的な位置及び姿勢を推定するための処理を
コンピュータ・システム上で実行するように記述された
コンピュータ・プログラムであって、測定対象物体上に
は互いの位置関係が既知である複数の光学的識別情報が
配設されており、測定対象物体を含んだ現実空間上のシ
ーンを捕捉する画像入力ステップと、前記画像入力ステ
ップによる入力画像から光学的識別情報を抽出する識別
情報抽出ステップと、前記識別情報抽出ステップにより
抽出された光学的識別情報の状態に応じて測定対象物体
の空間的位置及び姿勢を計算するための方法を選択する
位置・姿勢計算方法選択ステップと、前記位置・姿勢計
算方法選択ステップにより選択された方法に従って、前
記識別情報抽出ステップにより抽出された光学的識別情
報を用いて測定対象物体の空間的位置及び姿勢を計算す
る位置・姿勢計算ステップと、を具備することを特徴と
するコンピュータ・プログラムである。
Further, a third aspect of the present invention is a computer program written so as to execute processing for estimating a spatial position and orientation of an object in a physical space on a computer system. Then, a plurality of optical identification information whose mutual positional relationship is known is disposed on the measurement target object, and an image input step of capturing a scene in real space including the measurement target object, and the image. An identification information extraction step of extracting optical identification information from the input image by the input step, and for calculating the spatial position and orientation of the measurement target object according to the state of the optical identification information extracted by the identification information extraction step The position / orientation calculation method selecting step for selecting the above method, and the identification information extraction step according to the method selected in the position / orientation calculation method selecting step. Is a computer program characterized by comprising Tsu and position and orientation calculation step of calculating a spatial position and orientation of the measured object by using the optical identification information extracted by the flop, the.

【0034】本発明の第3の側面に係るコンピュータ・
プログラムは、コンピュータ・システム上で所定の処理
を実現するようにコンピュータ可読形式で記述されたコ
ンピュータ・プログラムを定義したものである。換言す
れば、本発明の第3の側面に係るコンピュータ・プログ
ラムをコンピュータ・システムにインストールすること
によって、コンピュータ・システム上では協働的作用が
発揮され、本発明の第1側面に係る3次元位置・姿勢計
測装置又はその方法と同様の作用効果を得ることができ
る。
A computer according to the third aspect of the present invention
The program defines a computer program written in a computer-readable format so as to realize a predetermined process on a computer system. In other words, by installing the computer program according to the third aspect of the present invention in the computer system, a cooperative action is exerted on the computer system, and the three-dimensional position according to the first aspect of the present invention. It is possible to obtain the same effects as those of the posture measuring device or its method.

【0035】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施形態や添付する図面に基づくより
詳細な説明によって明らかになるであろう。
Further objects, features and advantages of the present invention are as follows.
It will be apparent from the embodiments of the present invention described later and the more detailed description based on the accompanying drawings.

【0036】[0036]

【発明の実施の形態】以下、図面を参照しながら本発明
の実施形態について詳解する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below in detail with reference to the drawings.

【0037】本発明に係る3次元位置・姿勢計測システ
ムは、実世界上に存在する物理オブジェクトに対して複
数の光学的な識別情報を取り付けるとともに、これを2
次元イメージ・センサを利用して撮影して画像処理・画
像認識することにより、オブジェクトの同定するととも
にその3次元的な位置や姿勢などの空間解像度を持つオ
ブジェクト認識を実現する。
The three-dimensional position / orientation measuring system according to the present invention attaches a plurality of optical identification information to a physical object existing in the real world,
By using a three-dimensional image sensor to perform image processing and image recognition to identify an object and realize object recognition with a spatial resolution such as its three-dimensional position and orientation.

【0038】実世界オブジェクトに取り付ける光学的な
識別情報として、色の空間パターンに符号化されたビジ
ュアル・コードの他に、LEDのような点滅する光源か
らなる光学信号を利用することができる。後者の場合、
距離に応じてデータが変化しない点滅パターンなどの時
系列の光学信号に符号化して、データを送信することが
できる。
As the optical identification information attached to the real-world object, an optical signal consisting of a blinking light source such as an LED can be used in addition to the visual code encoded in the color space pattern. In the latter case,
The data can be transmitted after being encoded into a time-series optical signal such as a blinking pattern in which the data does not change according to the distance.

【0039】また、イメージ・センサは、例えばCMO
S(Complementary Metal Oxide Semiconductor)セン
サやCCD(Charge Coupled Device)センサなどのよ
うに、無数の受光素子すなわち画素が2次元アレイ上に
配置された構成であり、光学信号並びにその空間的情報
を全画素でデコードする。イメージ・センサは、普通の
カメラとしてシーンを撮影するとともに、そのイメージ
・センサの視界中に配置された光学信号を長距離から受
信することができる。
The image sensor is, for example, a CMO.
Like an S (Complementary Metal Oxide Semiconductor) sensor or CCD (Charge Coupled Device) sensor, it has a configuration in which a myriad of light-receiving elements, that is, pixels, are arranged in a two-dimensional array, and optical signals and their spatial information are stored in all pixels. Decode with. The image sensor can capture the scene as a normal camera and receive optical signals located in the field of view of the image sensor from long distances.

【0040】実世界オブジェクトに取り付けられる複数
の光学的識別情報は、互いに識別可能であるだけでな
く、互いの空間的な位置関係があらかじめ分かっている
ものとする。このような場合、空間的な解像度を持つ測
定装置により実世界オブジェクトを認識することによ
り、単にその実世界オブジェクトを同定するだけでな
く、その3次元的な位置や姿勢などを数学的算出方法な
どにより推定することができる。実世界オブジェクトが
持つ空間的な位置や姿勢は、言わば実世界状況に相当す
る。
It is assumed that the plurality of optical identification information attached to the real world object are not only identifiable to each other, but also their spatial positional relationships are known in advance. In such a case, by recognizing the real-world object with a measuring device having a spatial resolution, not only the real-world object is simply identified, but also its three-dimensional position and posture are calculated by a mathematical calculation method or the like. Can be estimated. The spatial position and orientation of a real-world object is, so to speak, a real-world situation.

【0041】したがって、光学的な識別情報を備えた実
世界オブジェクトを、実世界状況を発信する送信機とし
て利用することができる。さらに、この3次元位置・姿
勢計測システムを、実世界の状況(実世界の事物やユー
ザの位置など)を積極的に利用した拡張現実システム
(Augmented Reality:AR)の実現に役立てることが
できる。
Therefore, the real world object provided with the optical identification information can be used as a transmitter for transmitting the real world situation. Furthermore, this three-dimensional position / orientation measurement system can be used to realize an augmented reality system (AR) that positively uses the situation of the real world (such as the things in the real world and the position of the user).

【0042】拡張現実システムによれば、ユーザの位置
などの実世界情報を利用したサービスを提供することが
できる。この場合、ユーザは携帯端末を保持するだけ
で、システムはユーザの近傍や視界中にある実世界の事
物に応じた情報を提示して、ネットワーク上にある膨大
な情報を利用して日常生活のあらゆる局面で支援を享受
することができる。例えば、ショッピング・モールでカ
メラ付き携帯端末をかざしてCDショップを訪ねると、
お薦めの新譜が端末上で表示される。また、レストラン
の看板を見ると、料理の感想が表示される。
According to the augmented reality system, it is possible to provide a service using real world information such as the position of the user. In this case, the user simply holds the mobile terminal, and the system presents information according to real-world things in the vicinity of the user or in the field of view, and uses the vast amount of information on the network to carry out daily life. You can enjoy support in all aspects. For example, if you visit a CD shop in a shopping mall while holding your camera-equipped mobile device,
The recommended new song is displayed on the terminal. Also, looking at the signboard of the restaurant, the impression of the food is displayed.

【0043】なお、本出願人に既に譲渡されている特願
2001−325356号明細書には、光学的な形式で
識別情報やその他のデータを担持又は伝送する光学信号
と、これを捕捉する高速な2次元イメージ・センサを利
用することで、空間解像度を持つとともに、遠距離でも
利用可能なデータ伝送を実現するデータ通信システムに
ついて開示している。同明細書に記載のデータ通信シス
テムでは、LEDのような点滅する光源を光学信号と
し、ビジュアル・コードのように色の空間パターンに符
号化するのではなく、距離に応じてデータが変化しない
点滅パターンなどの時系列の光学信号に符号化してデー
タを送信する。イメージ・センサは、例えばCMOSセ
ンサやCCDセンサなどのように無数の受光素子すなわ
ち画素が2次元アレイ上に配置された構成であり、光学
信号並びにその空間的情報を全画素でデコードする。し
たがって、イメージ・センサは、普通のカメラとしてシ
ーンを撮影するとともに、そのイメージ・センサの視界
中に配置された光学信号を長距離からでも受信すること
ができる。
In the specification of Japanese Patent Application No. 2001-325356 already assigned to the present applicant, an optical signal for carrying or transmitting identification information and other data in an optical format and a high speed signal for capturing the optical signal. Discloses a data communication system which realizes data transmission which has a spatial resolution and can be used even in a long distance by using such a two-dimensional image sensor. In the data communication system described in the specification, a blinking light source such as an LED is used as an optical signal, and data is not changed according to a distance, instead of being encoded into a color space pattern like a visual code. Data is transmitted after being encoded into a time-series optical signal such as a pattern. The image sensor has a configuration in which an infinite number of light receiving elements, that is, pixels, such as a CMOS sensor or a CCD sensor, are arranged in a two-dimensional array, and an optical signal and its spatial information are decoded by all pixels. Thus, the image sensor can capture the scene as a normal camera and receive optical signals located in the field of view of the image sensor from long distances.

【0044】A.システム構成 図1には、本発明の一実施形態に係る3次元位置・姿勢
計測システムの構成を模式的に示している。同図に示す
ように、このシステムは、測定対象物体101と、この
測定対象物体101を捕捉するカメラ102と、カメラ
102による撮像画像を画像処理・画像認識する3次元
位置・姿勢計測装置103とで構成される。
A. System Configuration FIG. 1 schematically shows the configuration of a three-dimensional position / orientation measuring system according to an embodiment of the present invention. As shown in the figure, this system includes a measurement target object 101, a camera 102 that captures the measurement target object 101, and a three-dimensional position / orientation measurement device 103 that performs image processing / image recognition on an image captured by the camera 102. Composed of.

【0045】測定対象物体101には、その3次元位置
・姿勢計測を可能にするため、それぞれ識別可能なマー
カが取り付けられている。同図に示す例では、3個のマ
ーカ104a〜104Cが測定対象物体101上の既知
の位置に取り付けられている。また、測定対象物体10
1上に取り付けられている各マーカ104a〜104c
は、それぞれ固有の色、形状、パターン、又は光の点滅
パターンなどからなる視覚的な識別情報を持ち、マーカ
毎に識別可能であるとする。また、各マーカ104a〜
104cが持つこれらの光学的識別情報や各マーカ10
4a〜104c間の空間的な位置関係は、3次元位置・
姿勢計測装置103にとって既知であるとする。
The measurement target object 101 is provided with identifiable markers in order to enable the three-dimensional position / orientation measurement thereof. In the example shown in the figure, three markers 104 a to 104 C are attached to known positions on the measurement target object 101. In addition, the measurement target object 10
Each of the markers 104a to 104c mounted on
Has visual identification information including a unique color, shape, pattern, or blinking pattern of light, and can be identified for each marker. Moreover, each marker 104a-
The optical identification information 104c and each marker 10
The spatial positional relationship between 4a to 104c is a three-dimensional position.
It is assumed that the posture measuring device 103 is known.

【0046】カメラ102は、例えばレンズ歪などのな
い理想的なピンホール・レンズを使用して、CCDやC
MOSなどの2次元イメージ・センサにより測定対象物
体101を含む風景やその他のシーンを撮像することが
できる。カメラ102により撮像された画像フレームは
空間的分解能を持つ受信データとして3次元位置・姿勢
計測装置103に入力される。
The camera 102 uses, for example, an ideal pinhole lens with no lens distortion, and a CCD or C
A two-dimensional image sensor such as a MOS can capture a landscape including the measurement target object 101 and other scenes. The image frame captured by the camera 102 is input to the three-dimensional position / orientation measuring device 103 as reception data having a spatial resolution.

【0047】3次元位置・姿勢計測装置103は、例え
ばパーソナル・コンピュータ(PC)などの計算機シス
テムで構成され、USB(Universal Serial Bus)ある
いはその他の外部インターフェースを介してカメラ10
2を接続して、撮影画像をコンピュータ・ファイルの形
式で取り込むことができる。該3次元位置・姿勢計測装
置103上では、画像フレーム中からマーカ検出に基づ
く3次元位置・姿勢計測処理を行なうアプリケーション
が起動しており、入力画像上で抽出された各マーカ10
4a〜104cの位置を基に、測定対象物体101の実
空間上での位置及び姿勢などの実世界状況を測定する。
3次元位置・姿勢計測装置103は、このような測定結
果に基づいて、さらに実世界状況に応じた拡張現実感サ
ービスを提供してもよい。
The three-dimensional position / orientation measuring device 103 is composed of a computer system such as a personal computer (PC), and the camera 10 is connected via a USB (Universal Serial Bus) or other external interface.
2 can be connected to capture a captured image in the form of a computer file. On the three-dimensional position / orientation measuring apparatus 103, an application for performing a three-dimensional position / orientation measuring process based on marker detection in an image frame is running, and each marker 10 extracted on the input image is displayed.
Based on the positions of 4a to 104c, the real world situation such as the position and orientation of the measurement target object 101 in the real space is measured.
The three-dimensional position / orientation measuring device 103 may further provide an augmented reality service according to the real world situation based on the measurement result.

【0048】図2には、本実施形態に係る3次元位置・
姿勢計測装置103のハードウェア構成を模式的に示し
ている。
FIG. 2 shows the three-dimensional position and
The hardware configuration of the posture measuring apparatus 103 is schematically shown.

【0049】メイン・コントローラであるCPU(Cent
ral Processing Unit)101は、オペレーティング・シ
ステム(OS)の制御下で、各種のアプリケーションを
実行する。
CPU (Cent) which is the main controller
The ral processing unit) 101 executes various applications under the control of an operating system (OS).

【0050】本実施形態では、CPU1は、例えば、カ
メラ102の撮影画像のような空間的解像度を持つデー
タを基に測定対象物体101の空間的な位置や姿勢を計
測するための3次元位置・姿勢計測アプリケーション
や、測定対象物体101の空間的な位置や姿勢などを始
めとする実世界オブジェクトについての実世界状況を利
用した拡張現実感(AR)サービスを提供するARサー
ビス・アプリケーションなどを実行することができる。
In the present embodiment, the CPU 1 uses, for example, a three-dimensional position for measuring the spatial position and orientation of the object 101 to be measured based on data having a spatial resolution such as an image captured by the camera 102. Executes a posture measurement application, an AR service application that provides an augmented reality (AR) service that uses the real-world situation of a real-world object such as the spatial position and orientation of the measurement target object 101, and the like. be able to.

【0051】図示の通り、CPU1は、バス8によって
他の機器類(後述)と相互接続されている。
As shown in the figure, the CPU 1 is interconnected with other devices (described later) by a bus 8.

【0052】主メモリ2は、CPU1において実行され
るプログラム・コードをロードしたり、実行プログラム
の作業データを一時保管するために使用される記憶装置
であり、例えばDRAM(Dynamic RAM)のような半導
体メモリが使用される。例えば、カメラ102の撮影画
像のような空間的解像度を持つデータを基に測定対象物
体101の空間的な位置や姿勢を計測するための3次元
位置・姿勢計測アプリケーションや、測定対象物体10
1の空間的な位置や姿勢などを始めとする実世界オブジ
ェクトについての実世界状況に応じた拡張現実感(A
R)サービスを提供するARサービス・アプリケーショ
ンなどが主メモリ2にロードされる。また、カメラ10
2による撮影画像に基づく測定対象物体101の空間的
位置や姿勢に関する計算結果や、この計算結果から得ら
れた実世界状況に応じて生成されるARサービス・コン
テンツなどが作業データとして主メモリ2に一時的に格
納される。
The main memory 2 is a storage device used for loading a program code executed in the CPU 1 and temporarily storing work data of an execution program, and is a semiconductor such as a DRAM (Dynamic RAM). Memory is used. For example, a three-dimensional position / orientation measurement application for measuring the spatial position and orientation of the measurement target object 101 based on data having a spatial resolution such as a captured image of the camera 102, and the measurement target object 10
Augmented Reality (A) according to the real-world situation of the real-world object including the spatial position and posture of 1
R) An AR service application or the like that provides a service is loaded into the main memory 2. Also, the camera 10
The calculation result regarding the spatial position and orientation of the measurement target object 101 based on the captured image by 2 and the AR service content generated according to the real world situation obtained from the calculation result are stored in the main memory 2 as work data. Stored temporarily.

【0053】また、ROM(Read Only Memory)3は、
データを恒久的に格納する半導体メモリであり、例え
ば、起動時の自己診断テスト(POST:Power On Sel
f Test)や、ハードウェア入出力用のプログラム・コー
ド(BIOS:Basic Input/Output System)などが書
き込まれている。
The ROM (Read Only Memory) 3 is
A semiconductor memory that permanently stores data, such as a self-diagnosis test (POST: Power On Sel) at startup.
f Test) and hardware input / output program code (BIOS: Basic Input / Output System).

【0054】ディスプレイ・コントローラ4は、CPU
1が発行する描画命令を実際に処理するための専用コン
トローラである。ディスプレイ・コントローラ4におい
て処理された描画データは、例えばフレーム・バッファ
(図示しない)に一旦書き込まれた後、ディスプレイ1
1によって画面出力される。
The display controller 4 is a CPU
1 is a dedicated controller for actually processing the drawing command issued by 1. The drawing data processed by the display controller 4 is once written in, for example, a frame buffer (not shown), and then the display 1
The screen is output by 1.

【0055】ディスプレイ11の表示画面は、一般に、
ユーザからの入力内容やその処理結果、あるいはエラー
その他のシステム・メッセージをユーザに視覚的にフィ
ードバックする役割を持つ。また、本実施形態において
は、ディスプレイ11の表示画面には、測定対象物体1
01の空間的位置や姿勢などの実世界状況を利用したA
Rサービス・コンテンツ(例えば、現実空間の一部が仮
想世界に拡張された複合現実感画像)などを表示出力す
るために利用される。
The display screen of the display 11 is generally
It has a role of visually feeding back the input contents from the user, the processing result thereof, or an error or other system message to the user. In addition, in the present embodiment, the measurement target object 1 is displayed on the display screen of the display 11.
A using the real world situation such as 01 spatial position and posture
It is used to display and output R service contents (for example, a mixed reality image in which a part of the physical space is expanded into a virtual world).

【0056】入力機器インターフェース5は、キーボー
ド12やマウス13などのユーザ入力機器を3次元位置
・姿勢計測装置103に接続するための装置である。
The input device interface 5 is a device for connecting user input devices such as the keyboard 12 and the mouse 13 to the three-dimensional position / orientation measuring device 103.

【0057】キーボード12やマウス13は、データや
コマンドなどのユーザ入力をシステムに取り込む役割を
持つ。本実施形態では、キーボード12やマウス13
は、3次元位置・姿勢計測アプリケーションの起動、A
Rサービス・アプリケーションの起動、ARサービスの
指定などをユーザが指示するために使用される。
The keyboard 12 and the mouse 13 have a role of taking user input such as data and commands into the system. In this embodiment, the keyboard 12 and the mouse 13
Starts the 3D position / orientation measurement application, A
It is used by the user to instruct activation of R service application, designation of AR service, and the like.

【0058】ネットワーク・インターフェース6は、E
thernet(登録商標)などの所定の通信プロトコ
ルに従って、システム103をLAN(Local Area Net
work)などの局所的ネットワーク、さらにはインターネ
ットのような広域ネットワークに接続することができ
る。
The network interface 6 is E
The system 103 is connected to a LAN (Local Area Net) according to a predetermined communication protocol such as Internet (registered trademark).
work) and even wide area networks such as the Internet.

【0059】ネットワーク上では、複数のホスト端末
(図示しない)がトランスペアレントな状態で接続さ
れ、分散コンピューティング環境が構築されている。ネ
ットワーク上では、ソフトウェア・プログラムやデータ
・コンテンツなどの配信サービスを行なうことができ
る。例えば、カメラ102の撮影画像のような空間的解
像度を持つデータを基に測定対象物体101の空間的な
位置や姿勢を計測するための3次元位置・姿勢計測アプ
リケーションや、撮影画像から検出された複数点のマー
カを基に3次元位置・姿勢推定を行なう複数のアルゴリ
ズム(例えばライブラリ化されている)、測定対象物体
101の空間的な位置や姿勢などを始めとする実世界オ
ブジェクトについての実世界状況に応じた拡張現実感
(AR)サービスを提供するARサービス・アプリケー
ションなどを、ネットワーク経由でダウンロードするこ
とができる。また、ARサービス・アプリケーションに
おいて利用される各種のARサービス・コンテンツなど
を、ネットワーク経由で他のホスト装置との間で配信・
配布することができる。
On the network, a plurality of host terminals (not shown) are connected in a transparent state to construct a distributed computing environment. Distribution services such as software programs and data contents can be provided on the network. For example, a three-dimensional position / orientation measurement application for measuring the spatial position or orientation of the measurement target object 101 based on data having a spatial resolution such as the captured image of the camera 102, or detected from the captured image. A plurality of algorithms (for example, in a library) that perform three-dimensional position / orientation estimation based on a plurality of markers, a real world of a real world object including the spatial position and orientation of the measurement target object 101, and the like. AR service applications that provide augmented reality (AR) services according to the situation can be downloaded via the network. Also, various AR service contents used in the AR service application are distributed to other host devices via the network.
It can be distributed.

【0060】外部機器インターフェース7は、ハード・
ディスク・ドライブ(HDD)14やメディア・ドライブ
15などの外部装置を3次元位置・姿勢計測装置103
に接続するための装置である。
The external device interface 7 is a hardware interface.
An external device such as a disk drive (HDD) 14 or a media drive 15 is connected to a three-dimensional position / orientation measuring device 103.
Is a device for connecting to.

【0061】HDD14は、記憶担体としての磁気ディ
スクを固定的に搭載した外部記憶装置であり(周知)、
記憶容量やデータ転送速度などの点で他の外部記憶装置
よりも優れている。ソフトウェア・プログラムを実行可
能な状態でHDD14上に置くことを、プログラムのシ
ステムへの「インストール」と呼ぶ。通常、HDD14
には、CPU1が実行すべきオペレーティング・システ
ムのプログラム・コードや、アプリケーション・プログラ
ム、デバイス・ドライバなどが不揮発的に格納されてい
る。例えば、カメラ102の撮影画像のような空間的解
像度を持つデータを基に測定対象物体101の空間的な
位置や姿勢を計測するための3次元位置・姿勢計測アプ
リケーションや、測定対象物体101の空間的な位置や
姿勢などを始めとする実世界オブジェクトについての実
世界状況に応じた拡張現実感(AR)サービスを提供す
るARサービス・アプリケーションなどを、HDD14
上にインストールすることができる。また、撮影画像か
ら検出された複数点のマーカを基に3次元位置・姿勢推
定を行なう複数のアルゴリズム(例えばライブラリ化さ
れている)や、ARサービス・アプリケーションにおい
て利用されるARサービス・コンテンツなどをHDD1
4上に蓄積しておいてもよい。
The HDD 14 is an external storage device in which a magnetic disk as a storage carrier is fixedly mounted (well known),
It is superior to other external storage devices in terms of storage capacity and data transfer speed. Placing the software program on the HDD 14 in an executable state is called "installing" the program in the system. Usually HDD14
The operating system program code to be executed by the CPU 1, application programs, device drivers, etc. are stored in a non-volatile manner. For example, a three-dimensional position / orientation measurement application for measuring the spatial position or orientation of the measurement target object 101 based on data having a spatial resolution such as an image captured by the camera 102, or the space of the measurement target object 101. HDD 14 includes an AR service application that provides an augmented reality (AR) service according to the real world situation of real world objects such as physical position and posture.
Can be installed on. In addition, a plurality of algorithms (for example, in a library) that perform three-dimensional position / orientation estimation based on a plurality of markers detected from a captured image, AR service contents used in an AR service application, etc. HDD1
4 may be stored in the memory.

【0062】メディア・ドライブ15は、CD(Compact
Disc)やMO(Magneto-Optical disc)、DVD(Dig
ital Versatile Disc)などの可搬型メディアを装填し
て、そのデータ記録面にアクセスするための装置であ
る。
The media drive 15 is a CD (Compact
Disc), MO (Magneto-Optical disc), DVD (Dig)
Ital Versatile Disc) is a device for loading a portable medium such as a disc and accessing the data recording surface thereof.

【0063】可搬型メディアは、主として、ソフトウェ
ア・プログラムやデータ・ファイルなどをコンピュータ可
読形式のデータとしてバックアップすることや、これら
をシステム間で移動(すなわち販売・流通・配布を含む)
する目的で使用される。例えば、カメラ102の撮影画
像のような空間的解像度を持つデータを基に測定対象物
体101の空間的な位置や姿勢を計測するための3次元
位置・姿勢計測アプリケーションや、測定対象物体10
1の空間的な位置や姿勢などを始めとする実世界オブジ
ェクトについての実世界状況に応じた拡張現実感(A
R)サービスを提供するARサービス・アプリケーショ
ンなどを、これら可搬型メディアを利用して複数の機器
間で物理的に流通・配布することができる。また、撮影
画像から検出された複数点のマーカを基に3次元位置・
姿勢推定を行なう複数のアルゴリズム(例えばライブラ
リ化されている)や、ARサービス・アプリケーション
において利用される各種のARサービス・コンテンツな
どを他の装置との間で交換するために、可搬型メディア
を利用することができる。
The portable medium mainly backs up software programs, data files, etc. as computer-readable data, and moves them between systems (that is, including sales, distribution and distribution).
It is used for the purpose. For example, a three-dimensional position / orientation measurement application for measuring the spatial position and orientation of the measurement target object 101 based on data having a spatial resolution such as a captured image of the camera 102, and the measurement target object 10
Augmented Reality (A) according to the real-world situation of the real-world object including the spatial position and posture of 1
R) AR services and applications that provide services can be physically distributed / distributed among a plurality of devices using these portable media. In addition, based on the markers of multiple points detected from the captured image,
A portable medium is used to exchange a plurality of algorithms for posture estimation (for example, in a library) and various AR service contents used in AR service applications with other devices. can do.

【0064】カメラ・インターフェース9は、カメラ1
02を接続するための装置であり、例えばUSBインタ
ーフェースで構成される。あるいはビデオ・キャプチャ
・カードのようにカメラ102から動画像を取得するイ
ンターフェースで構成されていてもよい。カメラ102
は、画素が2次元アレイ上に配置された構成で、測定対
象物体101から光学信号並びにその空間的情報を全画
素でデコードする。
The camera interface 9 is the camera 1
This is a device for connecting 02, and is configured by a USB interface, for example. Alternatively, it may be configured with an interface that acquires a moving image from the camera 102 like a video capture card. Camera 102
Is a configuration in which pixels are arranged in a two-dimensional array, and an optical signal from the measurement target object 101 and its spatial information are decoded by all pixels.

【0065】なお、図2に示すような3次元位置・姿勢
計測装置103の一例は、米IBM社のパーソナル・コ
ンピュータ"PC/AT(Personal Computer/Advanced
Technology)"の互換機又は後継機である。勿論、他の
アーキテクチャで構成されるコンピュータを、本実施形
態に係る3次元位置・姿勢計測装置103として適用す
ることも可能である。
An example of the three-dimensional position / orientation measuring device 103 as shown in FIG. 2 is a personal computer "PC / AT" (Personal Computer / Advanced) of IBM Corp.
Technology) "compatible machine or a successor machine. Of course, a computer configured with another architecture can also be applied as the three-dimensional position / orientation measuring apparatus 103 according to the present embodiment.

【0066】図3には、測定対象物体101の構成例を
示している。同図に示すように、測定対象物体101は
板状の三角形をしており、その各頂点には光学的に識別
可能なマーカ104a〜104cが配置されている。
FIG. 3 shows an example of the structure of the measuring object 101. As shown in the figure, the object 101 to be measured has a plate-like triangle, and optically identifiable markers 104a to 104c are arranged at respective vertices thereof.

【0067】各マーカ104a〜104cは、それぞれ
固有の色、形状、パターン、又は光の点滅パターンなど
からなる光学的に一意な識別情報を持ち、マーカ毎に識
別可能である。また、各マーカ104a〜104cが持
つこれらの視覚的識別情報や各マーカ間の空間的な位置
関係は、3次元位置・姿勢計測装置103にとって既知
であるとする。したがって、測定対象物体101は、あ
る実世界オブジェクトに取り付けられることにより、各
マーカ104a〜104cが持つ識別情報の組み合わせ
によりこのオブジェクトを特定するための情報を与える
とともに、空間的な位置や姿勢などの実世界状況に関す
る情報を与えることができる。
Each of the markers 104a to 104c has optically unique identification information consisting of a unique color, shape, pattern, or blinking pattern of light, and can be identified for each marker. It is assumed that the visual identification information of each of the markers 104a to 104c and the spatial positional relationship between the markers are known to the three-dimensional position / orientation measuring device 103. Therefore, when the measurement target object 101 is attached to a certain real-world object, the measurement target object 101 gives information for identifying this object by the combination of the identification information held by the markers 104a to 104c, and the spatial position and orientation of the object. Can give information about real world situations.

【0068】例えば、各マーカ104a〜104cがL
EDのように光の点滅するデバイスで構成されている場
合、各マーカ104a〜104cは、データを点滅パタ
ーンなどの時系列の光学信号に符号化して送信すること
ができる。このような場合、各マーカ104a〜104
cを備えた測定対象物体101は、単に実世界オブジェ
クトの識別情報や空間的な位置や姿勢を計測するための
指標としてだけでなく、送信装置としても機能すること
ができる。また、光学信号は距離に応じてデータが変化
しないことから、各マーカ104a〜104cからは距
離に関しロバストなデータ送信を行なうことができる。
For example, each of the markers 104a to 104c is L
When configured with a device that blinks light such as an ED, each of the markers 104a to 104c can encode data and transmit it in a time-series optical signal such as a blinking pattern. In such a case, each of the markers 104a to 104
The measurement target object 101 provided with c can function not only as an index for measuring the identification information and the spatial position and orientation of the real world object, but also as a transmitting device. Further, since the data of the optical signal does not change depending on the distance, it is possible to perform robust data transmission with respect to the distance from each of the markers 104a to 104c.

【0069】一方、3次元位置・姿勢計測装置103に
接続されているカメラ102は、例えばCMOSセンサ
やCCDセンサなどのように、無数の受光素子すなわち
画素が2次元アレイ上に配置されたイメージ・センサ
(図示しない)を備えており、測定対象物体101上の
各マーカ104a〜104cに対して空間的な分解能を
持つ。
On the other hand, the camera 102 connected to the three-dimensional position / orientation measuring device 103 is an image in which an infinite number of light receiving elements, that is, pixels are arranged in a two-dimensional array, such as a CMOS sensor or a CCD sensor. A sensor (not shown) is provided and has a spatial resolution for each of the markers 104a to 104c on the measurement target object 101.

【0070】図4には、測定対象物体101が各マーカ
104a〜104cとして3個の発光ダイオードを装備
したときのカメラ102及び3次元位置・姿勢計測装置
103側での動作特性を模式的に示している。発光ダイ
オードはそれぞれ送信したいデータを光の点滅パターン
に符号化してを送出することができる。勿論、送信デー
タからなるベースバンド信号をそのまま光の点滅パター
ンで表してもよいし、あるいは周波数変調や振幅変調な
どの変調処理を施した後に光学信号を出力するようにし
てもよい。
FIG. 4 schematically shows the operating characteristics of the camera 102 and the three-dimensional position / orientation measuring device 103 when the measurement object 101 is equipped with three light emitting diodes as the markers 104a to 104c. ing. Each of the light emitting diodes can encode the data to be transmitted into a blinking pattern of light and transmit the encoded data. Of course, the baseband signal composed of the transmission data may be represented as it is by a light blinking pattern, or the optical signal may be output after performing modulation processing such as frequency modulation or amplitude modulation.

【0071】この場合、各発光ダイオードの点滅パター
ンは、集光レンズ系(図示しない)によってカメラ10
2側の2次元イメージ・センサの受光面上に結像され
て、測定対象物体101の実空間上の位置や姿勢に対応
した位置の受光素子で検出される。
In this case, the blinking pattern of each light emitting diode is controlled by the condenser lens system (not shown).
An image is formed on the light receiving surface of the two-dimensional two-dimensional image sensor, and is detected by the light receiving element at a position corresponding to the position and orientation of the measurement target object 101 in the real space.

【0072】例えば、イメージ・センサが持つ2次元受
光面において各発光ダイオード104a〜104cの点
灯光が結像される受光素子(画素)の座標値をそれぞれ
(10,10)、(90,90)、(40,70)とす
ると、各画素位置では対応する発光ダイオードの点滅パ
ターンが受光強度(明るさ)の時間的変化として検出さ
れる。受光強度を所定の閾値で2値化処理することによ
り、元の送信データに相当する1/0のビット列を復元
することができる。
For example, the coordinate values of the light receiving elements (pixels) on which the light emitted from the light emitting diodes 104a to 104c are imaged on the two-dimensional light receiving surface of the image sensor are (10, 10) and (90, 90), respectively. , (40, 70), the blinking pattern of the corresponding light emitting diode at each pixel position is detected as a temporal change in the received light intensity (brightness). By binarizing the received light intensity with a predetermined threshold value, the 1/0 bit string corresponding to the original transmission data can be restored.

【0073】このように、3次元位置・姿勢計測装置1
03は、カメラ102によって測定対象物体101を含
んだシーンの撮影画像を全画素でデコードすることによ
って、各マーカ104a〜104cから送出される光学
信号、並びに測定対象物体101の空間的情報を取得す
ることができる。すなわち、光学信号により測定対象物
体101との間でデータ伝送を行なうことができるとと
もに、空間的情報が意味する実世界状況に基づく拡張現
実サービスを提供することができる。
Thus, the three-dimensional position / orientation measuring device 1
03 decodes the captured image of the scene including the measurement target object 101 with all the pixels by the camera 102 to acquire the optical signals sent from the markers 104a to 104c and the spatial information of the measurement target object 101. be able to. That is, it is possible to perform data transmission with the measurement target object 101 by an optical signal, and to provide an augmented reality service based on the real world situation that spatial information means.

【0074】B.3次元位置・姿勢計測方法 次いで、本実施形態に係る3次元位置・姿勢計測装置1
03による測定対象物体101の3次元位置・姿勢計測
方法について説明する。
B. Three-dimensional position / orientation measuring method Next, the three-dimensional position / orientation measuring apparatus 1 according to the present embodiment.
A method of measuring the three-dimensional position / orientation of the measurement target object 101 according to No. 03 will be described.

【0075】B−1.3つのマーカを配置した測定対象
物体の3次元位置・姿勢計測 測定対象物体101上に配置されているすべてのマーカ
104a〜104cの3次元的な位置関係は既知であ
る。測定対象物体101を例えばX軸回りにα、Y軸回
りにβ、Z軸周りにγだけそれぞれ回転したものとする
と、計測対象物体101の回転行列Rは以下のように表
される。
B-1 Measurement Target with Three Markers Arranged
Three-dimensional position / orientation measurement of an object The three-dimensional positional relationship of all the markers 104a to 104c arranged on the measurement target object 101 is known. Assuming that the measurement target object 101 is rotated by α around the X axis, β around the Y axis, and γ around the Z axis, the rotation matrix R of the measurement target object 101 is expressed as follows.

【0076】[0076]

【数1】 [Equation 1]

【0077】また、測定対象物体101がカメラ座標系
の位置(Xt,Yt,Zt)に移動したものとすると、平
行移動行列Tは以下のように表される。
If the object 101 to be measured is moved to the position (X t , Y t , Z t ) in the camera coordinate system, the translation matrix T is expressed as follows.

【0078】[0078]

【数2】 [Equation 2]

【0079】ここで、測定対象物体101上の点
(Xm,Ym,Zm)に位置するマーカ104が回転及び
平行移動した後、点(Xc,Yc,Zc)に変換されたも
のとすると、これらの関係は以下のように表される。
Here, after the marker 104 located at the point (X m , Y m , Z m ) on the object 101 to be measured rotates and translates, it is converted into the point (X c , Y c , Z c ). Assuming that, these relationships are expressed as follows.

【0080】[0080]

【数3】 [Equation 3]

【0081】上式は測定対象物体101を撮像した画像
上から空間的な位置関係が既知である3点のマーカを検
出することができれば、連立方程式の解としてR及び
T、すなわち測定対象物体101の3次元位置及び姿勢
を求められることを示している。例えば、Robert M. Ha
ralick、Chung-nan Lee、Karsten Ottenberg、及びMich
ael Nolle共著の論文"Analysis and Solutions of The
Three Point Perspective Pose Estimation Problem"
(In Proceedings of the Conference on ComputerVisi
on and Pattern Recognition, Maui, Hawaii, USA, pp.
592-598, 1991)には対象物体上に配設された既知の3
点の位置から該物体の3次元位置及び姿勢を計測する方
法について記述されている。
In the above equation, if three markers having known spatial positional relationships can be detected from the image of the object 101 to be measured, R and T, that is, the object 101 to be measured, can be obtained as the solution of the simultaneous equations. It is shown that the three-dimensional position and orientation of can be obtained. For example, Robert M. Ha
ralick, Chung-nan Lee, Karsten Ottenberg, and Mich
ael Nolle co-authored paper "Analysis and Solutions of The
Three Point Perspective Pose Estimation Problem "
(In Proceedings of the Conference on ComputerVisi
on and Pattern Recognition, Maui, Hawaii, USA, pp.
592-598, 1991), a known 3 mounted on the target object.
A method for measuring the three-dimensional position and orientation of the object from the position of a point is described.

【0082】なお、点(Xc,Yc,Zc)に移動したマ
ーカ104の2次元撮像画像上の座標値(X,Y)は以
下の通りとなる。
The coordinate values (X, Y) on the two-dimensional captured image of the marker 104 moved to the point (X c , Y c , Z c ) are as follows.

【0083】[0083]

【数4】 [Equation 4]

【0084】撮像画像上から空間的な位置関係が既知で
ある3点のマーカを検出することができれば、連立方程
式の解としてR及びT、すなわち測定対象物体101の
3次元位置及び姿勢を求めることができる。しかしなが
ら、この例外として、測定対象物体101の任意の辺a
bがカメラ102の投影スクリーン102’に対して平
行となる場合には(図5を参照のこと)、連立方程式の
解は重解となる。このため、測定対象物体101を構成
する残りの点cは104c−1又は104c−2のどち
らに位置するかを、1枚の撮像画像だけから一意に求め
ることができない。
If three markers having known spatial positional relationships can be detected from the captured image, R and T, that is, the three-dimensional position and orientation of the object 101 to be measured, can be obtained as the solution of the simultaneous equations. You can However, as an exception to this, an arbitrary side a of the measurement target object 101
When b is parallel to the projection screen 102 ′ of the camera 102 (see FIG. 5), the solution of simultaneous equations is a multiple solution. For this reason, it is not possible to uniquely determine whether the remaining point c configuring the measurement target object 101 is located at 104c-1 or 104c-2 from only one captured image.

【0085】このような場合には、回転・移動した測定
対象物体101上のマーカ104を2次元に写像し、画
像データ中のマーカの位置とマッチングすることによっ
て3次元位置及び姿勢を推定するマッチング方法を適用
することができる。
In such a case, matching is performed in which the marker 104 on the rotated or moved measurement object 101 is two-dimensionally mapped and the position of the marker in the image data is matched to estimate the three-dimensional position and orientation. The method can be applied.

【0086】図6には、マッチング方法の一例を模式的
に図解している。例えば、カメラ102が撮像した前フ
レームの測定対象物体を参照番号101’とすると、こ
れにX軸、Y軸、並びにZ軸の各軸回りに許容される誤
差成分Δα、Δβ、Δγ、さらに平行移動に許容される
誤差成分ΔTを適用して、カメラ102の投影スクリー
ン102’上に写像する。そして、現在の撮像画像中の
各マーカ104a〜104cとのズレ量が最小となるよ
うに画像すり合せ(Image Registration)を行なうこと
で、測定対象物体101の最適な3次元位置・姿勢を推
定することができる。
FIG. 6 schematically illustrates an example of the matching method. For example, when the object to be measured in the previous frame captured by the camera 102 is designated by reference numeral 101 ′, error components Δα, Δβ, Δγ that are allowed around each of the X-axis, Y-axis, and Z-axis are parallel to this. An error component ΔT that is allowed for movement is applied to map on the projection screen 102 ′ of the camera 102. Then, the optimum three-dimensional position / orientation of the measurement target object 101 is estimated by performing image registration (Image Registration) so that the amount of deviation from each of the markers 104a to 104c in the current captured image is minimized. be able to.

【0087】このようなマッチング方法においても、図
5に示したような重解の問題は起こり得るが、カメラ1
02で捕捉した前フレームにおける測定対象物体101
の3次元位置及び姿勢を初期値とした場合、最も近い解
に収束することが期待できる。したがって、測定対象物
体101の移動速度がフレームレートに比べ高速でなけ
れば、最適な3次元位置・姿勢を推定することになる。
Even with such a matching method, the problem of multiple solutions as shown in FIG.
Object 101 to be measured in the previous frame captured in 02
When the three-dimensional position and orientation of are used as initial values, it can be expected to converge to the closest solution. Therefore, if the moving speed of the measurement target object 101 is not higher than the frame rate, the optimum three-dimensional position / orientation is estimated.

【0088】このマッチング方法は、画像データ上の各
マーカ104a〜104cの位置とこれらを2次元平面
(すなわちイメージ・センサの受光面)に写像した位置
との誤差が最小になるように測定対象物体101の空間
的な位置及び姿勢を推定することであるが、この問題
は、最小値探索問題に置き換えることができる。
In this matching method, the object to be measured is minimized so that the error between the positions of the markers 104a to 104c on the image data and the positions obtained by mapping these on the two-dimensional plane (that is, the light receiving surface of the image sensor) is minimized. Estimating the spatial position and orientation of 101, this problem can be replaced by a minimum search problem.

【0089】最小値探索問題の解決法としてさまざまな
方法が提案されているが、多くの場合において3次元位
置・姿勢測定装置にはリアルタイム性が要求されるた
め、例えば山登り法などといった比較的高速な探索方法
が適している。しかし、山登り法は局所解に収束し易
く、初期値に大きく依存するという欠点がある。このよ
うに最小値探索問題において、グローバル・サーチと計
算時間はトレードオフの関係にあり、短い計算時間で最
適解を求めることは難しい。
Various methods have been proposed as solutions to the minimum value search problem. However, in many cases, a three-dimensional position / orientation measuring device requires real-time performance, so that a relatively high speed such as a mountain climbing method is required. Any search method is suitable. However, the hill climbing method has a drawback that it tends to converge to a local solution and largely depends on the initial value. As described above, in the minimum value search problem, there is a trade-off relationship between the global search and the calculation time, and it is difficult to find an optimum solution in a short calculation time.

【0090】あらかじめ位置関係が既知である3つのマ
ーカ104a〜104cを配置した測定対象物体101
を撮影して、その入力画像上で検出された各マーカ10
4a〜104cの位置を基に、測定対象物体101の3
次元位置・姿勢を推定することができるが、その方法は
さまざまであり、それぞれ長所短所がある。したがっ
て、本発明者等は、測定対象物体101の撮影画像から
その空間的位置及び姿勢を推定するにあたり、各々の方
法の短所を互いに補い合うようなハイブリッドな方法が
望しいと思料する。
Object to be measured 101 in which three markers 104a to 104c whose positional relationships are known in advance are arranged.
Each marker 10 detected on the input image by photographing
3 of the measurement target object 101 based on the positions of 4a to 104c.
Although it is possible to estimate the dimensional position / orientation, there are various methods, and each has advantages and disadvantages. Therefore, the present inventors consider that when estimating the spatial position and orientation of a captured image of the measurement target object 101, a hybrid method that complements the disadvantages of each method is desired.

【0091】図7には、3つのマーカ104a〜104
cを配置した測定対象物体101の撮影画像を基にその
3次元位置・姿勢を推定するための処理手順の一例をフ
ローチャートの形式で示している。この処理手順は、連
立方程式などを用いて数学的に3次元位置・姿勢を算出
する方法(数学的算出方法:前述(Robert外
著))とマッチングにより3次元位置・姿勢を推定する
方法(マッチング方法:前述(図6を参照のこと))を
ハイブリッドした方法を採用している。実際には、CP
U1が実行中の3次元位置・姿勢計測アプリケーション
に測定対象物体101の撮影画像を投入することによっ
て、この処理手順が行なわれる。以下、図7に示すフロ
ーチャートを参照しながら、この3次元位置・姿勢推定
処理について説明する。
FIG. 7 shows three markers 104a to 104.
An example of a processing procedure for estimating the three-dimensional position / orientation based on the captured image of the measurement target object 101 in which c is arranged is shown in the form of a flowchart. This processing procedure includes a method of mathematically calculating a three-dimensional position / orientation by using simultaneous equations (a mathematical calculation method: the above (Robert et al.)) And a method of estimating a three-dimensional position / orientation by matching (matching). Method: A method in which the above (see FIG. 6)) is hybridized is adopted. Actually, CP
This processing procedure is performed by inputting the captured image of the measurement target object 101 into the three-dimensional position / orientation measurement application being executed by U1. Hereinafter, the three-dimensional position / orientation estimation processing will be described with reference to the flowchart shown in FIG. 7.

【0092】まず、測定対象物体101上に配置された
各マーカ104a〜104cの3次元位置データなどの
3次元位置・姿勢計測に用いられる各種変数を初期化す
る(ステップS1)。
First, various variables used for three-dimensional position / orientation measurement such as three-dimensional position data of the markers 104a to 104c arranged on the object 101 to be measured are initialized (step S1).

【0093】次いで、カメラ102から画像データを入
力する(ステップS2)。
Next, image data is input from the camera 102 (step S2).

【0094】次いで、入力された画像データ内を探索し
て、各マーカ104a〜104cを抽出する(ステップ
S3)。既に述べたように、各マーカ104a〜104
cは識別情報に相当するデータを符号化した点滅パター
ンを照射するLEDなどで構成されており、それぞれ識
別可能となっている。この処理ステップでは、入力画像
上に存在する各マーカ104a〜104cの識別情報と
それぞれの画像座標が算出されることになる。
Then, the input image data is searched to extract the markers 104a to 104c (step S3). As described above, each of the markers 104a to 104
c is composed of an LED or the like that emits a blinking pattern in which data corresponding to identification information is encoded, and can be identified. In this processing step, the identification information of each of the markers 104a to 104c existing on the input image and the respective image coordinates are calculated.

【0095】次いで、入力画像上に存在するマーカの画
像座標に基づいて、数学的算出方法又はマッチング方法
のいずれの方法を用いて測定対象物体101の3次元位
置・姿勢を求めるかを、別途定義されている選択ルーチ
ンにより選択する(ステップS4)。
Next, it is separately defined which of the mathematical calculation method and the matching method is used to obtain the three-dimensional position / orientation of the measurement target object 101 based on the image coordinates of the marker existing on the input image. It is selected by the selected selection routine (step S4).

【0096】ここで言う数学的算出方法とは、例えば撮
影画像上で検出された3つのマーカ104a〜104c
の位置から連立方程式の解として回転行列R及び並進行
列Tを求める方法であり、Robert外著の論文(前
述)に記載されている。また、マッチング方法は、撮影
画像上の各マーカ104a〜104cの位置とこれらを
2次元に写像した位置との誤差が最小になるように測定
対象物体101の空間的位置及び姿勢を推定する方法で
ある(図6を参照のこと)。図7に示す例では、これら
2通りのアルゴリズムから選択しているが、さらに選択
候補となるアルゴリズムを用意しておいてもよい。但
し、これら選択候補となるアルゴリズムは互いの短所を
補い合うアルゴリズムであることが望ましい。
The mathematical calculation method referred to here is, for example, the three markers 104a to 104c detected on the photographed image.
This is a method of obtaining a rotation matrix R and a translation sequence T as solutions of simultaneous equations from the position of, and is described in a paper by Robert et al. The matching method is a method of estimating the spatial position and orientation of the measurement target object 101 so that the error between the position of each of the markers 104a to 104c on the captured image and the position where these markers are two-dimensionally mapped is minimized. Yes (see Figure 6). In the example shown in FIG. 7, these two types of algorithms are selected, but an algorithm that is a selection candidate may be prepared. However, it is desirable that these selection candidate algorithms are algorithms that complement each other's disadvantages.

【0097】ステップS4において最適な3次元位置・
姿勢推定アルゴリズムを選択した後、ステップS5に戻
り、選択されたアルゴリズムに基づいて、各アルゴリズ
ムに従った処理が施される。数学的算出方法が選択され
た場合にはステップS5及びステップS6で、マッチン
グ方法が選択された場合にはステップS7及びステップ
S8でそれぞれ3次元位置・姿勢推定処理が行なわれ
る。
Optimal three-dimensional position in step S4
After the posture estimation algorithm is selected, the process returns to step S5, and the process according to each algorithm is performed based on the selected algorithm. When the mathematical calculation method is selected, the three-dimensional position / orientation estimation processing is performed in steps S5 and S6, and when the matching method is selected, in steps S7 and S8, respectively.

【0098】また、これらの処理の後、推定された3次
元位置・姿勢を保存してから(ステップS9)、ステッ
プS10に進む。保存された3次元位置・姿勢は、次ル
ープでマッチング方法が選択された場合の初期値(後
述)として利用される。次ループで3次元位置・姿勢を
利用しないのであれば、ステップS9を省略してもよ
い。また、3次元位置・姿勢推定アルゴリズムが選択さ
れなかった場合には、何もしないで次ステップS10へ
進む。
After these processes, the estimated three-dimensional position / orientation is stored (step S9), and the process proceeds to step S10. The stored three-dimensional position / orientation is used as an initial value (described later) when the matching method is selected in the next loop. If the three-dimensional position / orientation is not used in the next loop, step S9 may be omitted. If the three-dimensional position / orientation estimation algorithm is not selected, nothing is done and the process proceeds to the next step S10.

【0099】ステップS10では、3次元位置・姿勢計
測を続行させるかどうか判定する。続行するならステッ
プS2へ戻り、非続行ならば本処理ルーチン全体を終了
する。ここで、終了条件は例えばユーザからの入力でも
よいし、アプリケーション内での所定のルール(例えば
ゲームにおけるゲーム・オーバ)でもよい。また、メモ
リフルなどのハードウェアやソフトウェア上の制約を終
了条件として設定してもよいであろう。
In step S10, it is determined whether or not to continue the three-dimensional position / orientation measurement. If it is to continue, the process returns to step S2, and if it is not to continue, this processing routine is finished. Here, the end condition may be, for example, an input from the user or a predetermined rule within the application (for example, game over in a game). Also, restrictions on hardware or software such as memory full may be set as the end condition.

【0100】図8には、図7中のステップS4における
測定対象物体101の3次元位置・姿勢を求めるための
アルゴリズム選択についてのより詳細な処理手順をフロ
ーチャートの形式で示している。
FIG. 8 shows, in the form of a flowchart, a more detailed processing procedure for selecting an algorithm for obtaining the three-dimensional position / orientation of the measuring object 101 in step S4 in FIG.

【0101】まず、入力画像上で検出可能なマーカの数
を判定する(ステップS11)。ここで、3点すべての
マーカを入力画像から抽出することができたならば、次
ステップS12に進む。
First, the number of markers that can be detected on the input image is determined (step S11). If all three markers can be extracted from the input image, the process proceeds to step S12.

【0102】ステップS12では、入力画像上から抽出
された3点のマーカの画像座標から判別式を計算する。
図5を参照しながら既に説明したように、測定対象物体
101の任意の辺abがカメラ102の投影スクリーン
に対して平行となる場合には、連立方程式の解は重解と
なるため、残りの点cが存在する位置を一意に求めるこ
とができない。ここで言う判別式は、連立方程式の解が
重解か否かを判定するものでありRobert外著の論
文(前述)に記載されている。
In step S12, a discriminant is calculated from the image coordinates of the three markers extracted from the input image.
As already described with reference to FIG. 5, when an arbitrary side ab of the measurement target object 101 is parallel to the projection screen of the camera 102, the solution of the simultaneous equations becomes a multiple solution, and therefore the remaining The position where the point c exists cannot be uniquely obtained. The discriminant here is for determining whether or not the solution of simultaneous equations is a multiple solution, and is described in a paper by Robert et al.

【0103】ステップS13では、この判別式を基に重
解を持つか判定する。重解を持たないと判定されると、
次ステップS14へ進み、3次元位置・姿勢推定アルゴ
リズムとして数学的算出方法が選択される。
In step S13, it is determined whether there are multiple solutions based on this discriminant. If it is determined that there is no multiple solution,
In step S14, a mathematical calculation method is selected as the three-dimensional position / orientation estimation algorithm.

【0104】他方、重解を持つと判定された場合には、
ステップS15へ進み、信用できる初期値が設定されて
いるかをさらに判定する。例えば、前ループ(すなわち
前画像フレームでの位置・姿勢推定処理)で3次元位置
・姿勢が計測されているかどうか調べる。これは、入力
が時系列画像データであり、且つその間隔が測定対象物
体101の移動速度に比べ短い場合には、前ループで計
測された3次元位置・姿勢を初期値(参照データ)とし
て利用できるからである。
On the other hand, when it is determined that there are multiple solutions,
In step S15, it is further determined whether the trustworthy initial value is set. For example, it is checked whether or not the three-dimensional position / orientation is measured in the previous loop (that is, the position / orientation estimation process in the previous image frame). When the input is time-series image data and the interval is shorter than the moving speed of the measurement target object 101, the three-dimensional position / orientation measured in the previous loop is used as an initial value (reference data). Because you can.

【0105】初期値が設定されている場合、さらにマッ
チング方法がn回連続していないか判定する(ステップ
S16)。連続していないならば、次ステップS17に
進んでマッチング方法を3次元位置・姿勢推定アルゴリ
ズムとして選択する。
If the initial value has been set, it is further determined whether the matching method has continued n times (step S16). If they are not continuous, the process proceeds to the next step S17 and the matching method is selected as the three-dimensional position / orientation estimation algorithm.

【0106】ステップS16における判定は、マッチン
グ方法が既にn回連続しているときにはマッチング方法
を諦めることを意味する。これは、既にn回繰り返して
マッチング方法により推定解を使用している場合には解
の精度や信頼性が既に失われていると考えられるからで
ある。また、マッチング方法は局所解に収束し易く、一
度局所解に収束すると最適解を見つけることが困難にな
る。シミュレーテッド・アニーリング法や遺伝的アルゴ
リズムなどの比較的局所解に収束し難い方法を最適値探
索方法として用いる場合には、ステップS16を省略し
てもよい。
The determination in step S16 means that the matching method is given up when the matching method has already been repeated n times. This is because it is considered that the accuracy and reliability of the solution have already been lost when the estimated solution is already used by repeating the matching method n times. In addition, the matching method easily converges to a local solution, and once it converges to a local solution, it becomes difficult to find an optimal solution. When a method such as a simulated annealing method or a genetic algorithm that is relatively difficult to converge to a local solution is used as the optimum value search method, step S16 may be omitted.

【0107】ステップS11においてマーカの数が3点
と判定されなかった場合、ステップS15においてマッ
チング方法の初期値が信用できる値に設定されていない
と判定された場合、並びに、ステップS16においてマ
ッチング方法がn回連続していると判定された場合に
は、ステップS18へ進み、3次元位置・姿勢推定アル
ゴリズムは選択されない。この場合、3次元位置・姿勢
計測は不可能という結果を返す。
When it is determined in step S11 that the number of markers is 3 points, when it is determined in step S15 that the initial value of the matching method is not set to a reliable value, and when the matching method is determined in step S16. If it is determined that the n-th position is continuous, the process proceeds to step S18, and the three-dimensional position / orientation estimation algorithm is not selected. In this case, the result that the three-dimensional position / orientation measurement is impossible is returned.

【0108】B−2.4つのマーカを配置した測定対象
物体の3次元位置・姿勢計測 前項で説明した実施形態では、それぞれ固有の識別情報
を持つ(又は発信する)とともに互いの位置関係が既知
である3個のマーカを配置した測定対象物体101の位
置・姿勢を計測するものである。これに対して、本項で
は、識別情報を持つとともに互いの位置関係が既知であ
る4個のマーカを測定対象物体101上に配置した場合
の3次元位置・姿勢の計測方法について説明する。
B-2.4 Measurement Target with Four Markers Arranged
Three-dimensional position / orientation measurement of object In the embodiment described in the previous section, the position of the measurement target object 101 in which three markers each having unique identification information (or transmitting) and having a known mutual positional relationship are arranged.・ It measures the posture. On the other hand, in this section, a method of measuring a three-dimensional position / orientation in the case where four markers having identification information and having a known positional relationship with each other are arranged on the measurement target object 101 will be described.

【0109】図9には、測定対象物体101の他の構成
例を示している。同図に示すように測定対象物体101
は板状の形状をしており、その各頂点には4個のマーカ
104a〜104dが平行四辺形の各頂点となるように
配置されている。
FIG. 9 shows another example of the structure of the measuring object 101. As shown in FIG.
Has a plate-like shape, and four markers 104a to 104d are arranged at the respective vertices so as to be the respective vertices of the parallelogram.

【0110】前述と同様、各マーカ104a〜104d
は、それぞれ固有の色、形状、パターン、又は光の点滅
パターンなどからなる光学的に一意な識別情報を持ち、
マーカ毎に識別可能である。また、各マーカ104a〜
104dが持つこれらの光学的識別情報や各マーカ間の
空間的な位置関係は、3次元位置・姿勢計測装置103
にとって既知である。測定対象物体101は、各マーカ
104a〜104dが持つ識別情報の組み合わせにより
このオブジェクトを特定するための情報を与えるととも
に、空間的な位置や姿勢などの実世界状況に関する情報
を与えることができる。
Similar to the above, each of the markers 104a to 104d
Has an optically unique identification information such as a unique color, shape, pattern, or blinking pattern of light,
It is possible to identify each marker. Moreover, each marker 104a-
These three-dimensional position / orientation measuring device 103 is used for the optical positional information of 104d and the spatial positional relationship between each marker.
Known to. The measurement target object 101 can give information for identifying this object by a combination of identification information held by the respective markers 104a to 104d, and also give information on a real world situation such as a spatial position and orientation.

【0111】例えば、加藤博一、Mark Billinghurst、
浅野浩一、橘啓八郎共著の論文『マーカー追跡に基づく
拡張現実感システムとそのキャリブレーション』(日本
バーチャルリアリティ学会論文誌, Vol.4, No.4, 199
9)には、平行四辺形の各頂点に配置された4つのマー
カを基に平行四辺形の3次元位置及び姿勢を計測する方
法について記載されている。同文献に従って図9に示す
ような測定対象物体101の位置・姿勢を計測するため
には、4つのマーカ104a〜104dを平行四辺形状
に配置すべきである。3点より4点の情報を用いた方
が、より精度の高い計測が期待できるということを充分
理解されたい。
For example, Hirokazu Kato, Mark Billinghurst,
"Augmented Reality System Based on Marker Tracking and Its Calibration" co-authored by Koichi Asano and Keihachiro Tachibana (Journal of Virtual Reality Society of Japan, Vol.4, No.4, 199)
9) describes a method for measuring the three-dimensional position and orientation of a parallelogram based on four markers arranged at each vertex of the parallelogram. In order to measure the position / orientation of the measurement target object 101 as shown in FIG. 9 according to the document, four markers 104a to 104d should be arranged in a parallelogram shape. It should be fully understood that more accurate measurement can be expected by using the information of 4 points rather than 3 points.

【0112】図10には、平行四辺形の頂点を構成する
4つのマーカ104a〜104dを配置した測定対象物
体101の撮影画像を基にその3次元位置・姿勢を推定
するための処理手順の一例をフローチャートの形式で示
している。この処理手順は、幾何学的な拘束条件などを
用いて数学的に3次元位置・姿勢を算出する方法(数学
的算出方法:前述(加藤外著))とマッチングにより3
次元位置・姿勢を推定する方法(マッチング方法:前述
(図6を参照のこと))をハイブリッドした方法を採用
している。実際には、CPU1が実行中の3次元位置・
姿勢計測アプリケーションに測定対象物体101の撮影
画像を投入することによって、この処理手順が行なわれ
る。以下、図7に示すフローチャートを参照しながら、
この3次元位置・姿勢推定処理について説明する。
FIG. 10 shows an example of a processing procedure for estimating the three-dimensional position / orientation of the object 101 to be measured, on which four markers 104a to 104d forming the vertices of a parallelogram are arranged. Is shown in the form of a flow chart. This processing procedure is performed by a method of mathematically calculating a three-dimensional position / orientation using a geometric constraint condition (a mathematical calculation method: the above-mentioned (Kato Soga)) and matching.
A hybrid method of the method of estimating the dimensional position / orientation (matching method: the above (see FIG. 6)) is adopted. Actually, the three-dimensional position being executed by the CPU 1
This processing procedure is performed by inputting the captured image of the measurement target object 101 into the posture measurement application. Hereinafter, referring to the flowchart shown in FIG. 7,
This three-dimensional position / orientation estimation process will be described.

【0113】まず、測定対象物体101上に配置された
各マーカ104a〜104dの3次元位置データなどの
3次元位置・姿勢計測に用いられる各種変数を初期化す
る(ステップS21)。
First, various variables used for three-dimensional position / orientation measurement such as three-dimensional position data of the markers 104a to 104d arranged on the measurement object 101 are initialized (step S21).

【0114】次いで、カメラ102から画像データを入
力して(ステップS22)、入力された画像データ内を
探索して、各マーカ104a〜104dを抽出する(ス
テップS23)。既に述べたように、各マーカ104a
〜104dは固有の点滅パターンを照射するLEDなど
で構成されており、それぞれ識別可能となっている。こ
の処理ステップでは、入力画像上に存在する各マーカ1
04a〜104dの識別情報とそれぞれの画像座標が算
出されることになる。
Next, the image data is input from the camera 102 (step S22), the input image data is searched, and the markers 104a to 104d are extracted (step S23). As described above, each marker 104a
.About.104d are composed of LEDs or the like that emit unique flashing patterns, and can be identified. In this processing step, each marker 1 existing on the input image is
The identification information of 04a to 104d and the image coordinates of each will be calculated.

【0115】次いで、入力画像上に存在するマーカの個
数に基づいて、数学的算出方法又はマッチング方法のい
ずれの方法を用いて測定対象物体101の3次元位置・
姿勢を求めるかを、別途定義されている選択ルーチンに
より選択する(ステップS24)。
Next, based on the number of markers existing on the input image, the three-dimensional position / position of the measuring object 101 is calculated by using either a mathematical calculation method or a matching method.
Whether to obtain the posture is selected by a separately defined selection routine (step S24).

【0116】ここで言う数学的算出方法とは、例えば平
行四辺形の各頂点をなす位置に配置された4つのマーカ
104a〜104dを入力画像中で追跡することにより
測定対象物体101の位置・姿勢を数学的に求める方法
であり、加藤外著の論文(前述)に記載されている。ま
た、マッチング方法は、撮影画像上の各マーカ104a
〜104dの位置とこれらを2次元に写像した位置との
誤差が最小になるように測定対象物体101の空間的位
置及び姿勢を推定する方法である(図6を参照のこ
と)。図10に示す例では、これら2通りのアルゴリズ
ムから選択しているが、さらに選択候補となるアルゴリ
ズムを用意しておいてもよい。但し、これら選択候補と
なるアルゴリズムは互いの短所を補い合うアルゴリズム
であることが望ましい。
The mathematical calculation method referred to here is, for example, the position / orientation of the object 101 to be measured by tracking four markers 104a to 104d arranged at the positions forming the vertices of a parallelogram in the input image. Is a method for mathematically obtaining, and is described in a paper by Kato Soga (above). In addition, the matching method is performed by each marker 104a on the captured image.
This is a method of estimating the spatial position and orientation of the measurement target object 101 so that the error between the positions of 104d and the two-dimensionally mapped positions of them is minimized (see FIG. 6). In the example shown in FIG. 10, these two types of algorithms are selected, but an algorithm that is a selection candidate may be prepared. However, it is desirable that these selection candidate algorithms are algorithms that complement each other's disadvantages.

【0117】数学的算出方法では、4点の位置情報から
算出する場合は平行四辺形の4頂点が抽出されることが
前提条件となる。このため、ステップS24では入力画
像上に存在するマーカの個数によって、数学的算出方法
およびマッチング方法のどちらの方法を用いて3次元位
置・姿勢を求めるか選択することができる。
In the mathematical calculation method, the four vertices of the parallelogram must be extracted when calculating from the position information of four points. Therefore, in step S24, which of the mathematical calculation method and the matching method is used to determine the three-dimensional position / orientation can be selected depending on the number of markers existing on the input image.

【0118】ステップS24において最適な3次元位置
・姿勢推定アルゴリズムを選択した後、ステップS25
に戻り、選択されたアルゴリズムに基づいて、各アルゴ
リズムに従った処理が施される。数学的算出方法が選択
された場合にはステップS25及びステップS26で、
マッチング方法が選択された場合にはステップS27及
びステップS28でそれぞれ3次元位置・姿勢推定処理
が行なわれる。
After selecting the optimum three-dimensional position / orientation estimation algorithm in step S24, step S25
Then, the process according to each algorithm is performed based on the selected algorithm. When the mathematical calculation method is selected, in steps S25 and S26,
When the matching method is selected, the three-dimensional position / orientation estimation process is performed in steps S27 and S28.

【0119】また、これらの処理の後、推定された3次
元位置・姿勢を保存してから(ステップS29)、ステ
ップS30に進む。保存された3次元位置・姿勢は、次
ループでマッチング方法が選択された場合の初期値(後
述)として利用される。次ループで3次元位置・姿勢を
利用しないのであれば、ステップS29を省略してもよ
い。また、3次元位置・姿勢推定アルゴリズムが選択さ
れなかった場合には、何もしないで次ステップS30へ
進む。
After these processes, the estimated three-dimensional position / orientation is stored (step S29), and the process proceeds to step S30. The stored three-dimensional position / orientation is used as an initial value (described later) when the matching method is selected in the next loop. If the three-dimensional position / orientation is not used in the next loop, step S29 may be omitted. If the three-dimensional position / orientation estimation algorithm is not selected, nothing is done and the process proceeds to the next step S30.

【0120】ステップS30では、3次元位置・姿勢計
測を続行させるかどうか判定する。続行するならステッ
プS22へ戻り、非続行ならば本処理ルーチン全体を終
了する。ここで、終了条件は例えばユーザからの入力で
もよいし、アプリケーション内での所定のルール(例え
ばゲームにおけるゲーム・オーバ)でもよい。また、メ
モリフルなどのハードウェアやソフトウェア上の制約を
終了条件として設定してもよい。
In step S30, it is determined whether or not to continue the three-dimensional position / orientation measurement. If it is to continue, the process returns to step S22, and if it is not to continue, the entire processing routine is ended. Here, the end condition may be, for example, an input from the user or a predetermined rule within the application (for example, game over in a game). Further, hardware or software restrictions such as memory full may be set as the end condition.

【0121】図11には、図10中のステップS24に
おける測定対象物体101の3次元位置・姿勢を求める
ためのアルゴリズム選択についてのより詳細な処理手順
をフローチャートの形式で示している。
FIG. 11 shows, in the form of a flowchart, a more detailed processing procedure for selecting an algorithm for obtaining the three-dimensional position / orientation of the measuring object 101 in step S24 in FIG.

【0122】まず、入力画像中で検出されたマーカの個
数が4点かどうかを判定する(ステップS31)。
First, it is determined whether the number of markers detected in the input image is four (step S31).

【0123】検出されたマーカの個数が4点である場合
には、次ステップS32へ進み、3次元位置・姿勢推定
アルゴリズムとして数学的算出方法が選択される。
When the number of detected markers is 4, the process proceeds to the next step S32, and the mathematical calculation method is selected as the three-dimensional position / orientation estimation algorithm.

【0124】一方、マーカの個数が4点でない場合に
は、検出されたマーカの個数が3点かどうかを判定する
(ステップS33)。3点と判定された場合には、ステ
ップS34へ進んで、信用できる初期値が設定されてい
るかをさらに判定する。例えば、前ループで3次元位置
・姿勢が計測されているかどうか調べる。これは、入力
が時系列画像データであり、且つその間隔が測定対象物
体101の移動速度に比べ短い場合には、前ループで計
測された3次元位置・姿勢を初期値(参照データ)とし
て利用できるからである。初期値が設定されている場
合、さらにマッチング方法がn回連続していないか判定
する(ステップS35)。連続していないならば、次ス
テップS36に進んでマッチング方法を3次元位置・姿
勢推定アルゴリズムとして選択する。
On the other hand, if the number of markers is not four, it is determined whether the number of detected markers is three (step S33). If it is determined that there are three points, the process proceeds to step S34, and it is further determined whether a reliable initial value is set. For example, it is checked whether or not the three-dimensional position / orientation is measured in the front loop. When the input is time-series image data and the interval is shorter than the moving speed of the measurement target object 101, the three-dimensional position / orientation measured in the previous loop is used as an initial value (reference data). Because you can. When the initial value is set, it is further determined whether the matching method is repeated n times (step S35). If they are not continuous, the process proceeds to the next step S36 and the matching method is selected as the three-dimensional position / orientation estimation algorithm.

【0125】また、ステップS33において、入力画像
から検出されたマーカの個数が3点と判定されなかった
場合、ステップS34においてマッチング方法の初期値
が信用できる値に設定されていないと判定された場合、
並びに,ステップS35においてマッチング方法がn回
連続していると判定された場合には、ステップS37へ
進み、3次元位置・姿勢推定アルゴリズムは選択されな
い。この場合、3次元位置・姿勢計測は不可能という結
果を返す。
When it is determined in step S33 that the number of markers detected from the input image is not 3 points, or when it is determined in step S34 that the initial value of the matching method is not set to a reliable value. ,
If it is determined in step S35 that the matching method has continued n times, the process proceeds to step S37, and the three-dimensional position / orientation estimation algorithm is not selected. In this case, the result that the three-dimensional position / orientation measurement is impossible is returned.

【0126】このように3次元位置・姿勢推定アルゴリ
ズムの選択は入力画像上のマーカの数によって選択して
もよい。
As described above, the three-dimensional position / orientation estimation algorithm may be selected according to the number of markers on the input image.

【0127】B−3.立方体の各頂点にマーカを配置し
たときの3次元位置・姿勢計測 上記の2つの実施形態では、板状の測定対象物体101
の表面に3点又は4点のマーカを配置して、撮像画像中
でこれらマーカの位置を追跡することにより数学的又は
マッチングの各アルゴリズムに従って測定対象物体10
1の3次元位置・姿勢の計測を行なうものである。
B-3. Place a marker at each vertex of the cube
Three-dimensional position / orientation measurement when the object is measured In the above two embodiments, the plate-shaped measurement target object 101
By arranging markers of 3 points or 4 points on the surface of the object and tracking the positions of these markers in the captured image, the object to be measured 10 according to each mathematical or matching algorithm.
The three-dimensional position / orientation of No. 1 is measured.

【0128】ところが、測定対象物体101を手に持っ
て動かしながら、その3次元位置・姿勢を測定したい場
合、手や他の物体によってマーカが1つでも隠れると3
次元位置・姿勢を推定できなくなる。例えば3次元位置
・姿勢測定装置を家庭用エンターテイメント機器(ゲー
ム機器のコントローラなど)として応用することを考え
ると、ユーザがオクルージョンを意識せずに、測定対象
物体を自由に動かせることは、ユーザビリティを決定す
る主要な要因の1つである。言い換えれば、アプリケー
ションの実態及びその操作方法によって測定対象物体の
形状を変化させ、オクルージョンが生じないようにマー
カを配置することが重要である。場合によっては、測定
対象物体に棒やグリップのような形状を取り付け、その
部分を持って操作するように暗示してもよい。
However, when it is desired to measure the three-dimensional position / orientation of the object 101 to be measured while holding the object 101 in the hand and moving the object 101, even if one of the markers is hidden by the hand or another object, it is 3
It becomes impossible to estimate the dimensional position and orientation. For example, considering the application of a three-dimensional position / orientation measuring device as a home entertainment device (such as a controller of a game device), it is usability that the user can freely move the measurement target object without being aware of occlusion. It is one of the main factors that In other words, it is important to change the shape of the measurement target object according to the actual condition of the application and the operation method thereof, and arrange the markers so that occlusion does not occur. Depending on the case, a shape such as a rod or a grip may be attached to the object to be measured, and the object may be instructed to be held and operated.

【0129】図12には、オクルージョンを考慮して、
立体的に配置することによりマーカの個数を増やした測
定対象物体101の構成例を示している。同図に示す例
では、測定対象物体101は、立方体の形状をなし、そ
の各頂点に8つのマーカ104a〜104hが配設され
ている。
In FIG. 12, considering occlusion,
The structural example of the measurement target object 101 in which the number of markers is increased by arranging in three dimensions is shown. In the example shown in the figure, the measurement target object 101 is in the shape of a cube, and eight markers 104a to 104h are provided at each apex thereof.

【0130】このようにマーカ104a〜104hを立
体的に配置することによって、マニュアル操作時であっ
ても、測定対象物体101の少なくとも1つの面が抽出
される確率が高くなり、数学的な位置・姿勢推定方法
(前述)を実現するために必要な3点又は4点のマーカ
を検出し易くなる。したがって、ユーザはオクルージョ
ン問題を意識させることなく、自由に測定対象物体10
1を移動させたり回転することが可能となる。
By arranging the markers 104a to 104h three-dimensionally in this way, the probability that at least one surface of the measurement target object 101 will be extracted becomes high even during manual operation, and the mathematical positions It becomes easy to detect the three-point or four-point markers required to realize the posture estimation method (described above). Therefore, the user can freely measure the measurement target object 10 without being aware of the occlusion problem.
It is possible to move or rotate 1.

【0131】図13には、立方体の各頂点にマーカ10
4a〜104hを配置した測定対象物体101の撮影画
像を基にその3次元位置・姿勢を推定するための処理手
順の一例をフローチャートの形式で示している。この処
理手順は、幾何学的な拘束条件などを用いて数学的に3
次元位置・姿勢を算出する方法(数学的算出方法:前述
(加藤外著))とマッチングにより3次元位置・姿勢を
推定する方法(マッチング方法:前述(図6を参照のこ
と))をハイブリッドした方法を採用している。実際に
は、CPU1が実行中の3次元位置・姿勢計測アプリケ
ーションに測定対象物体101の撮影画像を投入するこ
とによって、この処理手順が行なわれる。以下、図13
に示すフローチャートを参照しながら、この3次元位置
・姿勢推定処理について説明する。
In FIG. 13, a marker 10 is added to each vertex of the cube.
An example of a processing procedure for estimating the three-dimensional position / orientation based on the captured image of the measurement target object 101 in which 4a to 104h are arranged is shown in the form of a flowchart. This processing procedure is performed mathematically by using geometric constraint conditions.
A hybrid of a method of calculating a three-dimensional position / orientation (a mathematical calculation method: the above (Kato Soga)) and a method of estimating a three-dimensional position / orientation by matching (a matching method: the above (see FIG. 6)). The method is adopted. Actually, this processing procedure is performed by inputting the captured image of the measurement target object 101 to the three-dimensional position / orientation measurement application being executed by the CPU 1. Below, FIG.
This three-dimensional position / orientation estimation processing will be described with reference to the flowchart shown in FIG.

【0132】まず、測定対象物体101の各頂点に配置
された各マーカ104a〜104hの3次元位置データ
などの3次元位置・姿勢計測に用いられる各種変数を初
期化する(ステップS41)。
First, various variables used for three-dimensional position / orientation measurement such as three-dimensional position data of each of the markers 104a to 104h arranged at each vertex of the object 101 to be measured are initialized (step S41).

【0133】次いで、カメラ102から画像データを入
力して(ステップS42)、入力された画像データ内を
探索して、各マーカ104a〜104hの抽出を試みる
(ステップS43)。既に述べたように、各マーカ10
4a〜104hは固有の点滅パターンを照射するLED
などで構成されており、それぞれ識別可能となってい
る。この処理ステップでは、入力画像上で検出されたマ
ーカの識別情報とそれぞれの画像座標が算出されること
になる。
Next, image data is input from the camera 102 (step S42), the input image data is searched, and each marker 104a to 104h is tried to be extracted (step S43). As already mentioned, each marker 10
4a to 104h are LEDs that emit a unique flashing pattern
, Etc., and each can be identified. In this processing step, the identification information of the marker detected on the input image and each image coordinate are calculated.

【0134】次いで、入力画像上に存在するマーカの画
像座標に基づいて、数学的算出方法又はマッチング方法
のいずれの方法を用いて測定対象物体101の3次元位
置・姿勢を求めるかを、別途定義されている選択ルーチ
ンにより選択する(ステップS44)。
Next, it is separately defined which of the mathematical calculation method and the matching method is used to obtain the three-dimensional position / orientation of the measurement target object 101 based on the image coordinates of the marker existing on the input image. It is selected by the selected selection routine (step S44).

【0135】ここで言う数学的算出方法とは、例えば平
行四辺形の各頂点をなす位置に配置された4つのマーカ
を入力画像中で追跡することにより測定対象物体101
の位置・姿勢を数学的に求める方法であり、加藤外著の
論文(前述)に記載されている。また、マッチング方法
は、撮影画像上の各マーカの位置とこれらを2次元に写
像した位置との誤差が最小になるように測定対象物体1
01の空間的位置及び姿勢を推定する方法である(図6
を参照のこと)。図13に示す例では、これら2通りの
アルゴリズムから選択しているが、さらに選択候補とな
るアルゴリズムを用意しておいてもよい。但し、これら
選択候補となるアルゴリズムは互いの短所を補い合うア
ルゴリズムであることが望ましい。
The mathematical calculation method referred to here is, for example, the object to be measured 101 which is measured by tracking four markers arranged at the positions forming the vertices of a parallelogram in the input image.
This is a method for mathematically determining the position and orientation of the, and is described in a paper by Kato Soga (above). In addition, the matching method uses the measurement target object 1 so that the error between the position of each marker on the captured image and the position where these markers are two-dimensionally mapped is minimized.
This is a method for estimating the spatial position and orientation of 01 (FIG. 6).
checking). In the example shown in FIG. 13, these two types of algorithms are selected, but an algorithm that is a selection candidate may be prepared. However, it is desirable that these selection candidate algorithms are algorithms that complement each other's disadvantages.

【0136】数学的算出方法では、4点の位置情報から
算出する場合は平行四辺形の4頂点が抽出されることが
前提条件となる点である。このため、ステップS44で
は入力画像上に存在するマーカの個数並びにその組み合
わせによって、数学的算出方法およびマッチング方法の
どちらの方法を用いて3次元位置・姿勢を求めるか選択
することができる。また、入力画像から抽出された複数
のマーカから2以上の平行四辺形の組み合わせを抽出す
ることができる場合には、さらに位置・姿勢計測に最適
となる組み合わせを選択するようにする(後述)。
In the mathematical calculation method, the four vertices of the parallelogram must be extracted when calculating from the position information of four points. Therefore, in step S44, which of the mathematical calculation method and the matching method is used to determine the three-dimensional position / orientation can be selected according to the number of markers existing on the input image and the combination thereof. If two or more parallelogram combinations can be extracted from a plurality of markers extracted from the input image, a combination most suitable for position / orientation measurement is selected (described later).

【0137】ステップS44において最適な3次元位置
・姿勢推定アルゴリズムを選択した後、ステップS45
に戻り、選択されたアルゴリズムに基づいて、各アルゴ
リズムに従った処理が施される。数学的算出方法が選択
された場合にはステップS45及びステップS46で、
マッチング方法が選択された場合にはステップS47及
びステップS48で、それぞれ3次元位置・姿勢推定処
理が行なわれる。
After selecting the optimum three-dimensional position / orientation estimation algorithm in step S44, step S45
Then, the process according to each algorithm is performed based on the selected algorithm. When the mathematical calculation method is selected, in steps S45 and S46,
When the matching method is selected, the three-dimensional position / orientation estimation process is performed in steps S47 and S48.

【0138】また、これらの処理の後、推定された3次
元位置・姿勢を保存してから(ステップS49)、ステ
ップS50に進む。保存された3次元位置・姿勢は、次
ループでマッチング方法が選択された場合の初期値(後
述)として利用される。次ループで3次元位置・姿勢を
利用しないのであれば、ステップS49を省略してもよ
い。また、3次元位置・姿勢推定アルゴリズムが選択さ
れなかった場合には、何もしないで次ステップS50へ
進む。
After these processes, the estimated three-dimensional position / orientation is stored (step S49), and the process proceeds to step S50. The stored three-dimensional position / orientation is used as an initial value (described later) when the matching method is selected in the next loop. If the three-dimensional position / orientation is not used in the next loop, step S49 may be omitted. If the three-dimensional position / orientation estimation algorithm is not selected, nothing is done and the process proceeds to the next step S50.

【0139】ステップS50では、3次元位置・姿勢計
測を続行させるかどうか判定する。続行するならステッ
プS42へ戻り、非続行ならば本処理ルーチン全体を終
了する。ここで、終了条件は例えばユーザからの入力で
もよいし、アプリケーション内での所定のルール(例え
ばゲームにおけるゲーム・オーバ)でもよい。また、メ
モリフルなどのハードウェアやソフトウェア上の制約を
終了条件として設定してもよい。
In step S50, it is determined whether to continue the three-dimensional position / orientation measurement. If it is to continue, the process returns to step S42, and if it is not to continue, this processing routine is completed. Here, the end condition may be, for example, an input from the user or a predetermined rule within the application (for example, game over in a game). Further, hardware or software restrictions such as memory full may be set as the end condition.

【0140】図14には、図13中のステップS44に
おける測定対象物体101の3次元位置・姿勢を求める
ためのアルゴリズム選択についてのより詳細な処理手順
をフローチャートの形式で示している。
FIG. 14 shows, in the form of a flowchart, a more detailed processing procedure for selecting an algorithm for obtaining the three-dimensional position / orientation of the object 101 to be measured in step S44 in FIG.

【0141】まず、入力画像中で検出されたマーカの個
数が4点以上かどうかを判定する(ステップS51)。
First, it is determined whether the number of markers detected in the input image is four or more (step S51).

【0142】マーカの個数が4点以上ある場合には、さ
らに平行四辺形を構成するマーカの組み合わせが存在す
るかどうかを判定する(ステップS52)。
If the number of markers is four or more, it is further determined whether there is a combination of markers forming a parallelogram (step S52).

【0143】平行四辺形となるマーカの組み合わせが1
以上存在する場合には、測定対象物体101の位置・姿
勢を計測するために最適となる平行四辺形の組み合わせ
を、別途定義された選択ルーチンにより選択する(ステ
ップS53)。ここで、最適な平行四辺形とは、例えば
最もカメラに近い面、つまり全ての平行四辺形が同じ面
積なら、画像上の4点が作る面の面積などである。そし
て、選択された平行四辺形の組み合わせを用いた数学的
算出方法が選択される(ステップS54)。
A combination of markers that form a parallelogram is 1
If there is more than one, the optimal parallelogram combination for measuring the position / orientation of the measurement target object 101 is selected by a separately defined selection routine (step S53). Here, the optimum parallelogram is, for example, a surface closest to the camera, that is, an area of a surface formed by four points on the image if all parallelograms have the same area. Then, a mathematical calculation method using the selected combination of parallelograms is selected (step S54).

【0144】一方、マーカの個数が4点以上でない場合
には、検出されたマーカの個数が3点かどうかを判定す
る(ステップS55)。
On the other hand, if the number of markers is not 4 or more, it is determined whether the number of detected markers is 3 (step S55).

【0145】ステップS55において検出されたマーカ
の個数が3点と判定された場合、並びにステップS52
において平行四辺形を構成するマーカの組み合わせが存
在しないと判定された場合には、ステップS56へ進ん
で、信用できる初期値が設定されているかをさらに判定
する。例えば、前ループで3次元位置・姿勢が計測され
ているかどうか調べる。これは、入力が時系列画像デー
タであり、且つその間隔が測定対象物体101の移動速
度に比べ短い場合には、前ループで計測された3次元位
置・姿勢を初期値(参照データ)として利用できるから
である。初期値が設定されている場合、さらにマッチン
グ方法がn回連続していないか判定する(ステップS5
7)。連続していないならば、次ステップS58に進ん
でマッチング方法を3次元位置・姿勢推定アルゴリズム
として選択する。なお、3点のマーカを検出できた場合
には、マッチング法ではなく、Robert外著(前
述)の論文に従った数学的算出方法を適用してもよい。
When it is determined that the number of markers detected in step S55 is three, and in step S52
If it is determined that there is no combination of markers forming the parallelogram in step S56, the process proceeds to step S56, and it is further determined whether a reliable initial value is set. For example, it is checked whether or not the three-dimensional position / orientation is measured in the front loop. When the input is time-series image data and the interval is shorter than the moving speed of the measurement target object 101, the three-dimensional position / orientation measured in the previous loop is used as an initial value (reference data). Because you can. When the initial value is set, it is further determined whether the matching method has continued n times (step S5).
7). If they are not continuous, the process proceeds to the next step S58 and the matching method is selected as the three-dimensional position / orientation estimation algorithm. If three markers can be detected, the mathematical calculation method according to the article by Robert et al. (Mentioned above) may be applied instead of the matching method.

【0146】また、ステップS55において、入力画像
から検出されたマーカの個数が3点と判定されなかった
場合、ステップS56においてマッチング方法の初期値
が信用できる値に設定されていないと判定された場合、
並びに,ステップS57においてマッチング方法がn回
連続していると判定された場合には、ステップS59へ
進み、3次元位置・姿勢推定アルゴリズムは選択されな
い。この場合、3次元位置・姿勢計測は不可能という結
果を返す。
If it is not determined in step S55 that the number of markers detected from the input image is three points, or if it is determined in step S56 that the initial value of the matching method is not set to a reliable value. ,
If it is determined in step S57 that the matching method has continued n times, the process proceeds to step S59, and the three-dimensional position / orientation estimation algorithm is not selected. In this case, the result that the three-dimensional position / orientation measurement is impossible is returned.

【0147】このように3次元位置・姿勢測定アルゴリ
ズムの選択では、入力画像上のマーカの数及び組み合わ
せに応じてより適切なものを選択するようにしてもよ
い。また、図12に示したように測定対象物体101上
のマーカを複数、立体的に配置することによって、3次
元位置・姿勢推定アルゴリズムが選択されないという事
態、つまり3次元位置・姿勢測定が不可能になる確率を
小さくすることができ、よりロバストな3次元位置・姿
勢測定が実現できる。
As described above, in selecting the three-dimensional position / orientation measurement algorithm, a more appropriate one may be selected according to the number and combination of the markers on the input image. Further, as shown in FIG. 12, by arranging a plurality of markers on the measurement target object 101 three-dimensionally, a situation in which the 3D position / orientation estimation algorithm is not selected, that is, 3D position / orientation measurement is impossible. It is possible to reduce the probability of becoming, and to realize more robust 3D position / orientation measurement.

【0148】本実施形態では、物体の3次元位置及び姿
勢を測定するための数学的算出方法として、加藤博一、
Mark Billinghurst、浅野浩一、橘啓八郎共著の論文
『マーカー追跡に基づく拡張現実感システムとそのキャ
リブレーション』(日本バーチャルリアリティ学会論文
誌, Vol.4, No.4, 1999)に記載されている、4つのマ
ーカを基に平行四辺形の3次元位置及び姿勢を計測する
方法を適用する。
In this embodiment, as a mathematical calculation method for measuring the three-dimensional position and orientation of an object, Hirokazu Kato,
Mark Billinghurst, Koichi Asano, and Keihachiro Tachibana, "Augmented Reality System Based on Marker Tracking and Its Calibration" (Journal of the Virtual Reality Society of Japan, Vol.4, No.4, 1999), A method of measuring a three-dimensional position and orientation of a parallelogram based on four markers is applied.

【0149】この場合、平行四辺形の4頂点を構成する
マーカが入力画像中から抽出されることが前提条件とな
る。また、入力画像から抽出された複数のマーカから2
以上の平行四辺形の組み合わせを抽出することができる
場合には、さらに位置・姿勢計測に最適となる組み合わ
せを選択する必要がある。以下、平行四辺形を構成する
4つのマーカの検出方法について説明する。
In this case, the precondition is that the markers forming the four vertices of the parallelogram are extracted from the input image. In addition, 2 from the plurality of markers extracted from the input image
When the above parallelogram combination can be extracted, it is necessary to select a combination that is most suitable for position / orientation measurement. Hereinafter, a method for detecting the four markers forming the parallelogram will be described.

【0150】図15に示すような立方体の各頂点にマー
カが配置されている測定対象物体の場合、平行四辺形を
構成する頂点の組は、立方体の各面を構成する6面ab
cd、dcfe、efgh、hgba、hade、bg
fc、並びに、対角上の頂点から構成される6面abf
e、dcgh、bged、cfha、dagf、cbh
eの計12組である。
In the case of an object to be measured in which markers are arranged at the respective vertices of a cube as shown in FIG. 15, the set of vertices forming the parallelogram is 6 planes ab constituting each face of the cube.
cd, dcfe, efgh, hgba, hade, bg
fc, and a six-sided abf composed of diagonal vertices
e, dcgh, bged, cfha, dagf, cbh
There are a total of 12 sets of e.

【0151】まず、ステップS43で抽出されたマーカ
の中から、これら12組の平行四辺形を構成するマーカ
の組が存在するかチェックする。例えば、マーカa,
b,c,d,eが抽出された場合、平行四辺形を構成す
る組はabcdの唯1組である。また、マーカa,b,
c,d,e,fが抽出された場合には、平行四辺形を構
成する組はabcd、dcfe、abfeの3組であ
る。
First, from the markers extracted in step S43, it is checked whether there are 12 sets of markers forming the parallelogram. For example, the marker a,
When b, c, d, and e are extracted, the set forming the parallelogram is only one set of abcd. In addition, the markers a, b,
When c, d, e, and f are extracted, the groups forming the parallelogram are three groups of abcd, dcfe, and abfe.

【0152】また、例えばマーカa,b,c,e,hが
抽出された場合には、平行四辺形を構成する組は存在し
なく、加藤外著の論文に記載されている数学的算出方法
では測定対象物体101の3次元位置及び姿勢を計測す
ることはできない。このような場合には抽出されたマー
カの数が3つの場合と同様に、マッチング方法など、3
点の位置関係から3次元位置および姿勢を推定する方法
が適用される。
Further, for example, when the markers a, b, c, e, and h are extracted, there is no set forming a parallelogram, and the mathematical calculation method described in the paper by Kato, et al. Therefore, the three-dimensional position and orientation of the measurement target object 101 cannot be measured. In such a case, as in the case where the number of the extracted markers is three, the matching method, etc.
A method of estimating the three-dimensional position and orientation from the positional relationship of points is applied.

【0153】次に平行四辺形を構成する組が複数検出さ
れた場合、それらの組の中から最適な平行四辺形を選択
する。ここで言う最適な平行四辺形とは、最も高精度な
3次元位置及び姿勢計測が期待できる平行四辺形のこと
である。
Next, when a plurality of pairs forming the parallelogram are detected, the optimum parallelogram is selected from the pairs. The optimum parallelogram referred to here is a parallelogram for which the most accurate three-dimensional position and orientation measurement can be expected.

【0154】一般に、3次元空間上の平行四辺形を2次
元に写像して得られる四角形の面積が大きいほど計算誤
差が小さくなることを期待することができ、面積が最大
となる平行四辺形を最適な平行四辺形とする。また、計
算時間が問題にならない場合には、検出されたすべての
平行四辺形に対し、それぞれ3次元位置及び姿勢を算出
して、それらの平均を測定対象物体の3次元位置及び姿
勢とすることも可能である。
Generally, it can be expected that the calculation error becomes smaller as the area of the quadrangle obtained by mapping the parallelogram in the three-dimensional space in two dimensions becomes larger, and the parallelogram having the maximum area can be obtained. Optimal parallelogram. If the calculation time does not matter, calculate the three-dimensional position and orientation of each of the detected parallelograms, and use the average of these as the three-dimensional position and orientation of the object to be measured. Is also possible.

【0155】このようにして複数のマーカから平行四辺
形を構成する4つのマーカを抽出し、加藤外著の論文に
記載されている数学的算出方法に基づいて3次元位置・
姿勢を計測することができる。但し、この数学的算出方
法は平行四辺形の3次元位置・姿勢を計算する方法であ
り、平行四辺形の3次元位置・姿勢を測定対象物体10
1の3次元位置・姿勢に変換しなくてはならない。
In this way, the four markers forming the parallelogram are extracted from the plurality of markers, and the three-dimensional position / position is calculated based on the mathematical calculation method described in the paper by Kato Soga.
The posture can be measured. However, this mathematical calculation method is a method of calculating the three-dimensional position / orientation of the parallelogram, and the three-dimensional position / orientation of the parallelogram is measured.
It has to be converted into 1-dimensional 3D position / orientation.

【0156】例えば平行四辺形hadeに対して3次元
位置・姿勢を計測すると、図16に示すような平行四辺
形の中心を原点とし、その法線がz軸方向となる座標系
に対する位置・姿勢が計測される。しかし、計測対象物
体の座標系が図15に示すような測定対象物体の中心を
原点とする座標系の場合、平行四辺形hadeは(0,
0,k)に位置するため、この分だけオフセットをかけ
る必要がある。つまり、図15に示す平行四辺形had
eを図16の位置に変換(z軸方向に−kだけ移動)す
る分、オフセットがかかり、算出された平行四辺形の位
置が(x,y,z)の場合、測定対象物体の位置は
(x,y,z−k)となる。
For example, when the three-dimensional position / orientation is measured for a parallelogram hade, the position / orientation with respect to the coordinate system whose origin is the center of the parallelogram as shown in FIG. 16 and whose normal is the z-axis direction. Is measured. However, when the coordinate system of the measurement target object is a coordinate system whose origin is the center of the measurement target object as shown in FIG. 15, the parallelogram hade is (0,
Since it is located at 0, k), it is necessary to offset by this amount. That is, the parallelogram had shown in FIG.
When e is converted to the position of FIG. 16 (moved by −k in the z-axis direction), an offset is applied, and when the calculated position of the parallelogram is (x, y, z), the position of the measurement target object is (X, y, z−k).

【0157】同様に、平行四辺形abcdに対して3次
元位置・姿勢を算出した場合、図15に示す平行四辺形
abcdを図15の位置に変換(y軸回りに−90度回
転し、z軸方向に−kだけ移動)する分、オフセットが
かかる。このオフセットは計測対象物体の座標系に対す
る各平行四辺形の座標系で決まるものであり、各平行四
辺形に対してあらかじめ求めておく必要がある。
Similarly, when the three-dimensional position / orientation is calculated for the parallelogram abcd, the parallelogram abcd shown in FIG. 15 is converted into the position shown in FIG. 15 (rotated about the y axis by −90 degrees, z Offset is applied as much as it moves by -k in the axial direction. This offset is determined by the coordinate system of each parallelogram with respect to the coordinate system of the object to be measured, and needs to be obtained in advance for each parallelogram.

【0158】[追補]以上、特定の実施形態を参照しな
がら、本発明について詳解してきた。しかしながら、本
発明の要旨を逸脱しない範囲で当業者が該実施形態の修
正や代用を成し得ることは自明である。すなわち、例示
という形態で本発明を開示してきたのであり、本明細書
の記載内容を限定的に解釈するべきではない。本発明の
要旨を判断するためには、冒頭に記載した特許請求の範
囲の欄を参酌すべきである。
[Supplement] The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiments without departing from the scope of the present invention. That is, the present invention has been disclosed in the form of exemplification, and the contents of this specification should not be construed in a limited manner. In order to determine the gist of the present invention, the section of the claims described at the beginning should be taken into consideration.

【0159】[0159]

【発明の効果】以上詳記したように、本発明によれば、
実世界上に配置されたオブジェクトの空間上の位置や姿
勢を計測することができる、優れた3次元位置・姿勢計
測装置及び方法、記憶媒体、並びにコンピュータ・プロ
グラムを提供することができる。
As described above in detail, according to the present invention,
It is possible to provide an excellent three-dimensional position / orientation measuring apparatus and method, a storage medium, and a computer program capable of measuring the position and orientation in space of an object placed in the real world.

【0160】また、本発明によれば、実世界上に配置さ
れたオブジェクトの位置や姿勢を磁界や気圧、温度など
の影響を受けない光学方式により計測することができ
る、優れた3次元位置・姿勢計測装置及び方法、記憶媒
体、並びにコンピュータ・プログラムを提供することが
できる。
Further, according to the present invention, it is possible to measure the position and orientation of an object placed in the real world by an optical method which is not affected by magnetic field, atmospheric pressure, temperature, etc. An attitude measuring device and method, a storage medium, and a computer program can be provided.

【0161】また、本発明によれば、オブジェクト表面
上に配設された複数の光学情報源に基づいて、その位置
や姿勢を磁界や気圧、温度などの影響を受けずに計測す
ることができる、ロバストな3次元位置・姿勢計測装置
及び方法、記憶媒体、並びにコンピュータ・プログラム
を提供することができる。
Further, according to the present invention, it is possible to measure the position and orientation of a plurality of optical information sources arranged on the surface of an object without being affected by the magnetic field, atmospheric pressure, temperature and the like. A robust three-dimensional position / orientation measuring apparatus and method, a storage medium, and a computer program can be provided.

【0162】本発明に係る3次元位置・姿勢計測装置及
び方法によれば、オブジェクトの撮像画像から検出され
た光学情報(ビジュアルコードやその他のマーカ、ある
いは光ビーコンなどの光学信号)の画像座標値、数およ
び組み合わせに基づき、3次元位置および姿勢を推定す
るアルゴリズムを切り替え、よりロバストな3次元位置
・姿勢計測を実現することができる。
According to the three-dimensional position / orientation measuring apparatus and method of the present invention, the image coordinate value of the optical information (visual code, other marker, or optical signal such as an optical beacon) detected from the imaged image of the object. , The algorithm for estimating the three-dimensional position and orientation can be switched based on the number and the combination, and more robust three-dimensional position / orientation measurement can be realized.

【0163】さらに、本発明に係る3次元位置・姿勢計
測装置及び方法によれば、入力画像上のマーカの座標
値、数及び組み合わせに応じた最適な3次元位置・姿勢
推定アルゴリズムを選択して、対象物体の3次元位置・
姿勢を好適に計測することができる。したがって、オク
ルージョンを意識せずに測定対象物体を自由に動かせる
ことが可能となり、家庭用エンターテイメント機器など
における3次元ユーザ・インターフェースに応用するこ
とが可能である。
Furthermore, according to the three-dimensional position / orientation measuring apparatus and method of the present invention, the optimum three-dimensional position / orientation estimation algorithm is selected according to the coordinate value, number and combination of the markers on the input image. , 3D position of the target object
The posture can be suitably measured. Therefore, the object to be measured can be freely moved without being conscious of occlusion, and it can be applied to a three-dimensional user interface in a home entertainment device or the like.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施形態に係る3次元位置・姿勢計
測システムの構成を模式的に示した図である。
FIG. 1 is a diagram schematically showing a configuration of a three-dimensional position / orientation measuring system according to an embodiment of the present invention.

【図2】本実施形態に係る3次元位置・姿勢計測装置1
03のハードウェア構成を模式的に示した図である。
FIG. 2 is a three-dimensional position / orientation measuring apparatus 1 according to this embodiment.
It is the figure which showed the hardware constitutions of 03 typically.

【図3】測定対象物体101の構成例を示した図であ
る。
FIG. 3 is a diagram showing a configuration example of a measurement target object 101.

【図4】測定対象物体101が各マーカ104a〜10
4cとして3個の発光ダイオードを装備したときのカメ
ラ102及び3次元位置・姿勢計測装置103側での動
作特性を模式的に示した図である。
FIG. 4 is a diagram illustrating an object to be measured 101 having markers 104a to 10a;
It is the figure which showed typically the operating characteristic by the side of the camera 102 and the three-dimensional position and orientation measuring device 103 when three light emitting diodes are equipped as 4c.

【図5】撮像画像上から空間的な位置関係が既知である
3点のマーカを検出することができても測定対象物体1
01の3次元位置及び姿勢を求めることができなくなる
場合を示した図である。
FIG. 5 is a diagram showing an object to be measured 1 even if three markers whose spatial positional relationships are known can be detected from the captured image.
It is the figure which showed the case where the three-dimensional position and orientation of 01 could not be calculated | required.

【図6】マッチング方法の一例を示した図である。FIG. 6 is a diagram showing an example of a matching method.

【図7】3つのマーカ104a〜104cを配置した測
定対象物体101の撮影画像を基にその3次元位置・姿
勢を推定するための処理手順を示したフローチャートで
ある。
FIG. 7 is a flowchart showing a processing procedure for estimating a three-dimensional position / orientation based on a captured image of the measurement target object 101 on which three markers 104a to 104c are arranged.

【図8】図7中のステップS4における測定対象物体1
01の3次元位置・姿勢を求めるためのアルゴリズム選
択の処理手順を示したフローチャートである。
FIG. 8 is a measurement target object 1 in step S4 in FIG.
13 is a flowchart showing a processing procedure of algorithm selection for obtaining the three-dimensional position / orientation of 01.

【図9】測定対象物体101の他の構成例を示した図で
ある。
FIG. 9 is a diagram showing another configuration example of the measurement target object 101.

【図10】4つのマーカ104a〜104dを配置した
測定対象物体101の撮影画像を基にその3次元位置・
姿勢を推定するための処理手順を示したフローチャート
である。
FIG. 10 shows a three-dimensional position of a measurement target object 101 based on a captured image in which four markers 104a to 104d are arranged.
6 is a flowchart showing a processing procedure for estimating a posture.

【図11】図10中のステップS24における測定対象
物体101の3次元位置・姿勢を求めるためのアルゴリ
ズム選択の処理手順を示したフローチャートである。
11 is a flowchart showing a processing procedure of algorithm selection for obtaining the three-dimensional position / orientation of the measurement target object 101 in step S24 in FIG.

【図12】オクルージョンを考慮して、マーカの個数を
増やした測定対象物体101の構成例を示した図であ
る。
FIG. 12 is a diagram showing a configuration example of a measurement target object 101 in which the number of markers is increased in consideration of occlusion.

【図13】立方体の各頂点にマーカ104a〜104h
を配置した測定対象物体101の撮影画像を基にその3
次元位置・姿勢を推定するための処理手順を示したフロ
ーチャートである。
FIG. 13 shows markers 104a to 104h at each vertex of the cube.
Based on the captured image of the measurement target object 101 in which
6 is a flowchart showing a processing procedure for estimating a dimensional position / orientation.

【図14】図13中のステップS44における測定対象
物体101の3次元位置・姿勢を求めるためのアルゴリ
ズム選択の処理手順を示したフローチャートである。
14 is a flowchart showing a processing procedure of algorithm selection for obtaining the three-dimensional position / orientation of the measurement target object 101 in step S44 in FIG.

【図15】位置・姿勢計測に最適となる組み合わせを選
択する方法を説明するための図である。
FIG. 15 is a diagram for explaining a method of selecting an optimal combination for position / orientation measurement.

【図16】位置・姿勢計測に最適となる組み合わせを選
択する方法を説明するための図である。
FIG. 16 is a diagram for explaining a method of selecting an optimal combination for position / orientation measurement.

【符号の説明】[Explanation of symbols]

1…CPU 2…主メモリ,3…ROM 4…ディスプレイ・コントローラ 5…入力機器インターフェース 6…ネットワーク・インターフェース 7…外部機器インターフェース 8…バス,9…カメラ・インターフェース 11…ディスプレイ 12…キーボード,13…マウス 14…ハード・ディスク装置 15…メディア・ドライブ 101…測定対象物体 102…カメラ 103…3次元位置・姿勢計測装置 104a〜104h…マーカ 1 ... CPU 2 ... Main memory, 3 ... ROM 4 ... Display controller 5: Input device interface 6 ... Network interface 7 ... External device interface 8 ... Bus, 9 ... Camera interface 11 ... Display 12 ... Keyboard, 13 ... Mouse 14 ... Hard disk drive 15 ... Media drive 101 ... Object to be measured 102 ... camera 103 ... Three-dimensional position / orientation measuring device 104a to 104h ... Markers

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA04 AA37 BB05 BB29 FF04 JJ03 JJ26 QQ31 5B057 AA20 BA02 CA12 CB13 CD14 CH01 CH14 CH16 DA07 DA16   ─────────────────────────────────────────────────── ─── Continued front page    F term (reference) 2F065 AA04 AA37 BB05 BB29 FF04                       JJ03 JJ26 QQ31                 5B057 AA20 BA02 CA12 CB13 CD14                       CH01 CH14 CH16 DA07 DA16

Claims (22)

【特許請求の範囲】[Claims] 【請求項1】現実空間上の物体の空間的な位置及び姿勢
を推定する3次元位置・姿勢計測装置であって、 測定対象物体上には互いの位置関係が既知である複数の
光学的識別情報が配設されており、 測定対象物体を含んだ現実空間上のシーンを捕捉する画
像入力部と、 前記画像入力部による入力画像から光学的識別情報を抽
出する識別情報抽出部と、 前記識別情報抽出部により抽出された光学的識別情報の
状態に応じて測定対象物体の空間的位置及び姿勢を計算
するための方法を選択する位置・姿勢計算方法選択部
と、 前記位置・姿勢計算方法選択部により選択された方法に
従って、前記識別情報抽出部により抽出された光学的識
別情報を用いて測定対象物体の空間的位置及び姿勢を計
算する位置・姿勢計算部と、を具備することを特徴とす
る3次元位置・姿勢計測装置。
1. A three-dimensional position / orientation measuring apparatus for estimating a spatial position and orientation of an object in a physical space, wherein a plurality of optical identifications whose mutual positional relations are known on an object to be measured. Information is arranged, an image input unit that captures a scene in a real space including an object to be measured, an identification information extraction unit that extracts optical identification information from an image input by the image input unit, and the identification A position / orientation calculation method selection unit that selects a method for calculating the spatial position and orientation of the measurement target object according to the state of the optical identification information extracted by the information extraction unit, and the position / orientation calculation method selection A position / orientation calculation unit that calculates the spatial position and orientation of the object to be measured using the optical identification information extracted by the identification information extraction unit according to the method selected by the unit. That the three-dimensional position and orientation measurement device.
【請求項2】測定対象物体上には互いの位置関係が既知
である3個以上の光学的識別情報が配設されている、こ
とを特徴とする請求項1に記載の3次元位置・姿勢計測
装置。
2. The three-dimensional position / orientation according to claim 1, wherein three or more pieces of optical identification information whose positional relationship is known are arranged on the object to be measured. Measuring device.
【請求項3】測定対象物体上には互いの位置関係が既知
である4個以上の光学的識別情報が配設されており、平
行四辺形の4つの頂点となる光学的識別情報の組み合わ
せが少なくとも1つある、ことを特徴とする請求項1に
記載の3次元位置・姿勢計測装置。
3. An object to be measured is provided with four or more pieces of optical identification information whose positional relationship is known, and a combination of the optical identification information which forms the four vertices of a parallelogram. The three-dimensional position / orientation measuring device according to claim 1, wherein there is at least one.
【請求項4】立方体形状をなす測定対象物体の各頂点毎
に光学的識別情報が配設されている、ことを特徴とする
請求項1に記載の3次元位置・姿勢計測装置。
4. The three-dimensional position / orientation measuring apparatus according to claim 1, wherein the optical identification information is provided for each vertex of the measurement object having a cubic shape.
【請求項5】前記位置・姿勢計算方法選択部は、前記識
別情報抽出部により3個以上の光学的識別情報が抽出さ
れたことに応答して、空間的位置関係が既知である3点
の画像上の位置を基に対応する3次元位置及び姿勢を数
学的に算出する方法を選択する、ことを特徴とする請求
項1に記載の3次元位置・姿勢計測装置。
5. The position / orientation calculation method selection unit is responsive to three or more pieces of optical identification information extracted by the identification information extraction unit, and has three spatial positional relationships known. The three-dimensional position / orientation measuring apparatus according to claim 1, wherein a method for mathematically calculating the corresponding three-dimensional position and orientation is selected based on the position on the image.
【請求項6】前記位置・姿勢計算方法選択部は、入力画
像から抽出された3個の光学的識別情報によって構成さ
れる3角形の少なくとも1つの辺が前記画像入力部にお
ける投影平面と略平行である場合には、画像上の3点の
位置を基に対応する3次元位置及び姿勢を求める前記の
数学的算出方法以外を選択する、ことを特徴とする請求
項5に記載の3次元位置・姿勢計測装置。
6. The position / orientation calculation method selection unit is configured such that at least one side of a triangle formed by three pieces of optical identification information extracted from an input image is substantially parallel to a projection plane in the image input unit. If it is, a method other than the mathematical calculation method for obtaining the corresponding three-dimensional position and orientation based on the positions of three points on the image is selected, and the three-dimensional position according to claim 5. -Attitude measuring device.
【請求項7】前記位置・姿勢計算方法選択部は、前記識
別情報抽出部により平行四辺形の4つの頂点を構成する
光学的識別情報が抽出されたことに応答して、現実空間
上で既知の平行四辺形を構成する4つの点の画像上での
位置を基に対応する3次元位置及び姿勢を数学的に算出
する方法を選択する、ことを特徴とする請求項1に記載
の3次元位置・姿勢計測装置。
7. The position / orientation calculation method selection unit is known in the physical space in response to the optical identification information which forms the four vertices of the parallelogram being extracted by the identification information extraction unit. 3. The three-dimensional method according to claim 1, wherein a method for mathematically calculating a corresponding three-dimensional position and orientation is selected based on the positions of four points forming the parallelogram on the image. Position / orientation measuring device.
【請求項8】入力画像から平行四辺形の4つの頂点とな
る光学的識別情報の組み合わせが複数検出された場合に
は、信頼度が最大となる平行四辺形を選択して、その位
置・姿勢を計算する、ことを特徴とする請求項7に記載
の3次元位置・姿勢計測装置。
8. When a plurality of combinations of optical identification information which form four vertices of a parallelogram are detected from an input image, the parallelogram having the highest reliability is selected and its position / orientation is selected. The three-dimensional position / orientation measuring apparatus according to claim 7, wherein
【請求項9】前記信頼度は2次元入力座標に写像された
ときの面積である、ことを特徴とする請求項8に記載の
3次元位置・姿勢計測装置。
9. The three-dimensional position / orientation measuring apparatus according to claim 8, wherein the reliability is an area when mapped to two-dimensional input coordinates.
【請求項10】前記位置・姿勢計算方法選択部は、前記
識別情報抽出部により抽出された光学的識別情報の状態
により測定対象物体の空間的位置及び姿勢を数学的に算
出することが好ましくないと判断された場合には、前記
画像入力部による前フレームにおける測定対象物体の位
置及び姿勢を初期値としてその3次元位置及び姿勢を推
定する方法を選択する、ことを特徴とする請求項1に記
載の3次元位置・姿勢計測装置。
10. It is not preferable that the position / orientation calculation method selection unit mathematically calculates the spatial position and orientation of the measurement target object based on the state of the optical identification information extracted by the identification information extraction unit. If it is determined that the method for estimating the three-dimensional position and orientation of the measurement target object in the previous frame by the image input unit as an initial value is selected, the method is selected. The described three-dimensional position / orientation measuring device.
【請求項11】現実空間上の物体の空間的な位置及び姿
勢を推定する3次元位置・姿勢計測方法であって、 測定対象物体上には互いの位置関係が既知である複数の
光学的識別情報が配設されており、 測定対象物体を含んだ現実空間上のシーンを捕捉する画
像入力ステップと、 前記画像入力ステップによる入力画像から光学的識別情
報を抽出する識別情報抽出ステップと、 前記識別情報抽出ステップにより抽出された光学的識別
情報の状態に応じて測定対象物体の空間的位置及び姿勢
を計算するための方法を選択する位置・姿勢計算方法選
択ステップと、 前記位置・姿勢計算方法選択ステップにより選択された
方法に従って、前記識別情報抽出部により抽出された光
学的識別情報を用いて測定対象物体の空間的位置及び姿
勢を計算する位置・姿勢計算ステップと、を具備するこ
とを特徴とする3次元位置・姿勢計測方法。
11. A three-dimensional position / orientation measuring method for estimating a spatial position and orientation of an object in a physical space, wherein a plurality of optical identifications whose positional relationships are known on an object to be measured. Information is arranged, an image input step of capturing a scene in a real space including an object to be measured, an identification information extraction step of extracting optical identification information from the input image by the image input step, and the identification A position / orientation calculation method selecting step for selecting a method for calculating the spatial position and orientation of the measurement target object according to the state of the optical identification information extracted by the information extraction step; and the position / orientation calculation method selection A position for calculating the spatial position and orientation of the measurement target object using the optical identification information extracted by the identification information extraction unit according to the method selected in step 3-dimensional position and orientation measuring method characterized by comprising an attitude calculation step.
【請求項12】測定対象物体上には互いの位置関係が既
知である3個以上の光学的識別情報が配設されている、
ことを特徴とする請求項11に記載の3次元位置・姿勢
計測方法。
12. Three or more pieces of optical identification information whose positional relationship is known are arranged on the object to be measured.
The three-dimensional position / orientation measuring method according to claim 11, wherein.
【請求項13】測定対象物体上には互いの位置関係が既
知である4個以上の光学的識別情報が配設されており、
平行四辺形の4つの頂点となる光学的識別情報の組み合
わせが少なくとも1つある、ことを特徴とする請求項1
1に記載の3次元位置・姿勢計測方法。
13. Four or more pieces of optical identification information whose positional relationships are known are arranged on the object to be measured,
2. There is at least one combination of optical identification information that forms four vertices of a parallelogram.
The three-dimensional position / orientation measuring method described in 1.
【請求項14】立方体形状をなす測定対象物体の各頂点
毎に光学的識別情報が配設されている、ことを特徴とす
る請求項11に記載の3次元位置・姿勢計測方法。
14. The three-dimensional position / orientation measuring method according to claim 11, wherein the optical identification information is provided for each vertex of the measurement target object having a cubic shape.
【請求項15】前記位置・姿勢計算方法選択ステップで
は、前記識別情報抽出部により3個以上の光学的識別情
報が抽出されたことに応答して、空間的位置関係が既知
である3点の画像上の位置を基に対応する3次元位置及
び姿勢を数学的に算出する方法を選択する、ことを特徴
とする請求項11に記載の3次元位置・姿勢計測方法。
15. In the position / orientation calculation method selecting step, in response to the three or more pieces of optical identification information being extracted by the identification information extracting section, three spatial positional relationships are known. The three-dimensional position / orientation measuring method according to claim 11, wherein a method for mathematically calculating the corresponding three-dimensional position and orientation based on the position on the image is selected.
【請求項16】前記位置・姿勢計算方法選択ステップで
は、入力画像から抽出された3個の光学的識別情報によ
って構成される3角形の少なくとも1つの辺が前記画像
入力ステップにおける投影平面と略平行である場合に
は、画像上の3点の位置を基に対応する3次元位置及び
姿勢を求める前記の数学的算出方法以外を選択する、こ
とを特徴とする請求項15に記載の3次元位置・姿勢計
測方法。
16. In the position / orientation calculation method selection step, at least one side of a triangle formed by three pieces of optical identification information extracted from the input image is substantially parallel to the projection plane in the image input step. 16. In the case of, the three-dimensional position according to claim 15, wherein a method other than the mathematical calculation method for obtaining the corresponding three-dimensional position and orientation based on the positions of three points on the image is selected. -Attitude measurement method.
【請求項17】前記位置・姿勢計算方法選択ステップで
は、前記識別情報抽出ステップにより平行四辺形の4つ
の頂点を構成する光学的識別情報が抽出されたことに応
答して、現実空間上で既知の平行四辺形を構成する4つ
の点の画像上での位置を基に対応する3次元位置及び姿
勢を数学的に算出する方法を選択する、ことを特徴とす
る請求項11に記載の3次元位置・姿勢計測方法。
17. The position / orientation calculation method selecting step is known in real space in response to the optical identification information forming the four vertices of the parallelogram being extracted in the identification information extracting step. 12. The three-dimensional according to claim 11, wherein a method for mathematically calculating the corresponding three-dimensional position and orientation is selected based on the positions of the four points forming the parallelogram on the image. Position / orientation measurement method.
【請求項18】入力画像から平行四辺形の4つの頂点と
なる光学的識別情報の組み合わせが複数検出された場合
には、信頼度が最大となる平行四辺形を選択して、その
位置・姿勢を計算する、ことを特徴とする請求項17に
記載の3次元位置・姿勢計測方法。
18. When a plurality of combinations of optical identification information which form four vertices of a parallelogram are detected from an input image, the parallelogram having the highest reliability is selected and its position / orientation is selected. The three-dimensional position / orientation measuring method according to claim 17, wherein
【請求項19】前記信頼度は2次元入力画像に写像され
たときの面積である、ことを特徴とする請求項18に記
載の3次元位置・姿勢計測方法。
19. The three-dimensional position / orientation measuring method according to claim 18, wherein the reliability is an area when it is mapped to a two-dimensional input image.
【請求項20】前記位置・姿勢計算方法選択ステップで
は、前記識別情報抽出ステップにより抽出された光学的
識別情報の状態により測定対象物体の空間的位置及び姿
勢を数学的に算出することが好ましくないと判断された
場合には、前記画像入力ステップによる前フレームにお
ける測定対象物体の位置及び姿勢を初期値としてその3
次元位置及び姿勢を推定する方法を選択する、ことを特
徴とする請求項11に記載の3次元位置・姿勢計測方
法。
20. In the position / orientation calculation method selection step, it is not preferable to mathematically calculate the spatial position and orientation of the measurement target object based on the state of the optical identification information extracted in the identification information extraction step. If it is determined that the position and orientation of the measurement target object in the previous frame by the image input step are set to initial values,
The three-dimensional position / orientation measuring method according to claim 11, wherein a method for estimating a dimensional position and orientation is selected.
【請求項21】現実空間上の物体の空間的な位置及び姿
勢を推定するための処理をコンピュータ・システム上で
実行するように記述されたコンピュータ・ソフトウェア
をコンピュータ可読形式で物理的に格納した記憶媒体で
あって、前記コンピュータ・ソフトウェアは、 測定対象物体上には互いの位置関係が既知である複数の
光学的識別情報が配設されており、 測定対象物体を含んだ現実空間上のシーンを捕捉する画
像入力ステップと、 前記画像入力ステップによる入力画像から光学的識別情
報を抽出する識別情報抽出ステップと、 前記識別情報抽出ステップにより抽出された光学的識別
情報の状態に応じて測定対象物体の空間的位置及び姿勢
を計算するための方法を選択する位置・姿勢計算方法選
択ステップと、 前記位置・姿勢計算方法選択ステップにより選択された
方法に従って、前記識別情報抽出ステップにより抽出さ
れた光学的識別情報を用いて測定対象物体の空間的位置
及び姿勢を計算する位置・姿勢計算ステップと、を具備
することを特徴とする記憶媒体。
21. A memory in which computer software is physically stored in a computer-readable format so as to execute processing for estimating a spatial position and orientation of an object in a physical space on a computer system. As a medium, the computer software is provided with a plurality of optical identification information whose positional relationship is known on the object to be measured. An image input step of capturing, an identification information extraction step of extracting optical identification information from the input image by the image input step, and a measurement target object according to the state of the optical identification information extracted by the identification information extraction step A position / orientation calculation method selecting step for selecting a method for calculating a spatial position and orientation; According to the method selected in the selection step, a position / orientation calculation step of calculating a spatial position and orientation of the measurement target object using the optical identification information extracted in the identification information extraction step. Storage medium.
【請求項22】現実空間上の物体の空間的な位置及び姿
勢を推定するための処理をコンピュータ・システム上で
実行するように記述されたコンピュータ・プログラムで
あって、 測定対象物体上には互いの位置関係が既知である複数の
光学的識別情報が配設されており、 測定対象物体を含んだ現実空間上のシーンを捕捉する画
像入力ステップと、 前記画像入力ステップによる入力画像から光学的識別情
報を抽出する識別情報抽出ステップと、 前記識別情報抽出ステップにより抽出された光学的識別
情報の状態に応じて測定対象物体の空間的位置及び姿勢
を計算するための方法を選択する位置・姿勢計算方法選
択ステップと、 前記位置・姿勢計算方法選択ステップにより選択された
方法に従って、前記識別情報抽出ステップにより抽出さ
れた光学的識別情報を用いて測定対象物体の空間的位置
及び姿勢を計算する位置・姿勢計算ステップと、を具備
することを特徴とするコンピュータ・プログラム。
22. A computer program written to execute a process for estimating a spatial position and orientation of an object in a physical space on a computer system, wherein the objects to be measured are mutually reciprocal. A plurality of pieces of optical identification information whose positional relationship is known are provided, and an image input step of capturing a scene in a real space including an object to be measured, and an optical identification from the input image by the image input step. Identification information extraction step for extracting information, and position / orientation calculation for selecting a method for calculating the spatial position and orientation of the measurement target object according to the state of the optical identification information extracted by the identification information extraction step According to the method selection step and the method selected in the position / orientation calculation method selection step, extracted by the identification information extraction step. Computer program, characterized by comprising a position and orientation calculation step of calculating a spatial position and orientation of the measurement object by using a histological identification information.
JP2002057837A 2002-03-04 2002-03-04 Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program Pending JP2003254716A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002057837A JP2003254716A (en) 2002-03-04 2002-03-04 Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002057837A JP2003254716A (en) 2002-03-04 2002-03-04 Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program

Publications (1)

Publication Number Publication Date
JP2003254716A true JP2003254716A (en) 2003-09-10

Family

ID=28668009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002057837A Pending JP2003254716A (en) 2002-03-04 2002-03-04 Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program

Country Status (1)

Country Link
JP (1) JP2003254716A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005148851A (en) * 2003-11-11 2005-06-09 Sony Corp Robot device and method for learning its object
SG115546A1 (en) * 2003-06-23 2005-10-28 Affineon Technologies Pte Ltd Computer input device tracking six degrees of freedom
JP2006010610A (en) * 2004-06-29 2006-01-12 Tokyo Univ Of Science Monocular three-dimensional position measuring apparatus and method
JP2006033329A (en) * 2004-07-15 2006-02-02 Advanced Telecommunication Research Institute International Optical marker system
WO2006109829A1 (en) * 2005-04-12 2006-10-19 Pioneer Corporation Communication system, communication device and method, and computer program
JP2007127536A (en) * 2005-11-04 2007-05-24 Advanced Telecommunication Research Institute International Attitude detection system and light emitting device
JP2007132744A (en) * 2005-11-09 2007-05-31 Toshiba Tec Corp Position detection system
JP2007187524A (en) * 2006-01-12 2007-07-26 Shimadzu Corp Magnetic mapping device
WO2007105356A1 (en) 2006-03-14 2007-09-20 Sony Computer Entertainment Inc. Entertainment system
JP2007271564A (en) * 2006-03-31 2007-10-18 Canon Inc Position and orientation measurement method, position and orientation measurement device
WO2007116578A1 (en) 2006-04-11 2007-10-18 Sony Computer Entertainment Inc. Entertainment system and processor
JP2008064735A (en) * 2006-08-11 2008-03-21 Canon Inc Image processing method and image processing apparatus
JP2008116373A (en) * 2006-11-06 2008-05-22 Canon Inc Position and orientation measurement method and apparatus
JP2008134161A (en) * 2006-11-28 2008-06-12 Canon Inc Position and orientation measurement method, position and orientation measurement device
JP2009031206A (en) * 2007-07-30 2009-02-12 Nakagawa Kenkyusho:Kk Position measuring device
JP2011004077A (en) * 2009-06-17 2011-01-06 Sharp Corp System and method for detecting loudspeaker position
JP2012007942A (en) * 2010-06-23 2012-01-12 Fuji Xerox Co Ltd Position measurement device
JP2012509464A (en) * 2008-11-17 2012-04-19 ファロ テクノロジーズ インコーポレーテッド Six-degree-of-freedom measuring device and method
JP2012122848A (en) * 2010-12-08 2012-06-28 Bridgestone Corp Angle measuring apparatus, measuring method of angle, and program
JP2014071619A (en) * 2012-09-28 2014-04-21 Casio Comput Co Ltd Subject detection device, subject detection method, and program
JP2014145629A (en) * 2013-01-28 2014-08-14 Tohoku Electric Power Co Inc Underground radar system achieving three-dimensional display
KR20150028152A (en) * 2013-09-05 2015-03-13 엘지전자 주식회사 robot cleaner system and a control method of the same
KR20160022856A (en) * 2016-02-17 2016-03-02 엘지전자 주식회사 remote controller for a robot cleaner and a control method of the same
KR20160024898A (en) * 2016-02-17 2016-03-07 엘지전자 주식회사 remote controller for a robot cleaner and a control method of the same
KR20160047702A (en) * 2014-10-23 2016-05-03 이진용 Measuring method and system for 3-dimensional position of human body
CN106175615A (en) * 2012-10-26 2016-12-07 Lg电子株式会社 The control method of robot cleaner system and remote control equipment
JP2018506323A (en) * 2014-12-16 2018-03-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Pulsed light emission marker device
US10052004B2 (en) 2012-10-26 2018-08-21 Lg Electronics Inc. Robot cleaner system and control method of the same
CN108535734A (en) * 2018-04-12 2018-09-14 上海逸动医学科技有限公司 Optical positioning structure, optical positioning system and method
JP2020125935A (en) * 2019-02-01 2020-08-20 株式会社小野測器 Measurement system
JP2021109618A (en) * 2020-01-15 2021-08-02 住友重機械工業株式会社 Aircraft, 3D position / attitude measurement device, and 3D position / attitude measurement method

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG115546A1 (en) * 2003-06-23 2005-10-28 Affineon Technologies Pte Ltd Computer input device tracking six degrees of freedom
JP2005148851A (en) * 2003-11-11 2005-06-09 Sony Corp Robot device and method for learning its object
JP2006010610A (en) * 2004-06-29 2006-01-12 Tokyo Univ Of Science Monocular three-dimensional position measuring apparatus and method
JP2006033329A (en) * 2004-07-15 2006-02-02 Advanced Telecommunication Research Institute International Optical marker system
WO2006109829A1 (en) * 2005-04-12 2006-10-19 Pioneer Corporation Communication system, communication device and method, and computer program
JP2007127536A (en) * 2005-11-04 2007-05-24 Advanced Telecommunication Research Institute International Attitude detection system and light emitting device
JP2007132744A (en) * 2005-11-09 2007-05-31 Toshiba Tec Corp Position detection system
JP2007187524A (en) * 2006-01-12 2007-07-26 Shimadzu Corp Magnetic mapping device
WO2007105356A1 (en) 2006-03-14 2007-09-20 Sony Computer Entertainment Inc. Entertainment system
JP2007244534A (en) * 2006-03-14 2007-09-27 Sony Computer Entertainment Inc Entertainment system and game controller
US9084934B2 (en) 2006-03-14 2015-07-21 Sony Corporation Game controller with pulse width modulation position detection
US9566507B2 (en) 2006-03-14 2017-02-14 Sony Corporation Game controller using a plurality of light-emitting elements
US8292737B2 (en) 2006-03-14 2012-10-23 Sony Computer Entertainment Inc. Entertainment system
US8613665B2 (en) 2006-03-14 2013-12-24 Sony Corporation Game controller
JP2007271564A (en) * 2006-03-31 2007-10-18 Canon Inc Position and orientation measurement method, position and orientation measurement device
WO2007116578A1 (en) 2006-04-11 2007-10-18 Sony Computer Entertainment Inc. Entertainment system and processor
US8350805B2 (en) 2006-04-11 2013-01-08 Sony Computer Entertainment Inc. Entertainment system and processing apparatus
JP2008064735A (en) * 2006-08-11 2008-03-21 Canon Inc Image processing method and image processing apparatus
JP2008116373A (en) * 2006-11-06 2008-05-22 Canon Inc Position and orientation measurement method and apparatus
JP2008134161A (en) * 2006-11-28 2008-06-12 Canon Inc Position and orientation measurement method, position and orientation measurement device
JP2009031206A (en) * 2007-07-30 2009-02-12 Nakagawa Kenkyusho:Kk Position measuring device
JP2012509464A (en) * 2008-11-17 2012-04-19 ファロ テクノロジーズ インコーポレーテッド Six-degree-of-freedom measuring device and method
JP2011004077A (en) * 2009-06-17 2011-01-06 Sharp Corp System and method for detecting loudspeaker position
JP2012007942A (en) * 2010-06-23 2012-01-12 Fuji Xerox Co Ltd Position measurement device
US8462359B2 (en) 2010-06-23 2013-06-11 Fuji Xerox Co., Ltd. Position measuring device
JP2012122848A (en) * 2010-12-08 2012-06-28 Bridgestone Corp Angle measuring apparatus, measuring method of angle, and program
JP2014071619A (en) * 2012-09-28 2014-04-21 Casio Comput Co Ltd Subject detection device, subject detection method, and program
US10327617B2 (en) 2012-10-26 2019-06-25 Lg Electronics Inc. Robot cleaner system and control method of the same
US10058224B2 (en) 2012-10-26 2018-08-28 Lg Electronics Inc. Robot cleaner system and control method of the same
CN106175615A (en) * 2012-10-26 2016-12-07 Lg电子株式会社 The control method of robot cleaner system and remote control equipment
US10052004B2 (en) 2012-10-26 2018-08-21 Lg Electronics Inc. Robot cleaner system and control method of the same
JP2014145629A (en) * 2013-01-28 2014-08-14 Tohoku Electric Power Co Inc Underground radar system achieving three-dimensional display
CN104423797B (en) * 2013-09-05 2018-03-30 Lg电子株式会社 Robot cleaner system and its control method
KR20150028152A (en) * 2013-09-05 2015-03-13 엘지전자 주식회사 robot cleaner system and a control method of the same
KR101966127B1 (en) 2013-09-05 2019-04-05 엘지전자 주식회사 robot cleaner system and a control method of the same
CN104423797A (en) * 2013-09-05 2015-03-18 Lg电子株式会社 Robot cleaner system and control method thereof
KR101653052B1 (en) * 2014-10-23 2016-09-09 이진용 Measuring method and system for 3-dimensional position of human body
KR20160047702A (en) * 2014-10-23 2016-05-03 이진용 Measuring method and system for 3-dimensional position of human body
JP2018506323A (en) * 2014-12-16 2018-03-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Pulsed light emission marker device
US11129691B2 (en) 2014-12-16 2021-09-28 Koninklijke Philips N.V. Pulsed-light emitting marker device
KR20160024898A (en) * 2016-02-17 2016-03-07 엘지전자 주식회사 remote controller for a robot cleaner and a control method of the same
KR20160022856A (en) * 2016-02-17 2016-03-02 엘지전자 주식회사 remote controller for a robot cleaner and a control method of the same
KR102118055B1 (en) 2016-02-17 2020-06-02 엘지전자 주식회사 remote controller for a robot cleaner and a control method of the same
KR102118054B1 (en) 2016-02-17 2020-06-02 엘지전자 주식회사 remote controller for a robot cleaner and a control method of the same
CN108535734A (en) * 2018-04-12 2018-09-14 上海逸动医学科技有限公司 Optical positioning structure, optical positioning system and method
CN108535734B (en) * 2018-04-12 2024-02-09 上海逸动医学科技有限公司 Optical positioning structure, optical positioning system and method
JP2020125935A (en) * 2019-02-01 2020-08-20 株式会社小野測器 Measurement system
JP7229034B2 (en) 2019-02-01 2023-02-27 株式会社小野測器 measurement system
JP2021109618A (en) * 2020-01-15 2021-08-02 住友重機械工業株式会社 Aircraft, 3D position / attitude measurement device, and 3D position / attitude measurement method
JP7440272B2 (en) 2020-01-15 2024-02-28 住友重機械工業株式会社 Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method

Similar Documents

Publication Publication Date Title
JP2003254716A (en) Instrument and method for measuring three-dimensional position and posture, storage medium, and computer program
JP4032776B2 (en) Mixed reality display apparatus and method, storage medium, and computer program
Rohs Real-world interaction with camera phones
CN107782322B (en) Indoor positioning method and system and indoor map establishing device thereof
Raskar et al. RFIG lamps: interacting with a self-describing world via photosensing wireless tags and projectors
JP2020509506A (en) Method, apparatus, device, and storage medium for determining camera posture information
JP5436559B2 (en) Image annotation on portable devices
Paucher et al. Location-based augmented reality on mobile phones
JP5471626B2 (en) Information processing apparatus, map update method, program, and information processing system
JP4701479B2 (en) Link information display device and display method thereof
JP2008505374A (en) Wireless search and identification system and method
JP2011107893A (en) Information processor, information processing method, program, and information processing system
JP2019125227A (en) Indoor positioning method and system, and device for generating indoor map
CN106291517A (en) Indoor cloud robot angle positioning method based on position and visual information optimization
US9875546B1 (en) Computer vision techniques for generating and comparing three-dimensional point clouds
JP2005250950A (en) Marker-presenting portable terminal, augmented reality system, and operation method thereof
CN111323024A (en) Positioning method and device, equipment and storage medium
JP4739004B2 (en) Information processing apparatus and information processing method
JP2003323239A (en) Information processor, information processing method, recording medium, and computer program
TWM580186U (en) 360 degree surround orientation and position sensing object information acquisition system
La Delfa et al. Computer vision based indoor navigation: a visual markers evaluation
Sun et al. High-accuracy three-dimensional measurement based on multi-directional cooperative target with weighted SfM algorithm
JP4288904B2 (en) Data communication system, data transmission apparatus and method, and data reception apparatus and method
JP2009134677A (en) Gesture interface system, wand for gesture input, application control method, camera calibration method, and control program
JP2009134677A6 (en) Gesture interface system, gesture input wand, application control method, camera calibration method, and control program