[go: up one dir, main page]

JP2014095557A - Motion tracker device - Google Patents

Motion tracker device Download PDF

Info

Publication number
JP2014095557A
JP2014095557A JP2012245401A JP2012245401A JP2014095557A JP 2014095557 A JP2014095557 A JP 2014095557A JP 2012245401 A JP2012245401 A JP 2012245401A JP 2012245401 A JP2012245401 A JP 2012245401A JP 2014095557 A JP2014095557 A JP 2014095557A
Authority
JP
Japan
Prior art keywords
time
coordinate system
reference information
angle
respect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012245401A
Other languages
Japanese (ja)
Inventor
Kazuo Tawada
一穂 多和田
Masakazu Okamoto
正和 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2012245401A priority Critical patent/JP2014095557A/en
Publication of JP2014095557A publication Critical patent/JP2014095557A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】 カメラ座標系に対する対象物の角度を高精度で算出することができるモーショントラッカ装置を提供する。
【解決手段】 カメラ座標系に対する各光学マーカー7のそれぞれの実測位置を算出する実測位置算出部24と、カメラ座標系に対する各光学マーカー7のそれぞれの基準位置を示す基準情報を記憶するための記憶部42と、角度算出部27とを備えるモーショントラッカ装置1であって、時間t(n−1)から時間tまでの角速度及び時間tの実測位置に基づいて、時間t(n−1)における各光学マーカー7のそれぞれの真位置を算出する真位置算出部25と、基準情報を時間t(n−1)の真位置を用いて変更する更新部26とを備え、角度算出部27は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における基準座標系に対する対象物10の角度を算出する。
【選択図】図1
PROBLEM TO BE SOLVED: To provide a motion tracker device capable of calculating an angle of an object with respect to a camera coordinate system with high accuracy.
An actual measurement position calculation unit for calculating an actual measurement position of each optical marker with respect to a camera coordinate system, and a memory for storing reference information indicating a reference position of each optical marker with respect to the camera coordinate system. and parts 42, a motion tracker device 1 and a angle calculator 27, based on the measured positions of the angular velocity and the time t n from the time t (n-1) to time t n, the time t (n-1 ) Includes a true position calculation unit 25 that calculates the true position of each optical marker 7, and an update unit 26 that changes the reference information using the true position at time t (n−1). Calculates the angle of the object 10 with respect to the reference coordinate system at time t (n + 1) based on the actually measured position at time t (n + 1) and the updated reference information.
[Selection] Figure 1

Description

本発明は、カメラ装置に設定されたカメラ座標系に対する対象物の現在角度を測定するモーショントラッカ装置(以下、MT装置ともいう)に関する。本発明は、例えば、ゲーム機や乗物等の移動体で用いられる頭部装着型表示装置付ヘルメットの現在角度(すなわち、現在の頭部角度)を測定するヘッドモーショントラッカ装置(以下、HMT装置ともいう)等に利用される。   The present invention relates to a motion tracker device (hereinafter also referred to as an MT device) that measures a current angle of an object with respect to a camera coordinate system set in a camera device. The present invention relates to a head motion tracker device (hereinafter also referred to as an HMT device) that measures the current angle (that is, the current head angle) of a helmet with a head-mounted display device used in a moving body such as a game machine or a vehicle. Etc.).

時々刻々と変動する物体の現在角度を正確に測定する技術は、様々な分野で利用されている。例えば、ゲーム機ではバーチャルリアリティ(VR)を実現するために、頭部装着型表示装置付ヘルメットを用いることにより映像を表示することがなされている。このとき、頭部装着型表示装置付ヘルメットの現在角度に合わせて、映像を変化させる必要があり、この頭部装着型表示装置付ヘルメットの現在角度を測定するために、HMT装置が利用されている。   Techniques for accurately measuring the current angle of an object that changes from moment to moment are used in various fields. For example, in a game machine, in order to realize virtual reality (VR), an image is displayed by using a helmet with a head-mounted display device. At this time, it is necessary to change the image according to the current angle of the helmet with a head-mounted display device, and an HMT device is used to measure the current angle of the helmet with a head-mounted display device. Yes.

また、救難飛行艇(飛行体)による救難活動では、発見した救難目標を見失わないようにするため、頭部装着型表示装置付ヘルメットにより表示される照準画像と救難目標とが対応したときにロックすることによって、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体の緯度、経度、高度、姿勢に加えて、飛行体に設定された座標系に対するパイロットの頭部の現在角度を測定する必要があり、これにHMT装置が利用されている。   Also, in the rescue operation by the rescue flying boat (aircraft), it is locked when the aiming image displayed by the helmet with a head mounted display device corresponds to the rescue target so as not to lose sight of the discovered rescue target. By doing so, the position of the locked rescue target is calculated. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude, and attitude of the flying object, it is necessary to measure the current angle of the pilot's head with respect to the coordinate system set for the flying object For this, an HMT apparatus is used.

このようなHMT装置として、光学マーカー群として複数の発光体を頭部装着型表示装置付ヘルメットの外周面上に取り付け、発光体からの光をカメラ装置でモニタする光学方式のものが開示されている(例えば、特許文献1参照)。具体的には、頭部装着型表示装置付ヘルメットの外周面上に、光学マーカー群として、LED(発光ダイオード)を互いに離隔するようにして3箇所に取り付け、頭部装着型表示装置付ヘルメットにおけるこれら3個のLEDの相対的な位置(基準位置)Cbを、設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて予め記憶させておく。そして、これら3個のLEDを、立体視が可能でかつ設置場所が固定された2台のカメラ(カメラ装置)で同時に撮影することで、所謂、三角測量の原理により、現在の3個のLEDの位置(実測位置)Coを算出する。カメラ装置で頭部装着型表示装置付ヘルメットに固定された3点の位置(3個のLEDの位置)Coが特定できれば、記憶された設計情報Cbを参照することにより、頭部装着型表示装置付ヘルメットがどのくらい回転したかを特定でき、その結果、頭部装着型表示装置付ヘルメットの現在角度を算出している。   As such an HMT device, there is disclosed an optical type device in which a plurality of light emitters are attached as an optical marker group on the outer peripheral surface of a helmet with a head-mounted display device, and light from the light emitter is monitored by a camera device. (For example, refer to Patent Document 1). Specifically, on the outer peripheral surface of the head-mounted display device-equipped helmet, as an optical marker group, LEDs (light-emitting diodes) are attached to three locations so as to be separated from each other. The relative positions (reference positions) Cb of these three LEDs are stored in advance using design information (design drawings of a helmet with a head-mounted display device). These three LEDs are photographed simultaneously by two cameras (camera devices) that can be viewed stereoscopically and have a fixed installation location, so that the current three LEDs can be obtained according to the so-called triangulation principle. Position (actually measured position) Co is calculated. If three positions (positions of three LEDs) Co fixed to the helmet with a head-mounted display device can be identified by the camera device, the head-mounted display device can be obtained by referring to the stored design information Cb. It is possible to specify how much the attached helmet has rotated, and as a result, the current angle of the helmet with a head-mounted display device is calculated.

特開2006−284442号公報JP 2006-284442 A

しかしながら、光学マーカーとしてLEDを使用した場合、初期情報として設計情報を記憶させることには問題があった。ここで、図6は、一般的なLEDの概略構成を示す断面図である。LED50は、半導体部51と、反射板52と、レンズ53とを有する。図6に示すように、LEDの外形形状から求めた中心と、実際にLEDが発光している中心(LEDの物理的発光中心)とに、製造の際に生じた差異が存在することがあり、LEDの外形形状から求めた中心(設計情報)Cbを記憶させても、測定誤差が生じることがあった。また、頭部装着型表示装置付ヘルメットをパイロットが装着するときに、頭部装着型表示装置付ヘルメットの顎紐を締め付けることにより頭部に固定するが、その際に頭部装着型表示装置付ヘルメットが変形するともに、LEDも変形することもあった。さらに、LEDを長期に渡り使用していると、経年変質や劣化が生じることもあった。
そこで、本発明は、カメラ座標系に対する対象物の角度を高精度で算出することができるモーショントラッカ装置を提供することを目的とする。
However, when an LED is used as an optical marker, there is a problem in storing design information as initial information. Here, FIG. 6 is a cross-sectional view showing a schematic configuration of a general LED. The LED 50 includes a semiconductor unit 51, a reflection plate 52, and a lens 53. As shown in FIG. 6, there may be a difference produced during manufacture between the center obtained from the outer shape of the LED and the center where the LED actually emits light (physical light emission center of the LED). Even if the center (design information) Cb obtained from the outer shape of the LED is stored, a measurement error may occur. Also, when a pilot wears a helmet with a head-mounted display device, it is fixed to the head by tightening the chin strap of the helmet with a head-mounted display device. While the helmet deformed, the LED sometimes deformed. Furthermore, when the LED is used for a long period of time, deterioration with time and deterioration may occur.
Accordingly, an object of the present invention is to provide a motion tracker device that can calculate the angle of an object with respect to a camera coordinate system with high accuracy.

上記課題を解決するためになされた本発明のモーショントラッカ装置は、対象物に取り付けられた3個以上の光学マーカーからなる光学マーカー群と、カメラ座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、検出された光線に基づいて、前記カメラ座標系に対する各光学マーカーのそれぞれの実測位置を算出する実測位置算出部と、前記カメラ座標系に対する各光学マーカーのそれぞれの基準位置を示す基準情報を記憶するための記憶部と、時間tの実測位置及び基準情報に基づいて、時間tにおける前記カメラ座標系に対する対象物の角度を算出する角度算出部とを備えるモーショントラッカ装置であって、時間t(n−1)から時間tまでに前記対象物に作用した角速度を検出する角速度センサと、時間t(n−1)から時間tまでの角速度及び時間tの実測位置に基づいて、時間t(n−1)における各光学マーカーのそれぞれの真位置を算出する真位置算出部と、基準情報を時間t(n−1)の真位置を用いて変更する更新部とを備え、前記角度算出部は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における前記カメラ座標系に対する対象物の角度を算出することを特徴としている。 In order to solve the above problems, the motion tracker device of the present invention includes an optical marker group composed of three or more optical markers attached to an object, a camera coordinate system, and a light beam from the optical marker. A camera device that detects in stereoscopic view, an actual position calculation unit that calculates an actual position of each optical marker with respect to the camera coordinate system based on the detected light beam, and each optical marker with respect to the camera coordinate system A storage unit for storing reference information indicating a reference position, and an angle calculation unit for calculating an angle of the object with respect to the camera coordinate system at time t n based on the actually measured position at time t n and the reference information. A motion tracker device that detects an angular velocity acting on the object from time t (n-1) to time t n. And Sa, based on the measured positions of the angular velocity and the time t n from the time t (n-1) to time t n, the true position calculation for calculating the respective true position of each optical marker in the time t (n-1) And an update unit that changes the reference information using the true position at time t (n−1) , and the angle calculation unit is based on the measured position at time t (n + 1) and the updated reference information. The angle of the object with respect to the camera coordinate system at time t (n + 1) is calculated.

ここで、「角速度センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする角速度を検出できるもののことをいい、例えば、ジャイロセンサ等が用いられる。なお、ジャイロセンサは、一般的に短時間では高い精度を確保することができるが、長時間では高い精度を確保することはできない。そこで、本発明では、基準情報を更新するため(キャリブレーション)に用いられることになる。
また、「カメラ座標系に対する対象物の角度」とは、ロール方向(カメラ座標系のX軸に対する回転)の角度RLと、エレベーション方向(カメラ座標系のY軸に対する回転)の角度ELと、アジマス方向(カメラ座標系のZ軸に対する回転)の角度AZとのことをいう。
Here, the “angular velocity sensor” means a sensor having three axes defined in the sensor itself and capable of detecting an angular velocity with reference to the three axes. For example, a gyro sensor or the like is used. A gyro sensor can generally ensure high accuracy in a short time, but cannot ensure high accuracy in a long time. Therefore, in the present invention, the reference information is used for updating (calibration).
The “angle of the object relative to the camera coordinate system” means an angle RL in the roll direction (rotation of the camera coordinate system with respect to the X axis), an angle EL in the elevation direction (rotation of the camera coordinate system with respect to the Y axis), and The angle AZ in the azimuth direction (rotation with respect to the Z axis of the camera coordinate system).

本発明のMT装置によれば、3個以上の光学マーカーが対象物に取り付けられている。そして、カメラ座標系に対する3個以上の光学マーカーの基準位置Cbを示す基準情報を、設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて記憶させる。このとき、この基準情報Cbには、光学マーカーの外形形状から求めた中心と、実際に光学マーカーが発光している中心とに、製造時に生じた差異が存在したり、ヘルメットの顎紐等を締め付ける際にヘルメットが変形したりするため、誤差が生じる。   According to the MT apparatus of the present invention, three or more optical markers are attached to the object. Then, the reference information indicating the reference positions Cb of the three or more optical markers with respect to the camera coordinate system is stored using design information (such as a design drawing of a helmet with a head-mounted display device). At this time, in the reference information Cb, there is a difference that occurs at the time of manufacture between the center obtained from the outer shape of the optical marker and the center where the optical marker actually emits light. An error occurs because the helmet deforms when tightening.

そして、カメラ座標系に対する対象物の現在角度を測定する際には、まず、カメラ装置が、時間tにおいて、光学マーカーからの光線を立体視で検出する。実測位置算出部は、検出された光線に基づいて、時間tにおけるカメラ座標系に対する光学マーカーの位置(実測位置)Coを算出する。角度算出部は、時間tの実測位置Co及び基準情報Cbに基づいて、時間tにおけるカメラ座標系に対する対象物の角度を算出する。このとき、上述したように基準情報Cbは誤差が生じたものとなっているので、基準情報Cbのキャリブレーションを実行するため、角速度センサは、測定開始時間tから時間tまでに対象物に作用した角速度を検出する。真位置算出部は、測定開始時間tから時間tまでの角速度と時間tの実測位置Coとに基づいて、測定開始時間tにおける光学マーカーの位置(真位置)Cgを算出する。そして、記憶させた基準情報Cbを、測定開始時間tの真位置Cgを用いて新たな基準情報Cbに変更する。このとき、この新たな基準情報Cbでは、光学マーカーの外形形状から求めた中心と、実際に光学マーカーが発光している中心とに、製造の際に生じた差異が存在したり、ヘルメットの顎紐等を締め付ける際にヘルメットが変形したりすることによる誤差はないものとなる。 Then, when measuring the current angle of the object relative to the camera coordinate system, first, the camera apparatus, at time t 1, detects the light beam from the optical markers stereoscopic. The actual measurement position calculation unit calculates the position (measurement position) Co 1 of the optical marker with respect to the camera coordinate system at time t 1 based on the detected light beam. The angle calculation unit calculates the angle of the object with respect to the camera coordinate system at time t 1 based on the measured position Co 1 at time t 1 and the reference information Cb. At this time, since the reference information Cb as described above has assumed that the error has occurred, for performing calibration of the reference information Cb, the angular velocity sensor is subject to the measurement start time t 0 to time t 1 Detect the angular velocity acting on the. The true position calculation unit calculates the position (true position) Cg 0 of the optical marker at the measurement start time t 0 based on the angular velocity from the measurement start time t 0 to the time t 1 and the measured position Co 1 at the time t 1. To do. Then, the stored reference information Cb is changed to new reference information Cb 0 using the true position Cg 0 at the measurement start time t 0 . At this time, in the new reference information Cb 0 , there is a difference that occurred during the manufacture between the center obtained from the outer shape of the optical marker and the center where the optical marker actually emits light, There is no error due to deformation of the helmet when tightening the chin strap or the like.

次に、カメラ装置が、時間tにおいて、光学マーカーからの光線を立体視で検出する。実測位置算出部は、検出された光線に基づいて、時間tにおけるカメラ座標系に対する光学マーカーの位置(実測位置)Coを算出する。角度算出部は、時間tの実測位置Co及び新たな基準情報Cbに基づいて、時間tにおけるカメラ座標系に対する対象物の角度を算出する。このとき、この基準情報Cbは、光学マーカーに経年変質や劣化が生じるため、誤差が生じたものとなっているので、基準情報Cbのキャリブレーションを実行するため、角速度センサは、時間tから時間tまでに対象物に作用した角速度を検出する。真位置算出部は、時間tから時間tまでの角速度と時間tの実測位置Coとに基づいて、時間tにおける光学マーカーの位置(真位置)Cgを算出する。そして、記憶させた基準情報Cbを、時間tの真位置Cgを用いて新たな初期情報Cbに変更する。このとき、この新たな基準情報Cbでは、時間tまでに生じた光学マーカーの経年変質や劣化による誤差はないものとなる。 Next, the camera apparatus, at time t 2, detects the light beam from the optical markers stereoscopic. The actual measurement position calculation unit calculates the position (measurement position) Co 2 of the optical marker with respect to the camera coordinate system at time t 2 based on the detected light beam. The angle calculation unit calculates the angle of the object with respect to the camera coordinate system at time t 2 based on the actual measurement position Co 2 at time t 2 and the new reference information Cb 0 . At this time, since the reference information Cb 0 has an error because the optical marker is deteriorated or deteriorated over time, the calibration of the reference information Cb 0 is performed. detecting an angular velocity acting on the object from 1 to time t 2. The true position calculation unit calculates the position (true position) Cg 1 of the optical marker at time t 1 based on the angular velocity from time t 1 to time t 2 and the measured position Co 2 at time t 2 . Then, the stored reference information Cb 0 is changed to new initial information Cb 1 using the true position Cg 1 at time t 1 . At this time, with this new reference information Cb 1 , there is no error due to aging or deterioration of the optical marker that has occurred until time t 1 .

次に、カメラ装置が、時間tにおいて、光学マーカーからの光線を立体視で検出する。実測位置算出部は、検出された光線に基づいて、時間tにおけるカメラ座標系に対する光学マーカーの位置(実測位置)Coを算出する。角度算出部は、時間tの実測位置Co及び新たな基準情報Cbに基づいて、時間tにおけるカメラ座標系に対する対象物の角度を算出する。このとき、この基準情報Cbは、時間tから時間tまでの間に光学マーカーに経年変質や劣化が生じるため、誤差が生じたものとなっているので、基準情報Cbのキャリブレーションを実行するため、角速度センサは、時間tから時間tまでに対象物に作用した角速度を検出する。真位置算出部は、時間tから時間tまでの角速度と時間tの実測位置Coとに基づいて、時間tにおける光学マーカーの位置(真位置)Cgを算出する。そして、記憶させた基準情報Cbを、時間tの真位置Cgを用いて新たな基準情報Cbに変更する。このとき、この新たな基準情報Cbでは、時間tまでに生じた光学マーカーの経年変質や劣化による誤差はないものとなる。 Next, the camera device detects the light beam from the optical marker by stereoscopic vision at time t 3 . The actual measurement position calculation unit calculates the position (measurement position) Co 3 of the optical marker with respect to the camera coordinate system at time t 3 based on the detected light beam. Angle calculation unit based on the measured positions Co 3 and new reference information Cb 1 time t 3, and calculates the angle of the object relative to the camera coordinate system at time t 3. At this time, the reference information Cb 1 has an error because the optical marker has deteriorated or deteriorated over time from the time t 1 to the time t 3, so that the calibration of the reference information Cb 1 is performed. Therefore, the angular velocity sensor detects the angular velocity acting on the object from time t 2 to time t 3 . The true position calculation unit calculates the position (true position) Cg 2 of the optical marker at time t 2 based on the angular velocity from time t 2 to time t 3 and the measured position Co 3 at time t 3 . Then, the stored reference information Cb 1 is changed to new reference information Cb 2 using the true position Cg 2 at time t 2 . At this time, the new reference information Cb 2 has no error due to deterioration or deterioration of the optical marker that has occurred until time t 2 .

以上のように、本発明のMT装置によれば、基準情報を、時間t(n−1)の真位置Cg(n−1)を用いて変更していく。つまり、基準情報のキャリブレーションをリアルタイムで実行する。これにより、角度算出部は、精度よく、カメラ座標系に対する対象物の角度を算出することができる。 As described above, according to the MT apparatus of the present invention, the reference information is changed using the true position Cg (n−1) at time t (n−1) . That is, the calibration of the reference information is executed in real time. Thereby, the angle calculation part can calculate the angle of the target object with respect to the camera coordinate system with high accuracy.

(他の課題を解決するための手段および効果)
また、本発明のモーショントラッカ装置は、対象物に取り付けられた3個以上の光学マーカーからなる光学マーカー群と、カメラ座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、検出された光線に基づいて、前記カメラ座標系に対する各光学マーカーのそれぞれの実測位置を算出する実測位置算出部と、前記カメラ座標系に対する各光学マーカーのそれぞれの基準位置を示す基準情報を記憶するための記憶部と、時間tの実測位置及び基準情報に基づいて、時間tにおける前記カメラ座標系に対する対象物の角度を算出する角度算出部とを備えるモーショントラッカ装置であって、時間t(n−1)から時間tまでに前記対象物に作用した加速度を検出する加速度センサと、時間t(n−1)から時間tまでの加速度及び時間tの実測位置に基づいて、時間t(n−1)における各光学マーカーのそれぞれの真位置を算出する真位置算出部と、基準情報を時間t(n−1)の真位置を用いて変更する更新部とを備え、前記角度算出部は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における前記カメラ座標系に対する対象物の角度を算出することを特徴としている。
(Means and effects for solving other problems)
The motion tracker device of the present invention is a camera device in which an optical marker group composed of three or more optical markers attached to an object and a camera coordinate system are set, and light rays from the optical marker are detected in a stereoscopic view. And an actual measurement position calculation unit for calculating an actual measurement position of each optical marker with respect to the camera coordinate system based on the detected light beam, and reference information indicating a reference position of each optical marker with respect to the camera coordinate system. a storage unit for storing, based on the measured position and the reference information of the time t n, a motion tracker device and a angle calculator that calculates an angle of the object relative to the camera coordinate system at time t n, an acceleration sensor for detecting an acceleration applied from the time t (n-1) on the object until the time t n, or time t (n-1) Based on the measured positions of the acceleration and the time t n to time t n, the true position calculation unit for calculating a respective true position of each optical marker in the time t (n-1), the reference information time t (n- 1) , and the angle calculator is configured to change the camera coordinate system at time t (n + 1) based on the actually measured position at time t (n + 1) and the updated reference information. It is characterized in that the angle of the object with respect to is calculated.

ここで、「加速度センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする3軸方向の加速度を検出できるもののことをいい、例えば、加速度センサ等が用いられる。なお、加速度センサは、一般的に短時間では高い精度を確保することができるが、長時間では高い精度を確保することはできない。そこで、本発明では、基準情報を更新するため(キャリブレーション)に用いられることになる。
また、「カメラ座標系に対する対象物の角度」とは、ロール方向(カメラ座標系のX軸に対する回転)の角度RLと、エレベーション方向(カメラ座標系のY軸に対する回転)の角度ELと、アジマス方向(カメラ座標系のZ軸に対する回転)の角度AZとのことをいう。
Here, the “acceleration sensor” means a sensor in which three axes are defined in the sensor itself, and acceleration in a triaxial direction with reference to the three axes can be detected. For example, an acceleration sensor or the like is used. An acceleration sensor can generally ensure high accuracy in a short time, but cannot ensure high accuracy in a long time. Therefore, in the present invention, the reference information is used for updating (calibration).
The “angle of the object relative to the camera coordinate system” means an angle RL in the roll direction (rotation of the camera coordinate system with respect to the X axis), an angle EL in the elevation direction (rotation of the camera coordinate system with respect to the Y axis), and The angle AZ in the azimuth direction (rotation with respect to the Z axis of the camera coordinate system).

以上のように、本発明のMT装置によれば、基準情報を、時間t(n−1)の真位置Cg(n−1)を用いて変更していく。つまり、基準情報のキャリブレーションをリアルタイムで実行する。これにより、角度算出部は、精度よく、カメラ座標系に対する対象物の角度を算出することができる。 As described above, according to the MT apparatus of the present invention, the reference information is changed using the true position Cg (n−1) at time t (n−1) . That is, the calibration of the reference information is executed in real time. Thereby, the angle calculation part can calculate the angle of the target object with respect to the camera coordinate system with high accuracy.

上記発明において、前記対象物は、装着者の頭部に装着されるヘルメットであり、前記光学マーカーは、発光ダイオードであるようにしてもよい。   In the above invention, the object may be a helmet worn on a wearer's head, and the optical marker may be a light emitting diode.

本発明の一実施形態であるHMT装置の概略構成を示す図。The figure which shows schematic structure of the HMT apparatus which is one Embodiment of this invention. 図1に示す頭部装着型表示装置付ヘルメットの斜視図。The perspective view of the helmet with a head-mounted display apparatus shown in FIG. カメラ座標系(XYZ座標系)の設定を説明する図。The figure explaining the setting of a camera coordinate system (XYZ coordinate system). 頭部装着型表示装置付ヘルメットの移動動作を説明する図。The figure explaining the movement operation | movement of the helmet with a head mounting | wearing type display apparatus. HMT装置による測定動作を説明するフローチャート。The flowchart explaining the measurement operation | movement by an HMT apparatus. 一般的なLEDの概略構成を示す断面図。Sectional drawing which shows schematic structure of general LED.

以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれる。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the embodiments described below, and includes various modes without departing from the spirit of the present invention.

図1は、本発明の一実施形態であるHMT装置の概略構成を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメットの斜視図である。また、図3は、カメラ座標系(XYZ座標系)の設定を説明するための図である。本実施形態は、搭乗体30に搭乗するパイロットPが着用する頭部装着型表示装置付ヘルメット10の現在角度を算出するものである。つまり、HMT装置1は、搭乗体30に設定されたカメラ座標系(XYZ座標系)に対する、パイロットPが着用する頭部装着型表示装置付ヘルメット10に設定されたヘルメット座標系(X’Y’Z’座標系)の角度(RL、EL、AZ)を所定の時間間隔Δtoで算出していく。なお、カメラ座標系(XYZ座標系)は、後述するカメラ装置31を基準とするものであり、カメラ座標系記憶部43に予め記憶され、一方、ヘルメット座標系(X’Y’Z’座標系)は、設計情報(頭部装着型表示装置付ヘルメットの設計図等)が用いられてヘルメット座標系記憶部44に記憶されることになる。
HMT装置1は、パイロットPの頭部に装着される頭部装着型表示装置付ヘルメット10と、搭乗体30に取り付けられたカメラ装置31と、コンピュータにより構成される制御部20とから構成される。
FIG. 1 is a diagram showing a schematic configuration of an HMT device according to an embodiment of the present invention, and FIG. 2 is a perspective view of the helmet with a head-mounted display device shown in FIG. FIG. 3 is a diagram for explaining setting of the camera coordinate system (XYZ coordinate system). In the present embodiment, the current angle of the helmet 10 with a head mounted display device worn by the pilot P who rides on the vehicle 30 is calculated. That is, the HMT device 1 has a helmet coordinate system (X′Y ′) set in the helmet 10 with a head mounted display device worn by the pilot P with respect to the camera coordinate system (XYZ coordinate system) set in the vehicle 30. The angle (RL n , EL n , AZ n ) of the Z ′ coordinate system) is calculated at a predetermined time interval Δto. The camera coordinate system (XYZ coordinate system) is based on a camera device 31 described later, and is stored in advance in the camera coordinate system storage unit 43, while the helmet coordinate system (X'Y'Z 'coordinate system). ) Is stored in the helmet coordinate system storage unit 44 using design information (such as a design drawing of a helmet with a head-mounted display device).
The HMT device 1 includes a helmet 10 with a head-mounted display device that is mounted on the head of the pilot P, a camera device 31 that is mounted on the vehicle body 30, and a control unit 20 that includes a computer. .

頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することによりパイロットPの目に導くコンバイナ8と、LED(光学マーカー)群7と、3軸ジャイロセンサ(角速度センサ)9と、顎紐6とを有する。なお、頭部装着型表示装置付ヘルメット10を装着したパイロットPは、表示器による表示画像とコンバイナ8の前方実在物とを視認することが可能となっている。
LED群7は、互いに異なる波長の赤外光を発光する3個のLED7a、7b、7cが互いに離隔するようにして取り付けられたものである。
The helmet 10 with a head-mounted display device includes a display (not shown), a combiner 8 that guides the eyes of the pilot P by reflecting image display light emitted from the display, and an LED (optical marker) group. 7, a three-axis gyro sensor (angular velocity sensor) 9, and a chin strap 6. Note that the pilot P wearing the helmet 10 with a head-mounted display device can visually recognize the display image by the display and the front actual thing of the combiner 8.
The LED group 7 includes three LEDs 7a, 7b, and 7c that emit infrared light having different wavelengths and are separated from each other.

ここで、ヘルメット座標系(X’Y’Z’座標系)は、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図2に示すように、原点をLED7aの位置とし、前方方向をX’軸方向とし、前方方向に垂直となる方向をY’軸方向とし、X’軸方向及びY’軸方向に垂直となる方向をZ’軸方向とするように、設計情報(頭部装着型表示装置付ヘルメットの設計図等)によりヘルメット座標系記憶部44に記憶される。また、ヘルメット座標系(X’Y’Z’座標系)上での3個のLED7a、7b、7cの位置も、設計情報(頭部装着型表示装置付ヘルメットの設計図等)によりヘルメット座標系記憶部44に記憶される。   Here, the helmet coordinate system (X′Y′Z ′ coordinate system) can arbitrarily determine the origin and the direction of each coordinate axis. In this embodiment, as shown in FIG. 2, the origin is the position of the LED 7a. Design information so that the forward direction is the X′-axis direction, the direction perpendicular to the forward direction is the Y′-axis direction, and the direction perpendicular to the X′-axis direction and the Y′-axis direction is the Z′-axis direction. The information is stored in the helmet coordinate system storage unit 44 according to (a design drawing of a helmet with a head-mounted display device). Further, the positions of the three LEDs 7a, 7b, 7c on the helmet coordinate system (X'Y'Z 'coordinate system) are also determined based on the design information (design drawing of the helmet with a head-mounted display device). It is stored in the storage unit 44.

そして、頭部装着型表示装置付ヘルメット10は、パイロットPに装着される際において、まず第一(測定開始時間t)に、カメラ座標系(XYZ座標系)上の所定位置(例えば、XYZ座標系とX’Y’Z’座標系とが一致する位置)にパイロットPの頭部を配置するよう指示を発し、初期状態(基準情報)として、カメラ座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の角度(RL、EL、AZ)が基準角度(0、0、0)となるようにされている。このとき、各LED7a、7b、7cはそれぞれの基準位置Cbに配置されることになり、原点をLED7aの位置とし、LED7aとLED7bとLED7cとで形成された平面に垂直となる方向となる基準ベクトルV(Cb)も基準方向に配置されることになる。図4(a)は、初期状態の頭部装着型表示装置付ヘルメット10を示す斜視図である。 When the helmet 10 with a head-mounted display device is attached to the pilot P, first, at a first (measurement start time t 0 ), a predetermined position (for example, XYZ) on the camera coordinate system (XYZ coordinate system). The pilot P is instructed to place the head of the pilot P at a position where the coordinate system and the X′Y′Z ′ coordinate system coincide with each other, and helmet coordinates relative to the camera coordinate system (XYZ coordinate system) as an initial state (reference information) The angle (RL 0 , EL 0 , AZ 0 ) of the system (X′Y′Z ′ coordinate system) is set to the reference angle (0, 0 , 0 ). At this time, the LEDs 7a, 7b, and 7c are arranged at the respective reference positions Cb, and the reference vector is the direction perpendicular to the plane formed by the LEDs 7a, 7b, and 7c with the origin as the position of the LED 7a. V (Cb) is also arranged in the reference direction. FIG. 4A is a perspective view showing the helmet 10 with a head-mounted display device in an initial state.

3軸ジャイロセンサ9は、頭部装着型表示装置付ヘルメット10に作用する角速度を検出するものである。また、3軸ジャイロセンサ9は、ヘルメット座標系(X’Y’Z’座標系)に軸を合わせるようにして、頭部装着型表示装置付ヘルメット10に取り付けられている。よって、ロール方向(X’軸に対する回転)、エレベーション方向(Y’軸に対する回転)、アジマス方向(Z’軸に対する回転)における角速度(ω’RL、ω’EL、ω’AZ)が検出される。
なお、3軸ジャイロセンサ9は、ヘルメット座標系(X’Y’Z’座標系)の原点に取り付けられてもよく、ヘルメット座標系(X’Y’Z’座標系)の原点以外の位置に取り付けられた場合には、ヘルメット座標系(X’Y’Z’座標系)の原点の位置での角速度(ω’RL、ω’EL、ω’AZ)を求めるためにオフセット行列M0を乗算したりする一般的な計算方法等で変換されることになる。
The three-axis gyro sensor 9 detects an angular velocity acting on the head mounted helmet 10 with a display device. The triaxial gyro sensor 9 is attached to the helmet 10 with a head-mounted display device so that the axis is aligned with the helmet coordinate system (X′Y′Z ′ coordinate system). Therefore, angular velocities (ω ′ RL , ω ′ EL , ω ′ AZ ) in the roll direction (rotation with respect to the X ′ axis), the elevation direction (rotation with respect to the Y ′ axis), and the azimuth direction (rotation with respect to the Z ′ axis) are detected. The
The three-axis gyro sensor 9 may be attached to the origin of the helmet coordinate system (X′Y′Z ′ coordinate system) or at a position other than the origin of the helmet coordinate system (X′Y′Z ′ coordinate system). when attached multiplies the offset matrix M0 in order to determine the helmet coordinate system 'angular velocity at the position of the origin of the (coordinate system (ω X'Y'Z)' RL, ω 'EL, ω' AZ) It is converted by a general calculation method or the like.

搭乗体30は、パイロットPが搭乗するコックピットであり、パイロットPが着席する座席32と、カメラ装置31とを備える。
カメラ装置31は、第一カメラ31aと第二カメラ31bとからなり、撮影方向が頭部装着型表示装置付ヘルメット10に向けられているとともに、頭部装着型表示装置付ヘルメット10の立体視が可能な一定の距離dを隔てるように、搭乗体30の天井に固定軸31cを介して設置されている。これにより、第一カメラ31aで撮影された第一画像が作成されるとともに、第二カメラ31bで撮影された第二画像が作成される。
そして、第一画像及び第二画像中に映し出されているLED7a、7b、7cの位置により、第一カメラ31aからの方向角度αと第二カメラ31bからの方向角度βとを算出し、第一カメラ31aと第二カメラ32bとの間の距離dを用いることにより、所謂、三角測量の手法で、カメラ装置31に対するLED7a、7b、7cの位置を算出できるようになっている(図3参照)。
The vehicle body 30 is a cockpit on which the pilot P is boarded, and includes a seat 32 on which the pilot P is seated and a camera device 31.
The camera device 31 includes a first camera 31a and a second camera 31b. The shooting direction is directed to the helmet 10 with a head-mounted display device, and stereoscopic viewing of the helmet 10 with a head-mounted display device is possible. It is installed on the ceiling of the vehicle body 30 via a fixed shaft 31c so as to be separated by a possible constant distance d. As a result, a first image photographed by the first camera 31a is created, and a second image photographed by the second camera 31b is created.
Then, the direction angle α from the first camera 31a and the direction angle β from the second camera 31b are calculated from the positions of the LEDs 7a, 7b, and 7c displayed in the first image and the second image, and the first By using the distance d between the camera 31a and the second camera 32b, the positions of the LEDs 7a, 7b, and 7c with respect to the camera device 31 can be calculated by a so-called triangulation method (see FIG. 3). .

このとき、LED7a、7b、7cの位置を空間座標で表現できるようにするために、カメラ装置31に設定されたカメラ座標系(XYZ座標系)を用いる。カメラ座標系(XYZ座標系)は、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図3に示すように、第二カメラ31bから第一カメラ31aへの方向をX軸方向とし、X軸方向に垂直かつ左向きとなる方向をY軸方向とし、X軸方向に垂直かつ天井に垂直で上向きとなる方向をZ軸方向とするように定義し、原点を第一カメラ31aと第二カメラ31bとの中点として定義するようにカメラ座標系記憶部43に予め設定されている。   At this time, a camera coordinate system (XYZ coordinate system) set in the camera device 31 is used so that the positions of the LEDs 7a, 7b, and 7c can be expressed in spatial coordinates. The camera coordinate system (XYZ coordinate system) can arbitrarily determine the origin and the direction of each coordinate axis. In this embodiment, as shown in FIG. 3, the direction from the second camera 31b to the first camera 31a is set to X. The axis direction is defined as the Y-axis direction that is perpendicular to the X-axis direction and leftward, and the Z-axis direction is defined as the direction that is perpendicular to the X-axis direction, perpendicular to the ceiling, and upward. It is preset in the camera coordinate system storage unit 43 so as to be defined as a midpoint between 31a and the second camera 31b.

これにより、時間tでのカメラ座標系(XYZ座標系)上の3個のLED7a、7b、7cの実測位置Cを算出し、原点をLED7aの位置とし、LED7aとLED7bとLED7cとで形成された平面に垂直となる方向となる実測ベクトルV(C)を算出することができる。図4(b)は、時間t(n−1)の頭部装着型表示装置付ヘルメット10を示す斜視図であり、図4(c)は、時間tの頭部装着型表示装置付ヘルメット10を示す斜視図である。そして、基準ベクトルV(Cb)や実測ベクトルV(C(n−1))から実測ベクトルV(C)がどのくらい回転したかを算出することで、頭部装着型表示装置付ヘルメット10の現在角度(RL、EL、AZ)を算出するようになっている。 Thus, three LED 7a on the camera coordinate system at time t n (XYZ coordinate system), 7b, to calculate the actual position C n of 7c, the origin and location of the LED 7a, formed by the LED 7a and LED7b and LED7c An actual measurement vector V (C n ) in a direction perpendicular to the measured plane can be calculated. FIG. 4B is a perspective view showing the helmet 10 with a head-mounted display device at time t (n−1) , and FIG. 4C shows the helmet with a head-mounted display device at time t n . FIG. Then, by calculating how much the measured vector V (C n ) has been rotated from the reference vector V (Cb) and the measured vector V (C (n−1) ), the current state of the helmet 10 with the head mounted display device is calculated. The angles (RL n , EL n , AZ n ) are calculated.

制御部20は、CPU21やメモリ40等からなるコンピュータにより構成され、各種の制御や演算処理を行う。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、画像取得部28と、角速度取得部23と、実測位置算出部24と、真位置算出部25と、更新部26と、角度算出部27と、ヘルメット座標系記憶制御部22とを有する。また、メモリ40は、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、カメラ座標系(XYZ座標系)を予め記憶するカメラ座標系記憶部43と、ヘルメット座標系(X’Y’Z’座標系)を記憶するためのヘルメット座標系記憶部44と、基準情報Cbを記憶するための基準情報記憶部42とを有する。 The control unit 20 is configured by a computer including a CPU 21, a memory 40, and the like, and performs various controls and arithmetic processes. Processing executed by the CPU 21 will be described separately for each functional block. An image acquisition unit 28, an angular velocity acquisition unit 23, an actual position calculation unit 24, a true position calculation unit 25, an update unit 26, and an angle calculation unit. 27 and a helmet coordinate system storage control unit 22. The memory 40 is formed with an area for storing various data necessary for the control unit 20 to execute processing, and a camera coordinate system storage unit 43 that stores a camera coordinate system (XYZ coordinate system) in advance. , A helmet coordinate system storage unit 44 for storing a helmet coordinate system (X′Y′Z ′ coordinate system) and a reference information storage unit 42 for storing reference information Cb n .

ヘルメット座標系記憶制御部22は、操作者の入力操作によってヘルメット座標系記憶部44にヘルメット座標系(X’Y’Z’座標系)を記憶させる制御を行う。具体的には、操作者は設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて入力操作することにより、ヘルメット座標系(X’Y’Z’座標系)をヘルメット座標系記憶部44に記憶させるとともに、ヘルメット座標系(X’Y’Z’座標系)上での3個のLED7a、7b、7cの位置についても、設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて入力操作することにより、ヘルメット座標系記憶部44に記憶させる。
そして、ヘルメット座標系記憶制御部22は、測定開始時間tには、カメラ座標系(XYZ座標系)上の所定位置にパイロットPの頭部を配置するように指示する。その結果、初期状態(基準情報)Cbとして、カメラ座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の角度(RL、EL、AZ)が基準角度(0、0、0)となり、設計情報(頭部装着型表示装置付ヘルメットの設計図等)から算出することで、各LED7a、7b、7cはそれぞれの基準位置Cbに配置されることとし、基準ベクトルV(Cb)も基準方向に配置されることとする(図4(a)参照)。
The helmet coordinate system storage control unit 22 performs control to store the helmet coordinate system (X′Y′Z ′ coordinate system) in the helmet coordinate system storage unit 44 by an input operation of the operator. Specifically, the operator performs an input operation using design information (such as a design drawing of a helmet with a head-mounted display device), thereby changing the helmet coordinate system (X'Y'Z 'coordinate system) to the helmet coordinate system. The information is stored in the storage unit 44, and the design information (design of the helmet with a head-mounted display device) is also provided for the positions of the three LEDs 7a, 7b, and 7c on the helmet coordinate system (X'Y'Z 'coordinate system). The helmet coordinate system storage unit 44 stores it by performing an input operation using a diagram or the like.
The helmet coordinate system memory control unit 22, the measurement starting time t 0, an instruction to place the head of the pilot P to a predetermined position on the camera coordinate system (XYZ coordinate system). As a result, as the initial state (reference information) Cb, the angle (RL 0 , EL 0 , AZ 0 ) of the helmet coordinate system (X′Y′Z ′ coordinate system) with respect to the camera coordinate system (XYZ coordinate system) is the reference angle ( 0, 0, 0), and by calculating from design information (design drawings of a helmet with a head-mounted display device, etc.), the LEDs 7a, 7b, 7c are arranged at the respective reference positions Cb. The vector V (Cb) is also arranged in the reference direction (see FIG. 4A).

画像取得部28は、LED群7を点灯する指令信号を出力するとともに、カメラ装置31でLED群7を撮影することにより、第一画像及び第二画像を所定の時間間隔Δtoで取得していく制御を行う。
角速度取得部23は、3軸ジャイロセンサ9から角速度(ω’RL、ω’EL、ω’AZ)を所定の時間間隔Δtgで取得する制御を行う。
The image acquisition unit 28 outputs a command signal for turning on the LED group 7, and acquires the first image and the second image at a predetermined time interval Δto by photographing the LED group 7 with the camera device 31. Take control.
The angular velocity acquisition unit 23 performs control to acquire angular velocities (ω ′ RL , ω ′ EL , ω ′ AZ ) from the three-axis gyro sensor 9 at a predetermined time interval Δtg.

実測位置算出部24は、時間tの第一画像と時間tの第二画像とに基づいて、カメラ座標系(XYZ座標系)に対する、LED群7のそれぞれの実測位置Cnを算出し、実測ベクトルV(C)を算出する制御を行う。具体的には、時間tの第一画像と時間tの第二画像中に映し出されているLED7a、7b、7cの位置により、第一カメラ31aからの方向角度αと第二カメラ31bからの方向角度βとを算出し、第一カメラ31aと第二カメラ32bとの間の距離dを用いることにより、三角測量の手法で、時間tにおけるLED7a、7b、7cの実測位置Cを算出する。そして、時間tにおけるLED7a、7b、7cの実測位置Cから、時間tにおける実測ベクトルV(C)を算出する(図4(c)参照)。 Measured position calculation unit 24, based on the second image of the first image and the time t n of the time t n, calculating the camera coordinate system with respect to the (XYZ coordinate system), each measured position Cn of the LED group 7, Control is performed to calculate the measured vector V (C n ). Specifically, LED 7a that are displayed in a second image of the first image and the time t n of the time t n, 7b, the position of 7c, the direction angle α and the second camera 31b from the first camera 31a Is calculated, and the distance d between the first camera 31a and the second camera 32b is used to determine the measured position C n of the LEDs 7a, 7b, 7c at time t n by the triangulation method. calculate. Then, LED 7a at time t n, 7b, from the measured position C n of 7c, and calculates the measured vector V (C n) at time t n (see FIG. 4 (c)).

角度算出部27は、実測位置算出部24で算出された実測ベクトルV(C)と、基準情報記憶部42に記憶された基準情報Cb(n−2)とに基づいて、時間tにおけるヘルメット座標系(X’Y’Z’座標系)の角度(RL、EL、AZ)を算出する制御を行う。具体的には、詳細は後述するが、基準情報記憶部42から最新の基準情報Cb(n−2)を呼び出す。つまり、LED7a、7b、7cの基準位置Cb(n−2)を呼び出すとともに、基準ベクトルV(Cb(n−2))を呼び出す。そして、基準ベクトルV(Cb(n−2))から実測ベクトルV(C)がどのくらい回転したかを算出する。これにより、時間t(n−2)における頭部装着型表示装置付ヘルメット10の角度(RL(n−2)、EL(n−2)、AZ(n−2))からどのくらい回転したかを算出し、時間tでの頭部装着型表示装置付ヘルメット10の角度(RL、EL、AZ)を算出する。なお、時間tでのヘルメット座標系(X’Y’Z’座標系)の角度(RL、EL、AZ)を算出する際には、基準情報Cb−1は存在しないため、設計情報を用いて記憶された基準位置Cbを用いることになる。 Based on the measured vector V (C n ) calculated by the measured position calculating unit 24 and the reference information Cb (n−2) stored in the reference information storage unit 42, the angle calculating unit 27 at time t n . angle of the helmet coordinate system (X'Y'Z 'coordinate system) (RL n, EL n, AZ n) the control of calculating the conduct. Specifically, although the details will be described later, the latest reference information Cb (n−2) is called from the reference information storage unit 42. That is, the reference position Cb (n-2) of the LEDs 7a, 7b, and 7c is called and the reference vector V (Cb (n-2) ) is called. Then, how much the measured vector V (C n ) is rotated is calculated from the reference vector V (Cb (n−2) ). Thereby, how much it rotated from the angle (RL (n-2) , EL (n-2) , AZ (n-2) ) of the helmet 10 with a head mounted display apparatus in time t (n-2) . calculated, to calculate the angle of the head-mounted display device with the helmet 10 at time t n (RL n, EL n , AZ n) a. In addition, when calculating the angle (RL 1 , EL 1 , AZ 1 ) of the helmet coordinate system (X′Y′Z ′ coordinate system) at time t 1 , the reference information Cb −1 does not exist. The reference position Cb stored using the information is used.

真位置算出部25は、時間t(n−1)から時間tまでの角速度(ω’RL、ω’EL、ω’AZ)と、実測位置算出部24で算出された実測ベクトルV(C)とに基づいて、時間t(n−1)におけるLED群7のそれぞれの真位置Cg(n−1)を算出する制御を行う。具体的には、時間t(n−1)から時間tまでの角速度(ω’RL、ω’EL、ω’AZ)を積分することにより、時間t(n−1)から時間tまでのヘルメット座標系(X’Y’Z’座標系)の角度移動量(ΔRL、ΔEL、ΔAZ)を算出する。次に、時間tにおける実測ベクトルV(C)を角度移動量(ΔRL、ΔEL、ΔAZ)分だけ戻すことにより、時間t(n−1)における真ベクトルV(Cg(n−1))を算出する。次に、時間t(n−1)における真ベクトルV(Cg)から、時間t(n−1)におけるLED7a、7b、7cの真位置Cg(n−1)を算出する(図4参照)。 The true position calculation unit 25 uses the angular velocities (ω ′ RL , ω ′ EL , ω ′ AZ ) from time t (n−1) to time t n and the actual measurement vector V (C n ), control is performed to calculate each true position Cg (n-1) of the LED group 7 at time t (n-1) . Specifically, the time t (n-1) from to time t n angular velocity (ω 'RL, ω' EL , ω 'AZ) by integrating the, from to time t n time t (n-1) The angle movement amount (ΔRL, ΔEL, ΔAZ) of the helmet coordinate system (X′Y′Z ′ coordinate system) is calculated. Next, the true vector V (Cg (n−1) ) at time t (n−1) is returned by returning the measured vector V (C n ) at time t n by the amount of angular movement (ΔRL, ΔEL, ΔAZ). Is calculated. Then, from the true vector V (Cg n) at time t (n-1), calculates LED 7a, 7b, true position Cg of 7c the (n-1) at time t (n-1) (see FIG. 4) .

更新部26は、基準情報記憶部42に記憶された基準情報Cb(n−2)を、時間t(n−1)の真位置Cg(n−1)を用いて新たな基準情報Cb(n−1)に変更する制御を行う。具体的には、ヘルメット座標系(X’Y’Z’座標系)の角度(RL(n−1)、EL(n−1)、AZ(n−1))のときには、LED7a、7b、7cは真位置Cg(n−1)に存在したとするように、基準情報Cb(n−1)として基準情報記憶部42に記憶させる。つまり、時間t(n−1)には、LED7a、7b、7cは実測位置C(n−1)に存在するとして、ヘルメット座標系(X’Y’Z’座標系)の角度(RL(n−1)、EL(n−1)、AZ(n−1))は算出されたが、実際にはLED7a、7b、7cは真位置Cg(n−1)に存在したとするようにキャリブレーションする。 The updating unit 26 uses the true position Cg (n−1) at the time t (n−1) as the new reference information Cb (n −1) from the reference information Cb (n−2) stored in the reference information storage unit 42. Control to change to -1) is performed. Specifically, when the angle (RL (n-1) , EL (n-1) , AZ (n-1) ) of the helmet coordinate system (X'Y'Z 'coordinate system) is used, the LEDs 7a, 7b, 7c Is stored in the reference information storage unit 42 as reference information Cb (n-1) so as to exist at the true position Cg (n-1) . That is, at time t (n−1), it is assumed that the LEDs 7a, 7b, and 7c exist at the measured position C (n−1), and the angle (RL (n (n )) of the helmet coordinate system (X′Y′Z ′ coordinate system). -1) , EL (n-1) , AZ (n-1) ) were calculated, but calibration was performed so that the LEDs 7a, 7b, 7c were actually located at the true position Cg (n-1) . To do.

次に、HMT装置1により頭部装着型表示装置付ヘルメット10の角度(RL、EL、AZ)を測定する測定動作について説明する。図5は、HMT装置1による測定動作について説明するためのフローチャートである。
まず、ステップS101の処理において、操作者は設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて入力操作することにより、ヘルメット座標系記憶部44にヘルメット座標系(X’Y’Z’座標系)と、ヘルメット座標系(X’Y’Z’座標系)上での3個のLED7a、7b、7cの位置を記憶させる。
Next, the measurement operation for measuring the angles (RL n , EL n , AZ n ) of the helmet 10 with a head-mounted display device by the HMT device 1 will be described. FIG. 5 is a flowchart for explaining the measurement operation by the HMT apparatus 1.
First, in the process of step S101, the operator performs an input operation using design information (such as a design drawing of a helmet with a head-mounted display device), whereby the helmet coordinate system (X′Y 'Z' coordinate system) and the positions of the three LEDs 7a, 7b, 7c on the helmet coordinate system (X'Y'Z 'coordinate system) are stored.

次に、ステップS102の処理において、パイロットPは、頭部装着型表示装置付ヘルメット10を装着して、時間tを測定開始時間tとし、カメラ座標系(XYZ座標系)上の所定位置に頭部を配置する。
次に、ステップS103の処理において、時間tを時間t(n+1)とする。
Next, in the process of step S102, the pilot P is wearing the head-mounted display device with the helmet 10, the time t n and a measurement start time t 0, a predetermined position on the camera coordinate system (XYZ coordinate system) Place the head on.
Next, in the process of step S103, time t n is set to time t (n + 1) .

次に、ステップS104の処理において、画像取得部28は、LED群7を点灯する指令信号を出力するとともに、カメラ装置31でLED群7を撮影することにより、時間tの第一画像及び時間tの第二画像を取得する。
次に、ステップS105の処理において、角速度取得部23は、3軸ジャイロセンサ9から時間t(n−1)から時間tまでの角速度(ω’RL、ω’EL、ω’AZ)を取得する。
Next, in the process of step S104, the image acquisition unit 28 outputs the command signal for lighting the LED group 7, by taking LED group 7 by the camera device 31, the first image and the time of time t n A second image of t n is acquired.
Next, in the process of step S105, the angular velocity acquisition unit 23 acquires the angular velocities (ω ′ RL , ω ′ EL , ω ′ AZ ) from the time t (n−1) to the time t n from the three-axis gyro sensor 9. To do.

次に、ステップS106の処理において、実測位置算出部24は、時間tの第一画像及び時間tの第二画像に基づいて、カメラ座標系(XYZ座標系)に対する、LED7a、7b、7cの実測位置Cを算出し、実測ベクトルV(C)を算出する。
次に、ステップS107の処理において、角度算出部27は、基準情報記憶部42から最新の基準情報Cb(n−2)を呼び出す。つまり、LED7a、7b、7cの基準位置Cb(n−2)を呼び出すとともに、基準ベクトルV(Cb(n−2))を呼び出す。なお、時間tにおけるヘルメット座標系(X’Y’Z’座標系)の角度(RL、EL、AZ)を算出する際には、基準情報Cb−1は存在しないため、基準位置Cbを用いることになる。
Next, in the process of step S106, the measured position calculating unit 24 on the basis of the second image of the first image and the time t n of the time t n, the camera coordinate system with respect to the (XYZ coordinate system), LED 7a, 7b, 7c and of calculating the measured position C n, to calculate the actual measurement vector V (C n).
Next, in the process of step S <b> 107, the angle calculation unit 27 calls the latest reference information Cb (n−2) from the reference information storage unit 42. That is, the reference position Cb (n-2) of the LEDs 7a, 7b, and 7c is called and the reference vector V (Cb (n-2) ) is called. When calculating the angle (RL 1 , EL 1 , AZ 1 ) of the helmet coordinate system (X′Y′Z ′ coordinate system) at time t 1 , since the reference information Cb −1 does not exist, the reference position Cb is used.

次に、ステップS108の処理において、角度算出部27は、基準ベクトルV(Cb(n−2))から実測ベクトルV(C)がどのくらい回転したかを算出し、時間t(n−2)での頭部装着型表示装置付ヘルメット10の角度(RL(n−2)、EL(n−2)、AZ(n−2))からどのくらい回転したかを算出し、頭部装着型表示装置付ヘルメットの角度(RL、EL、AZ)を算出する。
次に、ステップS109の処理において、真位置算出部25は、時間t(n−1)から時間tまでの角速度(ω’RL、ω’EL、ω’AZ)を積分することにより、時間t(n−1)から時間tまでのヘルメット座標系(X’Y’Z’座標系)の角度移動量(ΔRL、ΔEL、ΔAZ)を算出する。
Next, in the process of step S108, the angle calculation unit 27 calculates how much the measured vector V (C n ) has been rotated from the reference vector V (Cb (n−2) ), and time t (n−2). The amount of rotation from the angle (RL (n-2) , EL (n-2) , AZ (n-2) ) of the helmet 10 with a head-mounted display device is calculated, and the head-mounted display device The angle (RL n , EL n , AZ n ) of the attached helmet is calculated.
Next, in the processing of step S109, the true position calculation unit 25 integrates the angular velocities (ω ′ RL , ω ′ EL , ω ′ AZ ) from time t (n−1) to time t n , An angular movement amount (ΔRL, ΔEL, ΔAZ) of the helmet coordinate system (X′Y′Z ′ coordinate system ) from t (n−1) to time t n is calculated.

次に、ステップS110の処理において、真位置算出部25は、時間t(n−1)における真ベクトルV(Cg(n−1))を算出し、時間t(n−1)におけるLED7a、7b、7cの真位置Cg(n−1)を算出する。
次に、ステップS111の処理において、更新部26は、基準情報記憶部42に記憶された基準情報Cb(n−2)を、時間t(n−1)の真位置Cg(n−1)を用いて新たな基準情報Cb(n−1)に変更して記憶させる。
Next, in the process in step S110, the true position calculating section 25 calculates the true vector V (Cg (n-1) ) at time t (n-1), LED7a at time t (n-1), 7b 7c, the true position Cg (n-1) is calculated.
Next, in the process of step S111, the updating unit 26 uses the reference information Cb (n-2) stored in the reference information storage unit 42 as the true position Cg (n-1) at time t (n-1). It is changed to new reference information Cb (n-1) and stored.

次に、ステップS112の処理において、測定を終了するか否かを判定する。測定を終了すると判定したときには、本フローチャートを終了させる。一方、測定を終了しないと判定したときには、ステップS103の処理に戻る。つまり、測定を終了すると判定するときまで、ステップS103〜S111の処理は繰り返される。   Next, in the process of step S112, it is determined whether or not to end the measurement. When it is determined that the measurement is to be terminated, this flowchart is terminated. On the other hand, when it is determined not to end the measurement, the process returns to step S103. That is, the processes in steps S103 to S111 are repeated until it is determined that the measurement is to be ended.

以上のように、本発明のHMT装置1によれば、基準情報Cb(n−2)を、時間t(n−1)の真位置Cg(n−1)を用いて変更していく。つまり、基準情報Cbのキャリブレーションをリアルタイムで実行する。これにより、角度算出部27は、精度よく、カメラ座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の角度(RL、EL、AZ)を算出することができる。 As described above, according to the HMT device 1 of the present invention, the reference information Cb (n-2) is changed using the true position Cg (n-1) at time t (n-1) . That is, the calibration of the reference information Cb n is executed in real time. Thereby, the angle calculation unit 27 accurately calculates the angle (RL n , EL n , AZ n ) of the helmet coordinate system (X′Y′Z ′ coordinate system) with respect to the camera coordinate system (XYZ coordinate system). Can do.

<他の実施形態>
(1)上述したHMT装置1において、3軸ジャイロセンサ9が用いられる構成としたが、加速度センサが用いられるような構成としてもよい。なお、加速度センサからは、公知の計算方法が用いられて角度移動量(ΔRL、ΔEL、ΔAZ)が算出されることになる。
<Other embodiments>
(1) Although the three-axis gyro sensor 9 is used in the HMT device 1 described above, a configuration in which an acceleration sensor is used may be used. Note that the angular movement amounts (ΔRL, ΔEL, ΔAZ) are calculated from the acceleration sensor using a known calculation method.

(2)上述したHMT装置1において、LED群7は、互いに異なる波長の赤外光を発光する構成としたが、全てのLEDは、同一の波長の光を発光するようにして、例えば、各LEDをそれぞれ個別に追跡して区別する方法(例えば、前記特許文献1に記載のLED識別方法)を用いたり、各LEDの形状をそれぞれ変えたりして、互いを識別されるような構成としてもよい。また、LED群は、赤外光以外の光を発光するような構成としてもよい。 (2) In the HMT device 1 described above, the LED group 7 emits infrared light having different wavelengths. However, all the LEDs emit light having the same wavelength, for example, It is possible to identify each other by using a method of individually tracking and distinguishing LEDs (for example, the LED identification method described in Patent Document 1) or by changing the shape of each LED. Good. The LED group may be configured to emit light other than infrared light.

(3)上述したHMT装置1において、LED群7は、3個のLED7a、7b、7cが互いに離隔するようにして取り付けられた構成としたが、例えば10個のLEDが互いに離隔するようにして取り付けられたような構成としてもよい。 (3) In the HMT device 1 described above, the LED group 7 is configured such that the three LEDs 7a, 7b, 7c are separated from each other. For example, the ten LEDs are separated from each other. It is good also as a structure attached.

本発明は、搭乗体に設定されたカメラ座標系に対する搭乗員等の頭部角度を測定するためのヘッドモーショントラッカ装置等に利用することができる。   The present invention can be used for a head motion tracker device or the like for measuring a head angle of a crew member or the like with respect to a camera coordinate system set on a vehicle.

1 ヘッドモーショントラッカ(HMT)装置
7 LED(光学マーカー)
9 3軸ジャイロセンサ(角速度センサ)
10 頭部装着型表示装置付ヘルメット(対象物)
24 実測位置算出部
25 真位置算出部
26 更新部
27 角度算出部
31 カメラ装置
42 基準情報記憶部
1 Head Motion Tracker (HMT) 7 LED (Optical Marker)
9 3-axis gyro sensor (angular velocity sensor)
10 Helmet with head mounted display (object)
24 actual measurement position calculation unit 25 true position calculation unit 26 update unit 27 angle calculation unit 31 camera device 42 reference information storage unit

Claims (3)

対象物に取り付けられた3個以上の光学マーカーからなる光学マーカー群と、
カメラ座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、
検出された光線に基づいて、前記カメラ座標系に対する各光学マーカーのそれぞれの実測位置を算出する実測位置算出部と、
前記カメラ座標系に対する各光学マーカーのそれぞれの基準位置を示す基準情報を記憶するための記憶部と、
時間tの実測位置及び基準情報に基づいて、時間tにおける前記カメラ座標系に対する対象物の角度を算出する角度算出部とを備えるモーショントラッカ装置であって、
時間t(n−1)から時間tまでに前記対象物に作用した角速度を検出する角速度センサと、
時間t(n−1)から時間tまでの角速度及び時間tの実測位置に基づいて、時間t(n−1)における各光学マーカーのそれぞれの真位置を算出する真位置算出部と、
基準情報を時間t(n−1)の真位置を用いて変更する更新部とを備え、
前記角度算出部は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における前記カメラ座標系に対する対象物の角度を算出することを特徴とするモーショントラッカ装置。
An optical marker group composed of three or more optical markers attached to an object;
A camera device in which a camera coordinate system is set and detects the light beam from the optical marker in a stereoscopic view;
Based on the detected light beam, an actual position calculation unit that calculates an actual position of each optical marker with respect to the camera coordinate system;
A storage unit for storing reference information indicating a reference position of each optical marker with respect to the camera coordinate system;
A motion tracker device comprising: an angle calculation unit that calculates an angle of an object with respect to the camera coordinate system at time t n based on an actually measured position at time t n and reference information;
An angular velocity sensor for detecting an angular velocity acting on the object from time t (n−1) to time t n ;
Based on the measured positions of the angular velocity and the time t n from the time t (n-1) to time t n, each of the true position calculation unit for calculating the true position of each optical marker in the time t (n-1),
An update unit that changes the reference information using the true position at time t (n−1) ,
The angle calculation unit calculates an angle of the object with respect to the camera coordinate system at time t (n + 1) based on the actually measured position at time t (n + 1) and the updated reference information. .
対象物に取り付けられた3個以上の光学マーカーからなる光学マーカー群と、
カメラ座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、
検出された光線に基づいて、前記カメラ座標系に対する各光学マーカーのそれぞれの実測位置を算出する実測位置算出部と、
前記カメラ座標系に対する各光学マーカーのそれぞれの基準位置を示す基準情報を記憶するための記憶部と、
時間tの実測位置及び基準情報に基づいて、時間tにおける前記カメラ座標系に対する対象物の角度を算出する角度算出部とを備えるモーショントラッカ装置であって、
時間t(n−1)から時間tまでに前記対象物に作用した加速度を検出する加速度センサと、
時間t(n−1)から時間tまでの加速度及び時間tの実測位置に基づいて、時間t(n−1)における各光学マーカーのそれぞれの真位置を算出する真位置算出部と、
基準情報を時間t(n−1)の真位置を用いて変更する更新部とを備え、
前記角度算出部は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における前記カメラ座標系に対する対象物の角度を算出することを特徴とするモーショントラッカ装置。
An optical marker group composed of three or more optical markers attached to an object;
A camera device in which a camera coordinate system is set and detects the light beam from the optical marker in a stereoscopic view;
Based on the detected light beam, an actual position calculation unit that calculates an actual position of each optical marker with respect to the camera coordinate system;
A storage unit for storing reference information indicating a reference position of each optical marker with respect to the camera coordinate system;
A motion tracker device comprising: an angle calculation unit that calculates an angle of an object with respect to the camera coordinate system at time t n based on an actually measured position at time t n and reference information;
An acceleration sensor that detects acceleration acting on the object from time t (n−1) to time t n ;
Based on the measured positions of the acceleration and the time t n from the time t (n-1) to time t n, each of the true position calculation unit for calculating the true position of each optical marker in the time t (n-1),
An update unit that changes the reference information using the true position at time t (n−1) ,
The angle calculation unit calculates an angle of the object with respect to the camera coordinate system at time t (n + 1) based on the actually measured position at time t (n + 1) and the updated reference information. .
前記対象物は、装着者の頭部に装着されるヘルメットであり、
前記光学マーカーは、発光ダイオードであることを特徴とする請求項1又は請求項2に記載のモーショントラッカ装置。
The object is a helmet to be worn on a wearer's head,
The motion tracker device according to claim 1, wherein the optical marker is a light emitting diode.
JP2012245401A 2012-11-07 2012-11-07 Motion tracker device Pending JP2014095557A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012245401A JP2014095557A (en) 2012-11-07 2012-11-07 Motion tracker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012245401A JP2014095557A (en) 2012-11-07 2012-11-07 Motion tracker device

Publications (1)

Publication Number Publication Date
JP2014095557A true JP2014095557A (en) 2014-05-22

Family

ID=50938757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012245401A Pending JP2014095557A (en) 2012-11-07 2012-11-07 Motion tracker device

Country Status (1)

Country Link
JP (1) JP2014095557A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047236A (en) * 2018-09-19 2020-03-26 未來市股▲ふん▼有限公司 Tracking method and tracking system employing the same
CN112697074A (en) * 2020-12-10 2021-04-23 易思维(天津)科技有限公司 Dynamic object angle measuring instrument and measuring method
WO2021254014A1 (en) * 2020-06-17 2021-12-23 Oppo广东移动通信有限公司 Display calibration method, apparatus, device, and storage medium
US20230133168A1 (en) * 2021-10-31 2023-05-04 Hongfujin Precision Electrons (Yantai) Co., Ltd. Method for identifying human postures and gestures for interaction purposes and portable hand-held device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059204A (en) * 2006-08-30 2008-03-13 Shimadzu Corp Head motion tracker device
JP2008065416A (en) * 2006-09-05 2008-03-21 Shimadzu Corp Head motion tracker device
JP2008289645A (en) * 2007-05-24 2008-12-04 Shimadzu Corp Motion tracker device
JP2009085805A (en) * 2007-10-01 2009-04-23 Shimadzu Corp Motion tracker device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059204A (en) * 2006-08-30 2008-03-13 Shimadzu Corp Head motion tracker device
JP2008065416A (en) * 2006-09-05 2008-03-21 Shimadzu Corp Head motion tracker device
JP2008289645A (en) * 2007-05-24 2008-12-04 Shimadzu Corp Motion tracker device
JP2009085805A (en) * 2007-10-01 2009-04-23 Shimadzu Corp Motion tracker device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020047236A (en) * 2018-09-19 2020-03-26 未來市股▲ふん▼有限公司 Tracking method and tracking system employing the same
WO2021254014A1 (en) * 2020-06-17 2021-12-23 Oppo广东移动通信有限公司 Display calibration method, apparatus, device, and storage medium
CN112697074A (en) * 2020-12-10 2021-04-23 易思维(天津)科技有限公司 Dynamic object angle measuring instrument and measuring method
US20230133168A1 (en) * 2021-10-31 2023-05-04 Hongfujin Precision Electrons (Yantai) Co., Ltd. Method for identifying human postures and gestures for interaction purposes and portable hand-held device
JP2023067744A (en) * 2021-10-31 2023-05-16 鴻富錦精密電子(煙台)有限公司 Posture recognition method, posture recognition device and storage medium
JP7402941B2 (en) 2021-10-31 2023-12-21 鴻富錦精密電子(煙台)有限公司 Posture recognition method, posture recognition device and storage medium
US12380726B2 (en) * 2021-10-31 2025-08-05 Hongfujin Precision Electrons (Yantai) Co., Ltd. Method for identifying human postures and gestures for interaction purposes and portable hand-held device

Similar Documents

Publication Publication Date Title
JP5594944B2 (en) Motion tracker device
CN110458961A (en) System based on augmented reality
JP4924342B2 (en) Motion tracker device
US11360552B1 (en) High assurance headtracking via structured light projection for head worn display (HWD)
JP2009069364A (en) Head-mounted display device and head-mounted display device system
JP5292725B2 (en) Motion tracker device
US12487663B2 (en) Wearable system with controller localization using headset cameras and controller fiducials
JP2014095557A (en) Motion tracker device
JP4905321B2 (en) Head motion tracker device
JP2009036517A (en) Head motion tracker device
JP5505363B2 (en) Motion tracker device
JP4961904B2 (en) Head motion tracker device
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP4905311B2 (en) Head motion tracker system and calibration device used therefor
JP5092279B2 (en) Head motion tracker device and method of using the same
JP4665872B2 (en) Head motion tracker device
JP4877138B2 (en) Head motion tracker device
JP4872768B2 (en) Head motion tracker device
JP5092300B2 (en) Head motion tracker device
JP4967546B2 (en) Head motion tracker device
JP5560600B2 (en) Head motion tracker device
JP4656016B2 (en) Motion tracker device
JP4656017B2 (en) Head motion tracker device
JP4784591B2 (en) Motion tracker device
JP2007334762A (en) Head motion tracker device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160912

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170207