JP2014095557A - Motion tracker device - Google Patents
Motion tracker device Download PDFInfo
- Publication number
- JP2014095557A JP2014095557A JP2012245401A JP2012245401A JP2014095557A JP 2014095557 A JP2014095557 A JP 2014095557A JP 2012245401 A JP2012245401 A JP 2012245401A JP 2012245401 A JP2012245401 A JP 2012245401A JP 2014095557 A JP2014095557 A JP 2014095557A
- Authority
- JP
- Japan
- Prior art keywords
- time
- coordinate system
- reference information
- angle
- respect
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】 カメラ座標系に対する対象物の角度を高精度で算出することができるモーショントラッカ装置を提供する。
【解決手段】 カメラ座標系に対する各光学マーカー7のそれぞれの実測位置を算出する実測位置算出部24と、カメラ座標系に対する各光学マーカー7のそれぞれの基準位置を示す基準情報を記憶するための記憶部42と、角度算出部27とを備えるモーショントラッカ装置1であって、時間t(n−1)から時間tnまでの角速度及び時間tnの実測位置に基づいて、時間t(n−1)における各光学マーカー7のそれぞれの真位置を算出する真位置算出部25と、基準情報を時間t(n−1)の真位置を用いて変更する更新部26とを備え、角度算出部27は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における基準座標系に対する対象物10の角度を算出する。
【選択図】図1PROBLEM TO BE SOLVED: To provide a motion tracker device capable of calculating an angle of an object with respect to a camera coordinate system with high accuracy.
An actual measurement position calculation unit for calculating an actual measurement position of each optical marker with respect to a camera coordinate system, and a memory for storing reference information indicating a reference position of each optical marker with respect to the camera coordinate system. and parts 42, a motion tracker device 1 and a angle calculator 27, based on the measured positions of the angular velocity and the time t n from the time t (n-1) to time t n, the time t (n-1 ) Includes a true position calculation unit 25 that calculates the true position of each optical marker 7, and an update unit 26 that changes the reference information using the true position at time t (n−1). Calculates the angle of the object 10 with respect to the reference coordinate system at time t (n + 1) based on the actually measured position at time t (n + 1) and the updated reference information.
[Selection] Figure 1
Description
本発明は、カメラ装置に設定されたカメラ座標系に対する対象物の現在角度を測定するモーショントラッカ装置(以下、MT装置ともいう)に関する。本発明は、例えば、ゲーム機や乗物等の移動体で用いられる頭部装着型表示装置付ヘルメットの現在角度(すなわち、現在の頭部角度)を測定するヘッドモーショントラッカ装置(以下、HMT装置ともいう)等に利用される。 The present invention relates to a motion tracker device (hereinafter also referred to as an MT device) that measures a current angle of an object with respect to a camera coordinate system set in a camera device. The present invention relates to a head motion tracker device (hereinafter also referred to as an HMT device) that measures the current angle (that is, the current head angle) of a helmet with a head-mounted display device used in a moving body such as a game machine or a vehicle. Etc.).
時々刻々と変動する物体の現在角度を正確に測定する技術は、様々な分野で利用されている。例えば、ゲーム機ではバーチャルリアリティ(VR)を実現するために、頭部装着型表示装置付ヘルメットを用いることにより映像を表示することがなされている。このとき、頭部装着型表示装置付ヘルメットの現在角度に合わせて、映像を変化させる必要があり、この頭部装着型表示装置付ヘルメットの現在角度を測定するために、HMT装置が利用されている。 Techniques for accurately measuring the current angle of an object that changes from moment to moment are used in various fields. For example, in a game machine, in order to realize virtual reality (VR), an image is displayed by using a helmet with a head-mounted display device. At this time, it is necessary to change the image according to the current angle of the helmet with a head-mounted display device, and an HMT device is used to measure the current angle of the helmet with a head-mounted display device. Yes.
また、救難飛行艇(飛行体)による救難活動では、発見した救難目標を見失わないようにするため、頭部装着型表示装置付ヘルメットにより表示される照準画像と救難目標とが対応したときにロックすることによって、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体の緯度、経度、高度、姿勢に加えて、飛行体に設定された座標系に対するパイロットの頭部の現在角度を測定する必要があり、これにHMT装置が利用されている。 Also, in the rescue operation by the rescue flying boat (aircraft), it is locked when the aiming image displayed by the helmet with a head mounted display device corresponds to the rescue target so as not to lose sight of the discovered rescue target. By doing so, the position of the locked rescue target is calculated. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude, and attitude of the flying object, it is necessary to measure the current angle of the pilot's head with respect to the coordinate system set for the flying object For this, an HMT apparatus is used.
このようなHMT装置として、光学マーカー群として複数の発光体を頭部装着型表示装置付ヘルメットの外周面上に取り付け、発光体からの光をカメラ装置でモニタする光学方式のものが開示されている(例えば、特許文献1参照)。具体的には、頭部装着型表示装置付ヘルメットの外周面上に、光学マーカー群として、LED(発光ダイオード)を互いに離隔するようにして3箇所に取り付け、頭部装着型表示装置付ヘルメットにおけるこれら3個のLEDの相対的な位置(基準位置)Cbを、設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて予め記憶させておく。そして、これら3個のLEDを、立体視が可能でかつ設置場所が固定された2台のカメラ(カメラ装置)で同時に撮影することで、所謂、三角測量の原理により、現在の3個のLEDの位置(実測位置)Coを算出する。カメラ装置で頭部装着型表示装置付ヘルメットに固定された3点の位置(3個のLEDの位置)Coが特定できれば、記憶された設計情報Cbを参照することにより、頭部装着型表示装置付ヘルメットがどのくらい回転したかを特定でき、その結果、頭部装着型表示装置付ヘルメットの現在角度を算出している。 As such an HMT device, there is disclosed an optical type device in which a plurality of light emitters are attached as an optical marker group on the outer peripheral surface of a helmet with a head-mounted display device, and light from the light emitter is monitored by a camera device. (For example, refer to Patent Document 1). Specifically, on the outer peripheral surface of the head-mounted display device-equipped helmet, as an optical marker group, LEDs (light-emitting diodes) are attached to three locations so as to be separated from each other. The relative positions (reference positions) Cb of these three LEDs are stored in advance using design information (design drawings of a helmet with a head-mounted display device). These three LEDs are photographed simultaneously by two cameras (camera devices) that can be viewed stereoscopically and have a fixed installation location, so that the current three LEDs can be obtained according to the so-called triangulation principle. Position (actually measured position) Co is calculated. If three positions (positions of three LEDs) Co fixed to the helmet with a head-mounted display device can be identified by the camera device, the head-mounted display device can be obtained by referring to the stored design information Cb. It is possible to specify how much the attached helmet has rotated, and as a result, the current angle of the helmet with a head-mounted display device is calculated.
しかしながら、光学マーカーとしてLEDを使用した場合、初期情報として設計情報を記憶させることには問題があった。ここで、図6は、一般的なLEDの概略構成を示す断面図である。LED50は、半導体部51と、反射板52と、レンズ53とを有する。図6に示すように、LEDの外形形状から求めた中心と、実際にLEDが発光している中心(LEDの物理的発光中心)とに、製造の際に生じた差異が存在することがあり、LEDの外形形状から求めた中心(設計情報)Cbを記憶させても、測定誤差が生じることがあった。また、頭部装着型表示装置付ヘルメットをパイロットが装着するときに、頭部装着型表示装置付ヘルメットの顎紐を締め付けることにより頭部に固定するが、その際に頭部装着型表示装置付ヘルメットが変形するともに、LEDも変形することもあった。さらに、LEDを長期に渡り使用していると、経年変質や劣化が生じることもあった。
そこで、本発明は、カメラ座標系に対する対象物の角度を高精度で算出することができるモーショントラッカ装置を提供することを目的とする。
However, when an LED is used as an optical marker, there is a problem in storing design information as initial information. Here, FIG. 6 is a cross-sectional view showing a schematic configuration of a general LED. The
Accordingly, an object of the present invention is to provide a motion tracker device that can calculate the angle of an object with respect to a camera coordinate system with high accuracy.
上記課題を解決するためになされた本発明のモーショントラッカ装置は、対象物に取り付けられた3個以上の光学マーカーからなる光学マーカー群と、カメラ座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、検出された光線に基づいて、前記カメラ座標系に対する各光学マーカーのそれぞれの実測位置を算出する実測位置算出部と、前記カメラ座標系に対する各光学マーカーのそれぞれの基準位置を示す基準情報を記憶するための記憶部と、時間tnの実測位置及び基準情報に基づいて、時間tnにおける前記カメラ座標系に対する対象物の角度を算出する角度算出部とを備えるモーショントラッカ装置であって、時間t(n−1)から時間tnまでに前記対象物に作用した角速度を検出する角速度センサと、時間t(n−1)から時間tnまでの角速度及び時間tnの実測位置に基づいて、時間t(n−1)における各光学マーカーのそれぞれの真位置を算出する真位置算出部と、基準情報を時間t(n−1)の真位置を用いて変更する更新部とを備え、前記角度算出部は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における前記カメラ座標系に対する対象物の角度を算出することを特徴としている。 In order to solve the above problems, the motion tracker device of the present invention includes an optical marker group composed of three or more optical markers attached to an object, a camera coordinate system, and a light beam from the optical marker. A camera device that detects in stereoscopic view, an actual position calculation unit that calculates an actual position of each optical marker with respect to the camera coordinate system based on the detected light beam, and each optical marker with respect to the camera coordinate system A storage unit for storing reference information indicating a reference position, and an angle calculation unit for calculating an angle of the object with respect to the camera coordinate system at time t n based on the actually measured position at time t n and the reference information. A motion tracker device that detects an angular velocity acting on the object from time t (n-1) to time t n. And Sa, based on the measured positions of the angular velocity and the time t n from the time t (n-1) to time t n, the true position calculation for calculating the respective true position of each optical marker in the time t (n-1) And an update unit that changes the reference information using the true position at time t (n−1) , and the angle calculation unit is based on the measured position at time t (n + 1) and the updated reference information. The angle of the object with respect to the camera coordinate system at time t (n + 1) is calculated.
ここで、「角速度センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする角速度を検出できるもののことをいい、例えば、ジャイロセンサ等が用いられる。なお、ジャイロセンサは、一般的に短時間では高い精度を確保することができるが、長時間では高い精度を確保することはできない。そこで、本発明では、基準情報を更新するため(キャリブレーション)に用いられることになる。
また、「カメラ座標系に対する対象物の角度」とは、ロール方向(カメラ座標系のX軸に対する回転)の角度RLと、エレベーション方向(カメラ座標系のY軸に対する回転)の角度ELと、アジマス方向(カメラ座標系のZ軸に対する回転)の角度AZとのことをいう。
Here, the “angular velocity sensor” means a sensor having three axes defined in the sensor itself and capable of detecting an angular velocity with reference to the three axes. For example, a gyro sensor or the like is used. A gyro sensor can generally ensure high accuracy in a short time, but cannot ensure high accuracy in a long time. Therefore, in the present invention, the reference information is used for updating (calibration).
The “angle of the object relative to the camera coordinate system” means an angle RL in the roll direction (rotation of the camera coordinate system with respect to the X axis), an angle EL in the elevation direction (rotation of the camera coordinate system with respect to the Y axis), and The angle AZ in the azimuth direction (rotation with respect to the Z axis of the camera coordinate system).
本発明のMT装置によれば、3個以上の光学マーカーが対象物に取り付けられている。そして、カメラ座標系に対する3個以上の光学マーカーの基準位置Cbを示す基準情報を、設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて記憶させる。このとき、この基準情報Cbには、光学マーカーの外形形状から求めた中心と、実際に光学マーカーが発光している中心とに、製造時に生じた差異が存在したり、ヘルメットの顎紐等を締め付ける際にヘルメットが変形したりするため、誤差が生じる。 According to the MT apparatus of the present invention, three or more optical markers are attached to the object. Then, the reference information indicating the reference positions Cb of the three or more optical markers with respect to the camera coordinate system is stored using design information (such as a design drawing of a helmet with a head-mounted display device). At this time, in the reference information Cb, there is a difference that occurs at the time of manufacture between the center obtained from the outer shape of the optical marker and the center where the optical marker actually emits light. An error occurs because the helmet deforms when tightening.
そして、カメラ座標系に対する対象物の現在角度を測定する際には、まず、カメラ装置が、時間t1において、光学マーカーからの光線を立体視で検出する。実測位置算出部は、検出された光線に基づいて、時間t1におけるカメラ座標系に対する光学マーカーの位置(実測位置)Co1を算出する。角度算出部は、時間t1の実測位置Co1及び基準情報Cbに基づいて、時間t1におけるカメラ座標系に対する対象物の角度を算出する。このとき、上述したように基準情報Cbは誤差が生じたものとなっているので、基準情報Cbのキャリブレーションを実行するため、角速度センサは、測定開始時間t0から時間t1までに対象物に作用した角速度を検出する。真位置算出部は、測定開始時間t0から時間t1までの角速度と時間t1の実測位置Co1とに基づいて、測定開始時間t0における光学マーカーの位置(真位置)Cg0を算出する。そして、記憶させた基準情報Cbを、測定開始時間t0の真位置Cg0を用いて新たな基準情報Cb0に変更する。このとき、この新たな基準情報Cb0では、光学マーカーの外形形状から求めた中心と、実際に光学マーカーが発光している中心とに、製造の際に生じた差異が存在したり、ヘルメットの顎紐等を締め付ける際にヘルメットが変形したりすることによる誤差はないものとなる。 Then, when measuring the current angle of the object relative to the camera coordinate system, first, the camera apparatus, at time t 1, detects the light beam from the optical markers stereoscopic. The actual measurement position calculation unit calculates the position (measurement position) Co 1 of the optical marker with respect to the camera coordinate system at time t 1 based on the detected light beam. The angle calculation unit calculates the angle of the object with respect to the camera coordinate system at time t 1 based on the measured position Co 1 at time t 1 and the reference information Cb. At this time, since the reference information Cb as described above has assumed that the error has occurred, for performing calibration of the reference information Cb, the angular velocity sensor is subject to the measurement start time t 0 to time t 1 Detect the angular velocity acting on the. The true position calculation unit calculates the position (true position) Cg 0 of the optical marker at the measurement start time t 0 based on the angular velocity from the measurement start time t 0 to the time t 1 and the measured position Co 1 at the time t 1. To do. Then, the stored reference information Cb is changed to new reference information Cb 0 using the true position Cg 0 at the measurement start time t 0 . At this time, in the new reference information Cb 0 , there is a difference that occurred during the manufacture between the center obtained from the outer shape of the optical marker and the center where the optical marker actually emits light, There is no error due to deformation of the helmet when tightening the chin strap or the like.
次に、カメラ装置が、時間t2において、光学マーカーからの光線を立体視で検出する。実測位置算出部は、検出された光線に基づいて、時間t2におけるカメラ座標系に対する光学マーカーの位置(実測位置)Co2を算出する。角度算出部は、時間t2の実測位置Co2及び新たな基準情報Cb0に基づいて、時間t2におけるカメラ座標系に対する対象物の角度を算出する。このとき、この基準情報Cb0は、光学マーカーに経年変質や劣化が生じるため、誤差が生じたものとなっているので、基準情報Cb0のキャリブレーションを実行するため、角速度センサは、時間t1から時間t2までに対象物に作用した角速度を検出する。真位置算出部は、時間t1から時間t2までの角速度と時間t2の実測位置Co2とに基づいて、時間t1における光学マーカーの位置(真位置)Cg1を算出する。そして、記憶させた基準情報Cb0を、時間t1の真位置Cg1を用いて新たな初期情報Cb1に変更する。このとき、この新たな基準情報Cb1では、時間t1までに生じた光学マーカーの経年変質や劣化による誤差はないものとなる。 Next, the camera apparatus, at time t 2, detects the light beam from the optical markers stereoscopic. The actual measurement position calculation unit calculates the position (measurement position) Co 2 of the optical marker with respect to the camera coordinate system at time t 2 based on the detected light beam. The angle calculation unit calculates the angle of the object with respect to the camera coordinate system at time t 2 based on the actual measurement position Co 2 at time t 2 and the new reference information Cb 0 . At this time, since the reference information Cb 0 has an error because the optical marker is deteriorated or deteriorated over time, the calibration of the reference information Cb 0 is performed. detecting an angular velocity acting on the object from 1 to time t 2. The true position calculation unit calculates the position (true position) Cg 1 of the optical marker at time t 1 based on the angular velocity from time t 1 to time t 2 and the measured position Co 2 at time t 2 . Then, the stored reference information Cb 0 is changed to new initial information Cb 1 using the true position Cg 1 at time t 1 . At this time, with this new reference information Cb 1 , there is no error due to aging or deterioration of the optical marker that has occurred until time t 1 .
次に、カメラ装置が、時間t3において、光学マーカーからの光線を立体視で検出する。実測位置算出部は、検出された光線に基づいて、時間t3におけるカメラ座標系に対する光学マーカーの位置(実測位置)Co3を算出する。角度算出部は、時間t3の実測位置Co3及び新たな基準情報Cb1に基づいて、時間t3におけるカメラ座標系に対する対象物の角度を算出する。このとき、この基準情報Cb1は、時間t1から時間t3までの間に光学マーカーに経年変質や劣化が生じるため、誤差が生じたものとなっているので、基準情報Cb1のキャリブレーションを実行するため、角速度センサは、時間t2から時間t3までに対象物に作用した角速度を検出する。真位置算出部は、時間t2から時間t3までの角速度と時間t3の実測位置Co3とに基づいて、時間t2における光学マーカーの位置(真位置)Cg2を算出する。そして、記憶させた基準情報Cb1を、時間t2の真位置Cg2を用いて新たな基準情報Cb2に変更する。このとき、この新たな基準情報Cb2では、時間t2までに生じた光学マーカーの経年変質や劣化による誤差はないものとなる。 Next, the camera device detects the light beam from the optical marker by stereoscopic vision at time t 3 . The actual measurement position calculation unit calculates the position (measurement position) Co 3 of the optical marker with respect to the camera coordinate system at time t 3 based on the detected light beam. Angle calculation unit based on the measured positions Co 3 and new reference information Cb 1 time t 3, and calculates the angle of the object relative to the camera coordinate system at time t 3. At this time, the reference information Cb 1 has an error because the optical marker has deteriorated or deteriorated over time from the time t 1 to the time t 3, so that the calibration of the reference information Cb 1 is performed. Therefore, the angular velocity sensor detects the angular velocity acting on the object from time t 2 to time t 3 . The true position calculation unit calculates the position (true position) Cg 2 of the optical marker at time t 2 based on the angular velocity from time t 2 to time t 3 and the measured position Co 3 at time t 3 . Then, the stored reference information Cb 1 is changed to new reference information Cb 2 using the true position Cg 2 at time t 2 . At this time, the new reference information Cb 2 has no error due to deterioration or deterioration of the optical marker that has occurred until time t 2 .
以上のように、本発明のMT装置によれば、基準情報を、時間t(n−1)の真位置Cg(n−1)を用いて変更していく。つまり、基準情報のキャリブレーションをリアルタイムで実行する。これにより、角度算出部は、精度よく、カメラ座標系に対する対象物の角度を算出することができる。 As described above, according to the MT apparatus of the present invention, the reference information is changed using the true position Cg (n−1) at time t (n−1) . That is, the calibration of the reference information is executed in real time. Thereby, the angle calculation part can calculate the angle of the target object with respect to the camera coordinate system with high accuracy.
(他の課題を解決するための手段および効果)
また、本発明のモーショントラッカ装置は、対象物に取り付けられた3個以上の光学マーカーからなる光学マーカー群と、カメラ座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、検出された光線に基づいて、前記カメラ座標系に対する各光学マーカーのそれぞれの実測位置を算出する実測位置算出部と、前記カメラ座標系に対する各光学マーカーのそれぞれの基準位置を示す基準情報を記憶するための記憶部と、時間tnの実測位置及び基準情報に基づいて、時間tnにおける前記カメラ座標系に対する対象物の角度を算出する角度算出部とを備えるモーショントラッカ装置であって、時間t(n−1)から時間tnまでに前記対象物に作用した加速度を検出する加速度センサと、時間t(n−1)から時間tnまでの加速度及び時間tnの実測位置に基づいて、時間t(n−1)における各光学マーカーのそれぞれの真位置を算出する真位置算出部と、基準情報を時間t(n−1)の真位置を用いて変更する更新部とを備え、前記角度算出部は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における前記カメラ座標系に対する対象物の角度を算出することを特徴としている。
(Means and effects for solving other problems)
The motion tracker device of the present invention is a camera device in which an optical marker group composed of three or more optical markers attached to an object and a camera coordinate system are set, and light rays from the optical marker are detected in a stereoscopic view. And an actual measurement position calculation unit for calculating an actual measurement position of each optical marker with respect to the camera coordinate system based on the detected light beam, and reference information indicating a reference position of each optical marker with respect to the camera coordinate system. a storage unit for storing, based on the measured position and the reference information of the time t n, a motion tracker device and a angle calculator that calculates an angle of the object relative to the camera coordinate system at time t n, an acceleration sensor for detecting an acceleration applied from the time t (n-1) on the object until the time t n, or time t (n-1) Based on the measured positions of the acceleration and the time t n to time t n, the true position calculation unit for calculating a respective true position of each optical marker in the time t (n-1), the reference information time t (n- 1) , and the angle calculator is configured to change the camera coordinate system at time t (n + 1) based on the actually measured position at time t (n + 1) and the updated reference information. It is characterized in that the angle of the object with respect to is calculated.
ここで、「加速度センサ」とは、センサ自体に3軸が定義されて、この3軸を基準とする3軸方向の加速度を検出できるもののことをいい、例えば、加速度センサ等が用いられる。なお、加速度センサは、一般的に短時間では高い精度を確保することができるが、長時間では高い精度を確保することはできない。そこで、本発明では、基準情報を更新するため(キャリブレーション)に用いられることになる。
また、「カメラ座標系に対する対象物の角度」とは、ロール方向(カメラ座標系のX軸に対する回転)の角度RLと、エレベーション方向(カメラ座標系のY軸に対する回転)の角度ELと、アジマス方向(カメラ座標系のZ軸に対する回転)の角度AZとのことをいう。
Here, the “acceleration sensor” means a sensor in which three axes are defined in the sensor itself, and acceleration in a triaxial direction with reference to the three axes can be detected. For example, an acceleration sensor or the like is used. An acceleration sensor can generally ensure high accuracy in a short time, but cannot ensure high accuracy in a long time. Therefore, in the present invention, the reference information is used for updating (calibration).
The “angle of the object relative to the camera coordinate system” means an angle RL in the roll direction (rotation of the camera coordinate system with respect to the X axis), an angle EL in the elevation direction (rotation of the camera coordinate system with respect to the Y axis), and The angle AZ in the azimuth direction (rotation with respect to the Z axis of the camera coordinate system).
以上のように、本発明のMT装置によれば、基準情報を、時間t(n−1)の真位置Cg(n−1)を用いて変更していく。つまり、基準情報のキャリブレーションをリアルタイムで実行する。これにより、角度算出部は、精度よく、カメラ座標系に対する対象物の角度を算出することができる。 As described above, according to the MT apparatus of the present invention, the reference information is changed using the true position Cg (n−1) at time t (n−1) . That is, the calibration of the reference information is executed in real time. Thereby, the angle calculation part can calculate the angle of the target object with respect to the camera coordinate system with high accuracy.
上記発明において、前記対象物は、装着者の頭部に装着されるヘルメットであり、前記光学マーカーは、発光ダイオードであるようにしてもよい。 In the above invention, the object may be a helmet worn on a wearer's head, and the optical marker may be a light emitting diode.
以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The present invention is not limited to the embodiments described below, and includes various modes without departing from the spirit of the present invention.
図1は、本発明の一実施形態であるHMT装置の概略構成を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメットの斜視図である。また、図3は、カメラ座標系(XYZ座標系)の設定を説明するための図である。本実施形態は、搭乗体30に搭乗するパイロットPが着用する頭部装着型表示装置付ヘルメット10の現在角度を算出するものである。つまり、HMT装置1は、搭乗体30に設定されたカメラ座標系(XYZ座標系)に対する、パイロットPが着用する頭部装着型表示装置付ヘルメット10に設定されたヘルメット座標系(X’Y’Z’座標系)の角度(RLn、ELn、AZn)を所定の時間間隔Δtoで算出していく。なお、カメラ座標系(XYZ座標系)は、後述するカメラ装置31を基準とするものであり、カメラ座標系記憶部43に予め記憶され、一方、ヘルメット座標系(X’Y’Z’座標系)は、設計情報(頭部装着型表示装置付ヘルメットの設計図等)が用いられてヘルメット座標系記憶部44に記憶されることになる。
HMT装置1は、パイロットPの頭部に装着される頭部装着型表示装置付ヘルメット10と、搭乗体30に取り付けられたカメラ装置31と、コンピュータにより構成される制御部20とから構成される。
FIG. 1 is a diagram showing a schematic configuration of an HMT device according to an embodiment of the present invention, and FIG. 2 is a perspective view of the helmet with a head-mounted display device shown in FIG. FIG. 3 is a diagram for explaining setting of the camera coordinate system (XYZ coordinate system). In the present embodiment, the current angle of the
The
頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することによりパイロットPの目に導くコンバイナ8と、LED(光学マーカー)群7と、3軸ジャイロセンサ(角速度センサ)9と、顎紐6とを有する。なお、頭部装着型表示装置付ヘルメット10を装着したパイロットPは、表示器による表示画像とコンバイナ8の前方実在物とを視認することが可能となっている。
LED群7は、互いに異なる波長の赤外光を発光する3個のLED7a、7b、7cが互いに離隔するようにして取り付けられたものである。
The
The LED group 7 includes three
ここで、ヘルメット座標系(X’Y’Z’座標系)は、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図2に示すように、原点をLED7aの位置とし、前方方向をX’軸方向とし、前方方向に垂直となる方向をY’軸方向とし、X’軸方向及びY’軸方向に垂直となる方向をZ’軸方向とするように、設計情報(頭部装着型表示装置付ヘルメットの設計図等)によりヘルメット座標系記憶部44に記憶される。また、ヘルメット座標系(X’Y’Z’座標系)上での3個のLED7a、7b、7cの位置も、設計情報(頭部装着型表示装置付ヘルメットの設計図等)によりヘルメット座標系記憶部44に記憶される。
Here, the helmet coordinate system (X′Y′Z ′ coordinate system) can arbitrarily determine the origin and the direction of each coordinate axis. In this embodiment, as shown in FIG. 2, the origin is the position of the
そして、頭部装着型表示装置付ヘルメット10は、パイロットPに装着される際において、まず第一(測定開始時間t0)に、カメラ座標系(XYZ座標系)上の所定位置(例えば、XYZ座標系とX’Y’Z’座標系とが一致する位置)にパイロットPの頭部を配置するよう指示を発し、初期状態(基準情報)として、カメラ座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の角度(RL0、EL0、AZ0)が基準角度(0、0、0)となるようにされている。このとき、各LED7a、7b、7cはそれぞれの基準位置Cbに配置されることになり、原点をLED7aの位置とし、LED7aとLED7bとLED7cとで形成された平面に垂直となる方向となる基準ベクトルV(Cb)も基準方向に配置されることになる。図4(a)は、初期状態の頭部装着型表示装置付ヘルメット10を示す斜視図である。
When the
3軸ジャイロセンサ9は、頭部装着型表示装置付ヘルメット10に作用する角速度を検出するものである。また、3軸ジャイロセンサ9は、ヘルメット座標系(X’Y’Z’座標系)に軸を合わせるようにして、頭部装着型表示装置付ヘルメット10に取り付けられている。よって、ロール方向(X’軸に対する回転)、エレベーション方向(Y’軸に対する回転)、アジマス方向(Z’軸に対する回転)における角速度(ω’RL、ω’EL、ω’AZ)が検出される。
なお、3軸ジャイロセンサ9は、ヘルメット座標系(X’Y’Z’座標系)の原点に取り付けられてもよく、ヘルメット座標系(X’Y’Z’座標系)の原点以外の位置に取り付けられた場合には、ヘルメット座標系(X’Y’Z’座標系)の原点の位置での角速度(ω’RL、ω’EL、ω’AZ)を求めるためにオフセット行列M0を乗算したりする一般的な計算方法等で変換されることになる。
The three-axis gyro sensor 9 detects an angular velocity acting on the head mounted
The three-axis gyro sensor 9 may be attached to the origin of the helmet coordinate system (X′Y′Z ′ coordinate system) or at a position other than the origin of the helmet coordinate system (X′Y′Z ′ coordinate system). when attached multiplies the offset matrix M0 in order to determine the helmet coordinate system 'angular velocity at the position of the origin of the (coordinate system (ω X'Y'Z)' RL, ω 'EL, ω' AZ) It is converted by a general calculation method or the like.
搭乗体30は、パイロットPが搭乗するコックピットであり、パイロットPが着席する座席32と、カメラ装置31とを備える。
カメラ装置31は、第一カメラ31aと第二カメラ31bとからなり、撮影方向が頭部装着型表示装置付ヘルメット10に向けられているとともに、頭部装着型表示装置付ヘルメット10の立体視が可能な一定の距離dを隔てるように、搭乗体30の天井に固定軸31cを介して設置されている。これにより、第一カメラ31aで撮影された第一画像が作成されるとともに、第二カメラ31bで撮影された第二画像が作成される。
そして、第一画像及び第二画像中に映し出されているLED7a、7b、7cの位置により、第一カメラ31aからの方向角度αと第二カメラ31bからの方向角度βとを算出し、第一カメラ31aと第二カメラ32bとの間の距離dを用いることにより、所謂、三角測量の手法で、カメラ装置31に対するLED7a、7b、7cの位置を算出できるようになっている(図3参照)。
The
The
Then, the direction angle α from the
このとき、LED7a、7b、7cの位置を空間座標で表現できるようにするために、カメラ装置31に設定されたカメラ座標系(XYZ座標系)を用いる。カメラ座標系(XYZ座標系)は、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図3に示すように、第二カメラ31bから第一カメラ31aへの方向をX軸方向とし、X軸方向に垂直かつ左向きとなる方向をY軸方向とし、X軸方向に垂直かつ天井に垂直で上向きとなる方向をZ軸方向とするように定義し、原点を第一カメラ31aと第二カメラ31bとの中点として定義するようにカメラ座標系記憶部43に予め設定されている。
At this time, a camera coordinate system (XYZ coordinate system) set in the
これにより、時間tnでのカメラ座標系(XYZ座標系)上の3個のLED7a、7b、7cの実測位置Cnを算出し、原点をLED7aの位置とし、LED7aとLED7bとLED7cとで形成された平面に垂直となる方向となる実測ベクトルV(Cn)を算出することができる。図4(b)は、時間t(n−1)の頭部装着型表示装置付ヘルメット10を示す斜視図であり、図4(c)は、時間tnの頭部装着型表示装置付ヘルメット10を示す斜視図である。そして、基準ベクトルV(Cb)や実測ベクトルV(C(n−1))から実測ベクトルV(Cn)がどのくらい回転したかを算出することで、頭部装着型表示装置付ヘルメット10の現在角度(RLn、ELn、AZn)を算出するようになっている。
Thus, three
制御部20は、CPU21やメモリ40等からなるコンピュータにより構成され、各種の制御や演算処理を行う。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、画像取得部28と、角速度取得部23と、実測位置算出部24と、真位置算出部25と、更新部26と、角度算出部27と、ヘルメット座標系記憶制御部22とを有する。また、メモリ40は、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、カメラ座標系(XYZ座標系)を予め記憶するカメラ座標系記憶部43と、ヘルメット座標系(X’Y’Z’座標系)を記憶するためのヘルメット座標系記憶部44と、基準情報Cbnを記憶するための基準情報記憶部42とを有する。
The
ヘルメット座標系記憶制御部22は、操作者の入力操作によってヘルメット座標系記憶部44にヘルメット座標系(X’Y’Z’座標系)を記憶させる制御を行う。具体的には、操作者は設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて入力操作することにより、ヘルメット座標系(X’Y’Z’座標系)をヘルメット座標系記憶部44に記憶させるとともに、ヘルメット座標系(X’Y’Z’座標系)上での3個のLED7a、7b、7cの位置についても、設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて入力操作することにより、ヘルメット座標系記憶部44に記憶させる。
そして、ヘルメット座標系記憶制御部22は、測定開始時間t0には、カメラ座標系(XYZ座標系)上の所定位置にパイロットPの頭部を配置するように指示する。その結果、初期状態(基準情報)Cbとして、カメラ座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の角度(RL0、EL0、AZ0)が基準角度(0、0、0)となり、設計情報(頭部装着型表示装置付ヘルメットの設計図等)から算出することで、各LED7a、7b、7cはそれぞれの基準位置Cbに配置されることとし、基準ベクトルV(Cb)も基準方向に配置されることとする(図4(a)参照)。
The helmet coordinate system
The helmet coordinate system
画像取得部28は、LED群7を点灯する指令信号を出力するとともに、カメラ装置31でLED群7を撮影することにより、第一画像及び第二画像を所定の時間間隔Δtoで取得していく制御を行う。
角速度取得部23は、3軸ジャイロセンサ9から角速度(ω’RL、ω’EL、ω’AZ)を所定の時間間隔Δtgで取得する制御を行う。
The
The angular
実測位置算出部24は、時間tnの第一画像と時間tnの第二画像とに基づいて、カメラ座標系(XYZ座標系)に対する、LED群7のそれぞれの実測位置Cnを算出し、実測ベクトルV(Cn)を算出する制御を行う。具体的には、時間tnの第一画像と時間tnの第二画像中に映し出されているLED7a、7b、7cの位置により、第一カメラ31aからの方向角度αと第二カメラ31bからの方向角度βとを算出し、第一カメラ31aと第二カメラ32bとの間の距離dを用いることにより、三角測量の手法で、時間tnにおけるLED7a、7b、7cの実測位置Cnを算出する。そして、時間tnにおけるLED7a、7b、7cの実測位置Cnから、時間tnにおける実測ベクトルV(Cn)を算出する(図4(c)参照)。
Measured
角度算出部27は、実測位置算出部24で算出された実測ベクトルV(Cn)と、基準情報記憶部42に記憶された基準情報Cb(n−2)とに基づいて、時間tnにおけるヘルメット座標系(X’Y’Z’座標系)の角度(RLn、ELn、AZn)を算出する制御を行う。具体的には、詳細は後述するが、基準情報記憶部42から最新の基準情報Cb(n−2)を呼び出す。つまり、LED7a、7b、7cの基準位置Cb(n−2)を呼び出すとともに、基準ベクトルV(Cb(n−2))を呼び出す。そして、基準ベクトルV(Cb(n−2))から実測ベクトルV(Cn)がどのくらい回転したかを算出する。これにより、時間t(n−2)における頭部装着型表示装置付ヘルメット10の角度(RL(n−2)、EL(n−2)、AZ(n−2))からどのくらい回転したかを算出し、時間tnでの頭部装着型表示装置付ヘルメット10の角度(RLn、ELn、AZn)を算出する。なお、時間t1でのヘルメット座標系(X’Y’Z’座標系)の角度(RL1、EL1、AZ1)を算出する際には、基準情報Cb−1は存在しないため、設計情報を用いて記憶された基準位置Cbを用いることになる。
Based on the measured vector V (C n ) calculated by the measured
真位置算出部25は、時間t(n−1)から時間tnまでの角速度(ω’RL、ω’EL、ω’AZ)と、実測位置算出部24で算出された実測ベクトルV(Cn)とに基づいて、時間t(n−1)におけるLED群7のそれぞれの真位置Cg(n−1)を算出する制御を行う。具体的には、時間t(n−1)から時間tnまでの角速度(ω’RL、ω’EL、ω’AZ)を積分することにより、時間t(n−1)から時間tnまでのヘルメット座標系(X’Y’Z’座標系)の角度移動量(ΔRL、ΔEL、ΔAZ)を算出する。次に、時間tnにおける実測ベクトルV(Cn)を角度移動量(ΔRL、ΔEL、ΔAZ)分だけ戻すことにより、時間t(n−1)における真ベクトルV(Cg(n−1))を算出する。次に、時間t(n−1)における真ベクトルV(Cgn)から、時間t(n−1)におけるLED7a、7b、7cの真位置Cg(n−1)を算出する(図4参照)。
The true
更新部26は、基準情報記憶部42に記憶された基準情報Cb(n−2)を、時間t(n−1)の真位置Cg(n−1)を用いて新たな基準情報Cb(n−1)に変更する制御を行う。具体的には、ヘルメット座標系(X’Y’Z’座標系)の角度(RL(n−1)、EL(n−1)、AZ(n−1))のときには、LED7a、7b、7cは真位置Cg(n−1)に存在したとするように、基準情報Cb(n−1)として基準情報記憶部42に記憶させる。つまり、時間t(n−1)には、LED7a、7b、7cは実測位置C(n−1)に存在するとして、ヘルメット座標系(X’Y’Z’座標系)の角度(RL(n−1)、EL(n−1)、AZ(n−1))は算出されたが、実際にはLED7a、7b、7cは真位置Cg(n−1)に存在したとするようにキャリブレーションする。
The updating
次に、HMT装置1により頭部装着型表示装置付ヘルメット10の角度(RLn、ELn、AZn)を測定する測定動作について説明する。図5は、HMT装置1による測定動作について説明するためのフローチャートである。
まず、ステップS101の処理において、操作者は設計情報(頭部装着型表示装置付ヘルメットの設計図等)を用いて入力操作することにより、ヘルメット座標系記憶部44にヘルメット座標系(X’Y’Z’座標系)と、ヘルメット座標系(X’Y’Z’座標系)上での3個のLED7a、7b、7cの位置を記憶させる。
Next, the measurement operation for measuring the angles (RL n , EL n , AZ n ) of the
First, in the process of step S101, the operator performs an input operation using design information (such as a design drawing of a helmet with a head-mounted display device), whereby the helmet coordinate system (X′Y 'Z' coordinate system) and the positions of the three
次に、ステップS102の処理において、パイロットPは、頭部装着型表示装置付ヘルメット10を装着して、時間tnを測定開始時間t0とし、カメラ座標系(XYZ座標系)上の所定位置に頭部を配置する。
次に、ステップS103の処理において、時間tnを時間t(n+1)とする。
Next, in the process of step S102, the pilot P is wearing the head-mounted display device with the
Next, in the process of step S103, time t n is set to time t (n + 1) .
次に、ステップS104の処理において、画像取得部28は、LED群7を点灯する指令信号を出力するとともに、カメラ装置31でLED群7を撮影することにより、時間tnの第一画像及び時間tnの第二画像を取得する。
次に、ステップS105の処理において、角速度取得部23は、3軸ジャイロセンサ9から時間t(n−1)から時間tnまでの角速度(ω’RL、ω’EL、ω’AZ)を取得する。
Next, in the process of step S104, the
Next, in the process of step S105, the angular
次に、ステップS106の処理において、実測位置算出部24は、時間tnの第一画像及び時間tnの第二画像に基づいて、カメラ座標系(XYZ座標系)に対する、LED7a、7b、7cの実測位置Cnを算出し、実測ベクトルV(Cn)を算出する。
次に、ステップS107の処理において、角度算出部27は、基準情報記憶部42から最新の基準情報Cb(n−2)を呼び出す。つまり、LED7a、7b、7cの基準位置Cb(n−2)を呼び出すとともに、基準ベクトルV(Cb(n−2))を呼び出す。なお、時間t1におけるヘルメット座標系(X’Y’Z’座標系)の角度(RL1、EL1、AZ1)を算出する際には、基準情報Cb−1は存在しないため、基準位置Cbを用いることになる。
Next, in the process of step S106, the measured
Next, in the process of step S <b> 107, the
次に、ステップS108の処理において、角度算出部27は、基準ベクトルV(Cb(n−2))から実測ベクトルV(Cn)がどのくらい回転したかを算出し、時間t(n−2)での頭部装着型表示装置付ヘルメット10の角度(RL(n−2)、EL(n−2)、AZ(n−2))からどのくらい回転したかを算出し、頭部装着型表示装置付ヘルメットの角度(RLn、ELn、AZn)を算出する。
次に、ステップS109の処理において、真位置算出部25は、時間t(n−1)から時間tnまでの角速度(ω’RL、ω’EL、ω’AZ)を積分することにより、時間t(n−1)から時間tnまでのヘルメット座標系(X’Y’Z’座標系)の角度移動量(ΔRL、ΔEL、ΔAZ)を算出する。
Next, in the process of step S108, the
Next, in the processing of step S109, the true
次に、ステップS110の処理において、真位置算出部25は、時間t(n−1)における真ベクトルV(Cg(n−1))を算出し、時間t(n−1)におけるLED7a、7b、7cの真位置Cg(n−1)を算出する。
次に、ステップS111の処理において、更新部26は、基準情報記憶部42に記憶された基準情報Cb(n−2)を、時間t(n−1)の真位置Cg(n−1)を用いて新たな基準情報Cb(n−1)に変更して記憶させる。
Next, in the process in step S110, the true
Next, in the process of step S111, the updating
次に、ステップS112の処理において、測定を終了するか否かを判定する。測定を終了すると判定したときには、本フローチャートを終了させる。一方、測定を終了しないと判定したときには、ステップS103の処理に戻る。つまり、測定を終了すると判定するときまで、ステップS103〜S111の処理は繰り返される。 Next, in the process of step S112, it is determined whether or not to end the measurement. When it is determined that the measurement is to be terminated, this flowchart is terminated. On the other hand, when it is determined not to end the measurement, the process returns to step S103. That is, the processes in steps S103 to S111 are repeated until it is determined that the measurement is to be ended.
以上のように、本発明のHMT装置1によれば、基準情報Cb(n−2)を、時間t(n−1)の真位置Cg(n−1)を用いて変更していく。つまり、基準情報Cbnのキャリブレーションをリアルタイムで実行する。これにより、角度算出部27は、精度よく、カメラ座標系(XYZ座標系)に対するヘルメット座標系(X’Y’Z’座標系)の角度(RLn、ELn、AZn)を算出することができる。
As described above, according to the
<他の実施形態>
(1)上述したHMT装置1において、3軸ジャイロセンサ9が用いられる構成としたが、加速度センサが用いられるような構成としてもよい。なお、加速度センサからは、公知の計算方法が用いられて角度移動量(ΔRL、ΔEL、ΔAZ)が算出されることになる。
<Other embodiments>
(1) Although the three-axis gyro sensor 9 is used in the
(2)上述したHMT装置1において、LED群7は、互いに異なる波長の赤外光を発光する構成としたが、全てのLEDは、同一の波長の光を発光するようにして、例えば、各LEDをそれぞれ個別に追跡して区別する方法(例えば、前記特許文献1に記載のLED識別方法)を用いたり、各LEDの形状をそれぞれ変えたりして、互いを識別されるような構成としてもよい。また、LED群は、赤外光以外の光を発光するような構成としてもよい。
(2) In the
(3)上述したHMT装置1において、LED群7は、3個のLED7a、7b、7cが互いに離隔するようにして取り付けられた構成としたが、例えば10個のLEDが互いに離隔するようにして取り付けられたような構成としてもよい。
(3) In the
本発明は、搭乗体に設定されたカメラ座標系に対する搭乗員等の頭部角度を測定するためのヘッドモーショントラッカ装置等に利用することができる。 The present invention can be used for a head motion tracker device or the like for measuring a head angle of a crew member or the like with respect to a camera coordinate system set on a vehicle.
1 ヘッドモーショントラッカ(HMT)装置
7 LED(光学マーカー)
9 3軸ジャイロセンサ(角速度センサ)
10 頭部装着型表示装置付ヘルメット(対象物)
24 実測位置算出部
25 真位置算出部
26 更新部
27 角度算出部
31 カメラ装置
42 基準情報記憶部
1 Head Motion Tracker (HMT) 7 LED (Optical Marker)
9 3-axis gyro sensor (angular velocity sensor)
10 Helmet with head mounted display (object)
24 actual measurement
Claims (3)
カメラ座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、
検出された光線に基づいて、前記カメラ座標系に対する各光学マーカーのそれぞれの実測位置を算出する実測位置算出部と、
前記カメラ座標系に対する各光学マーカーのそれぞれの基準位置を示す基準情報を記憶するための記憶部と、
時間tnの実測位置及び基準情報に基づいて、時間tnにおける前記カメラ座標系に対する対象物の角度を算出する角度算出部とを備えるモーショントラッカ装置であって、
時間t(n−1)から時間tnまでに前記対象物に作用した角速度を検出する角速度センサと、
時間t(n−1)から時間tnまでの角速度及び時間tnの実測位置に基づいて、時間t(n−1)における各光学マーカーのそれぞれの真位置を算出する真位置算出部と、
基準情報を時間t(n−1)の真位置を用いて変更する更新部とを備え、
前記角度算出部は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における前記カメラ座標系に対する対象物の角度を算出することを特徴とするモーショントラッカ装置。 An optical marker group composed of three or more optical markers attached to an object;
A camera device in which a camera coordinate system is set and detects the light beam from the optical marker in a stereoscopic view;
Based on the detected light beam, an actual position calculation unit that calculates an actual position of each optical marker with respect to the camera coordinate system;
A storage unit for storing reference information indicating a reference position of each optical marker with respect to the camera coordinate system;
A motion tracker device comprising: an angle calculation unit that calculates an angle of an object with respect to the camera coordinate system at time t n based on an actually measured position at time t n and reference information;
An angular velocity sensor for detecting an angular velocity acting on the object from time t (n−1) to time t n ;
Based on the measured positions of the angular velocity and the time t n from the time t (n-1) to time t n, each of the true position calculation unit for calculating the true position of each optical marker in the time t (n-1),
An update unit that changes the reference information using the true position at time t (n−1) ,
The angle calculation unit calculates an angle of the object with respect to the camera coordinate system at time t (n + 1) based on the actually measured position at time t (n + 1) and the updated reference information. .
カメラ座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、
検出された光線に基づいて、前記カメラ座標系に対する各光学マーカーのそれぞれの実測位置を算出する実測位置算出部と、
前記カメラ座標系に対する各光学マーカーのそれぞれの基準位置を示す基準情報を記憶するための記憶部と、
時間tnの実測位置及び基準情報に基づいて、時間tnにおける前記カメラ座標系に対する対象物の角度を算出する角度算出部とを備えるモーショントラッカ装置であって、
時間t(n−1)から時間tnまでに前記対象物に作用した加速度を検出する加速度センサと、
時間t(n−1)から時間tnまでの加速度及び時間tnの実測位置に基づいて、時間t(n−1)における各光学マーカーのそれぞれの真位置を算出する真位置算出部と、
基準情報を時間t(n−1)の真位置を用いて変更する更新部とを備え、
前記角度算出部は、時間t(n+1)の実測位置及び更新された基準情報に基づいて、時間t(n+1)における前記カメラ座標系に対する対象物の角度を算出することを特徴とするモーショントラッカ装置。 An optical marker group composed of three or more optical markers attached to an object;
A camera device in which a camera coordinate system is set and detects the light beam from the optical marker in a stereoscopic view;
Based on the detected light beam, an actual position calculation unit that calculates an actual position of each optical marker with respect to the camera coordinate system;
A storage unit for storing reference information indicating a reference position of each optical marker with respect to the camera coordinate system;
A motion tracker device comprising: an angle calculation unit that calculates an angle of an object with respect to the camera coordinate system at time t n based on an actually measured position at time t n and reference information;
An acceleration sensor that detects acceleration acting on the object from time t (n−1) to time t n ;
Based on the measured positions of the acceleration and the time t n from the time t (n-1) to time t n, each of the true position calculation unit for calculating the true position of each optical marker in the time t (n-1),
An update unit that changes the reference information using the true position at time t (n−1) ,
The angle calculation unit calculates an angle of the object with respect to the camera coordinate system at time t (n + 1) based on the actually measured position at time t (n + 1) and the updated reference information. .
前記光学マーカーは、発光ダイオードであることを特徴とする請求項1又は請求項2に記載のモーショントラッカ装置。 The object is a helmet to be worn on a wearer's head,
The motion tracker device according to claim 1, wherein the optical marker is a light emitting diode.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012245401A JP2014095557A (en) | 2012-11-07 | 2012-11-07 | Motion tracker device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012245401A JP2014095557A (en) | 2012-11-07 | 2012-11-07 | Motion tracker device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2014095557A true JP2014095557A (en) | 2014-05-22 |
Family
ID=50938757
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012245401A Pending JP2014095557A (en) | 2012-11-07 | 2012-11-07 | Motion tracker device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2014095557A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020047236A (en) * | 2018-09-19 | 2020-03-26 | 未來市股▲ふん▼有限公司 | Tracking method and tracking system employing the same |
| CN112697074A (en) * | 2020-12-10 | 2021-04-23 | 易思维(天津)科技有限公司 | Dynamic object angle measuring instrument and measuring method |
| WO2021254014A1 (en) * | 2020-06-17 | 2021-12-23 | Oppo广东移动通信有限公司 | Display calibration method, apparatus, device, and storage medium |
| US20230133168A1 (en) * | 2021-10-31 | 2023-05-04 | Hongfujin Precision Electrons (Yantai) Co., Ltd. | Method for identifying human postures and gestures for interaction purposes and portable hand-held device |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008059204A (en) * | 2006-08-30 | 2008-03-13 | Shimadzu Corp | Head motion tracker device |
| JP2008065416A (en) * | 2006-09-05 | 2008-03-21 | Shimadzu Corp | Head motion tracker device |
| JP2008289645A (en) * | 2007-05-24 | 2008-12-04 | Shimadzu Corp | Motion tracker device |
| JP2009085805A (en) * | 2007-10-01 | 2009-04-23 | Shimadzu Corp | Motion tracker device |
-
2012
- 2012-11-07 JP JP2012245401A patent/JP2014095557A/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008059204A (en) * | 2006-08-30 | 2008-03-13 | Shimadzu Corp | Head motion tracker device |
| JP2008065416A (en) * | 2006-09-05 | 2008-03-21 | Shimadzu Corp | Head motion tracker device |
| JP2008289645A (en) * | 2007-05-24 | 2008-12-04 | Shimadzu Corp | Motion tracker device |
| JP2009085805A (en) * | 2007-10-01 | 2009-04-23 | Shimadzu Corp | Motion tracker device |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020047236A (en) * | 2018-09-19 | 2020-03-26 | 未來市股▲ふん▼有限公司 | Tracking method and tracking system employing the same |
| WO2021254014A1 (en) * | 2020-06-17 | 2021-12-23 | Oppo广东移动通信有限公司 | Display calibration method, apparatus, device, and storage medium |
| CN112697074A (en) * | 2020-12-10 | 2021-04-23 | 易思维(天津)科技有限公司 | Dynamic object angle measuring instrument and measuring method |
| US20230133168A1 (en) * | 2021-10-31 | 2023-05-04 | Hongfujin Precision Electrons (Yantai) Co., Ltd. | Method for identifying human postures and gestures for interaction purposes and portable hand-held device |
| JP2023067744A (en) * | 2021-10-31 | 2023-05-16 | 鴻富錦精密電子(煙台)有限公司 | Posture recognition method, posture recognition device and storage medium |
| JP7402941B2 (en) | 2021-10-31 | 2023-12-21 | 鴻富錦精密電子(煙台)有限公司 | Posture recognition method, posture recognition device and storage medium |
| US12380726B2 (en) * | 2021-10-31 | 2025-08-05 | Hongfujin Precision Electrons (Yantai) Co., Ltd. | Method for identifying human postures and gestures for interaction purposes and portable hand-held device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5594944B2 (en) | Motion tracker device | |
| CN110458961A (en) | System based on augmented reality | |
| JP4924342B2 (en) | Motion tracker device | |
| US11360552B1 (en) | High assurance headtracking via structured light projection for head worn display (HWD) | |
| JP2009069364A (en) | Head-mounted display device and head-mounted display device system | |
| JP5292725B2 (en) | Motion tracker device | |
| US12487663B2 (en) | Wearable system with controller localization using headset cameras and controller fiducials | |
| JP2014095557A (en) | Motion tracker device | |
| JP4905321B2 (en) | Head motion tracker device | |
| JP2009036517A (en) | Head motion tracker device | |
| JP5505363B2 (en) | Motion tracker device | |
| JP4961904B2 (en) | Head motion tracker device | |
| JP5029531B2 (en) | Motion tracker system and coordinate system setting method thereof | |
| JP4905311B2 (en) | Head motion tracker system and calibration device used therefor | |
| JP5092279B2 (en) | Head motion tracker device and method of using the same | |
| JP4665872B2 (en) | Head motion tracker device | |
| JP4877138B2 (en) | Head motion tracker device | |
| JP4872768B2 (en) | Head motion tracker device | |
| JP5092300B2 (en) | Head motion tracker device | |
| JP4967546B2 (en) | Head motion tracker device | |
| JP5560600B2 (en) | Head motion tracker device | |
| JP4656016B2 (en) | Motion tracker device | |
| JP4656017B2 (en) | Head motion tracker device | |
| JP4784591B2 (en) | Motion tracker device | |
| JP2007334762A (en) | Head motion tracker device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150210 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151222 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151224 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160219 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160712 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160912 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170207 |