[go: up one dir, main page]

JP2014149794A - Line of sight analyzer - Google Patents

Line of sight analyzer Download PDF

Info

Publication number
JP2014149794A
JP2014149794A JP2013019731A JP2013019731A JP2014149794A JP 2014149794 A JP2014149794 A JP 2014149794A JP 2013019731 A JP2013019731 A JP 2013019731A JP 2013019731 A JP2013019731 A JP 2013019731A JP 2014149794 A JP2014149794 A JP 2014149794A
Authority
JP
Japan
Prior art keywords
movement
calculation unit
line
sight
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013019731A
Other languages
Japanese (ja)
Other versions
JP6199038B2 (en
Inventor
Mitsuo Yamada
光穗 山田
Tatsuya Shinkawa
達矢 新川
Yushi Akahori
優志 赤堀
Kei Kikuchi
慧 菊池
Eiki Wakamatsu
英輝 若松
Hideaki Takahira
英朗 高比良
Ryoichi Ishikawa
諒一 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai University
Original Assignee
Tokai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai University filed Critical Tokai University
Priority to JP2013019731A priority Critical patent/JP6199038B2/en
Publication of JP2014149794A publication Critical patent/JP2014149794A/en
Application granted granted Critical
Publication of JP6199038B2 publication Critical patent/JP6199038B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】従来の視線の分析において、手が大きく動いても、頭部運動と眼球運動とを合成した視線の動きがほぼ静止しているときは、手が動く前に注視していた部分を注視し続けていると誤認識する可能性がある。
【解決手段】被験者の視線を分析する視線分析装置について開示する。視線分析装置は頭部運動算出部と眼球運動算出部と視線方向算出部と対象運動算出部と視点算出部とを有する。頭部運動算出部は頭部の回転運動による頭部の回転移動角を算出し、眼球運動算出部は眼球の運動による眼球の回転角を算出し、視線方向算出部は算出された回転移動角と算出された回転角とにより被験者の視線の方向の移動角を算出し、対象運動算出部は対象物の運動による視線移動相当の移動角を算出し、視点算出部は視線方向算出部により算出された移動角と対象運動算出部により算出された移動角とにより被験者の視線による視点の移動を算出する。
【選択図】図1
[PROBLEMS] In the conventional gaze analysis, even if the hand moves greatly, if the gaze movement combining head movement and eye movement is almost stationary, the part of the gaze before the hand moves There is a possibility of misrecognizing that you keep watching.
Disclosed is a gaze analyzing apparatus for analyzing a gaze of a subject. The line-of-sight analysis apparatus includes a head movement calculation unit, an eye movement calculation unit, a line-of-sight direction calculation unit, a target movement calculation unit, and a viewpoint calculation unit. The head movement calculation unit calculates the rotation angle of the head due to the rotation of the head, the eye movement calculation unit calculates the rotation angle of the eyeball due to the movement of the eye, and the gaze direction calculation unit calculates the calculated rotation movement angle. The movement angle in the gaze direction of the subject is calculated based on the calculated rotation angle, the target motion calculation unit calculates a movement angle equivalent to the gaze movement due to the motion of the target object, and the viewpoint calculation unit is calculated by the gaze direction calculation unit The movement of the viewpoint based on the line of sight of the subject is calculated based on the calculated movement angle and the movement angle calculated by the target motion calculation unit.
[Selection] Figure 1

Description

本発明は、視線の分析装置などに関する。特に本発明は、被験者の頭部の運動、眼球の運動及び視認対象物の移動を考慮して視線を分析する装置などに関する。   The present invention relates to a line-of-sight analysis apparatus and the like. In particular, the present invention relates to an apparatus for analyzing a line of sight in consideration of movement of a subject's head, movement of an eyeball, and movement of an object to be viewed.

従来、視線の動きを評価する場合、眼球運動測定装置と頭部運動測定装置を用いて、眼球運動と頭部運動とを合成した視線の動きが分析されていた(例えば、特許文献1参照)。   Conventionally, when evaluating the movement of the line of sight, the movement of the line of sight that combines the eye movement and the head movement has been analyzed using an eye movement measurement device and a head movement measurement device (see, for example, Patent Document 1). .

一方、携帯端末の普及に伴い、携帯端末の表示画面に表示される文字などを読む読書行動を行う割合が増えてきている。   On the other hand, with the widespread use of mobile terminals, the proportion of reading behavior that reads characters displayed on the display screen of mobile terminals has increased.

特公平4−46570号公報Japanese Examined Patent Publication No. 4-46570

通常、携帯端末の表示画面の視認の際には、携帯端末が手で保持される。このため、携帯端末の表示画面に表示される文字などの読書行動においては、手の動きも関与すると考えられる。しかし、そのような手の動きを考慮した研究は行われていない。そのため、携帯端末などを把持している手が大きく動いたとしても、頭部運動と眼球運動とを合成した視線の動きがほぼ静止しているときは、手が動く前に注視していた部分を注視し続けていると誤認識する可能性がある。   Usually, when visually recognizing the display screen of the mobile terminal, the mobile terminal is held by hand. For this reason, it is considered that hand movement is also involved in reading behavior such as characters displayed on the display screen of the mobile terminal. However, no studies have been conducted that take such hand movements into account. Therefore, even if the hand holding the mobile device moves greatly, if the movement of the line of sight combining the head movement and eye movement is almost stationary, the part that was gazing before the hand moved There is a possibility of misrecognizing that he keeps watching.

本発明の一実施形態として、対象物に視線を向ける被験者の視線を分析する視線分析装置について開示する。視線分析装置は、頭部運動算出部と、眼球運動算出部と、視線方向算出部と、対象運動算出部と、視点算出部とを有する。頭部運動算出部は、頭部の回転運動による頭部の回転移動角を算出する。また、頭部運動算出部は、頭部の移動運動による頭部の回転移動角を算出してもよい。眼球運動算出部は、眼球の運動による眼球の回転角を算出する。視線方向算出部は、頭部運動算出部により算出された回転移動角と眼球運動算出部により算出された回転角とにより被験者の視線の方向の移動角を算出する。対象運動算出部は、対象物の運動による移動から被験者より観察した場合の視線移動相当の移動角を算出する。視点算出部は、視線方向算出部により算出された移動角と対象運動算出部により算出された移動角とにより被験者が対象物に向けている視線による視点の移動を算出する。   As one embodiment of the present invention, a line-of-sight analysis device for analyzing the line of sight of a subject who turns his line of sight toward an object is disclosed. The line-of-sight analysis device includes a head movement calculation unit, an eye movement calculation unit, a line-of-sight direction calculation unit, a target movement calculation unit, and a viewpoint calculation unit. The head movement calculation unit calculates the rotational movement angle of the head due to the rotational movement of the head. The head movement calculation unit may calculate the rotational movement angle of the head due to the movement movement of the head. The eye movement calculation unit calculates the rotation angle of the eyeball due to the eye movement. The line-of-sight direction calculation unit calculates a movement angle in the direction of the line of sight of the subject based on the rotational movement angle calculated by the head movement calculation unit and the rotation angle calculated by the eye movement calculation unit. The target motion calculation unit calculates a movement angle corresponding to the movement of the line of sight when observed from the subject based on the movement of the target object. The viewpoint calculation unit calculates the movement of the viewpoint by the line of sight toward the object by the subject based on the movement angle calculated by the line-of-sight direction calculation unit and the movement angle calculated by the target motion calculation unit.

本発明の一実施形態として、対象物に視線を向ける被験者の視線を分析する視線分析装置による視線分析方法を開示する。視線分析装置は、頭部運動算出部と、眼球運動算出部と、視線方向算出部と、対象運動算出部とを有する。頭部運動算出部は、頭部の回転運動による頭部の回転移動角を算出する。また、頭部運動算出部は、頭部の移動運動による頭部の回転移動角を算出してもよい。眼球運動算出部は、眼球の運動による眼球の回転角を算出する。視線方向算出部は、頭部運動算出部により算出された回転移動角と眼球運動算出部により算出された回転角とにより被験者の視線の方向の移動角を算出する。対象運動算出部は、対象物の運動による移動から被験者より観察した場合の視線移動相当の移動角を算出する。視線分析方法は、視線方向算出部により算出された移動角と対象運動算出部により算出された移動角とにより被験者が対象物に向けている視線による視点の移動を算出することを含む。   As one embodiment of the present invention, a line-of-sight analysis method by a line-of-sight analysis apparatus that analyzes the line of sight of a subject who turns his line of sight toward an object is disclosed. The line-of-sight analysis apparatus includes a head movement calculation unit, an eye movement calculation unit, a line-of-sight direction calculation unit, and a target movement calculation unit. The head movement calculation unit calculates the rotational movement angle of the head due to the rotational movement of the head. The head movement calculation unit may calculate the rotational movement angle of the head due to the movement movement of the head. The eye movement calculation unit calculates the rotation angle of the eyeball due to the eye movement. The line-of-sight direction calculation unit calculates a movement angle in the direction of the line of sight of the subject based on the rotational movement angle calculated by the head movement calculation unit and the rotation angle calculated by the eye movement calculation unit. The target motion calculation unit calculates a movement angle corresponding to the movement of the line of sight when observed from the subject based on the movement of the target object. The line-of-sight analysis method includes calculating the movement of the viewpoint by the line of sight toward the object by the subject based on the movement angle calculated by the line-of-sight direction calculation unit and the movement angle calculated by the target motion calculation unit.

本発明によれば、対象物の運動を検出するので、例えば対象物が携帯端末である場合の表示内容を読んでいるときなどに生じる対象物の運動を算出し、視線の動きに換算し、視線の動きに換算された対象物の運動を頭部運動・眼球運動の算出の結果と合成することができる。これにより携帯端末などの表示内容を読む際の視線の動きに寄与する頭部運動、眼球運動、対象物の動きを表示などして視線の動きを評価することができる。   According to the present invention, since the movement of the object is detected, for example, the movement of the object that occurs when reading the display content when the object is a mobile terminal is calculated, converted into the movement of the line of sight, The movement of the object converted into the movement of the line of sight can be combined with the result of the calculation of the head movement and the eye movement. Thereby, the movement of the line of sight can be evaluated by displaying the head movement, the eye movement, the movement of the object, etc. that contribute to the movement of the line of sight when reading the display content of the portable terminal or the like.

本発明の一実施形態に係る視線分析装置の機能ブロック図Functional block diagram of a line-of-sight analysis apparatus according to an embodiment of the present invention 本発明の一実施形態に用いることができる磁気センサの一原理を説明するための図The figure for demonstrating the principle of the magnetic sensor which can be used for one Embodiment of this invention 本発明の一実施形態において、頭部運動を表わすパラメータを説明するための図The figure for demonstrating the parameter showing head movement in one Embodiment of this invention. 本発明の一実施形態において、眼球運動を検出する一原理を説明するための図The figure for demonstrating one principle which detects eye movement in one Embodiment of this invention. 本発明の一実施形態において、携帯端末の運動を検出している様子の一例図An example figure of a mode that movement of a portable terminal is detected in one embodiment of the present invention. 本発明の一実施形態において、携帯端末の運動を表わすパラメータの算出を説明するための図The figure for demonstrating calculation of the parameter showing the exercise | movement of a portable terminal in one Embodiment of this invention. 本発明の一実施形態に係る視線分析装置の処理のフローチャートThe flowchart of the process of the visual axis analyzer which concerns on one Embodiment of this invention. 本発明の一実施形態に係る視線分析装置により注視点を検出する一原理を説明するための図The figure for demonstrating one principle which detects a gaze point by the gaze analyzer which concerns on one Embodiment of this invention. 本発明の一実施形態に係る視線分析装置により視点の移動を示した一例図1 is a diagram showing an example of viewpoint movement by a line-of-sight analysis apparatus according to an embodiment of the present invention.

以下、本発明を実施するための形態を、実施形態として説明する。なお、本発明は以下に説明する実施形態に限定されることはなく、種々の変形を行って実施することが可能である。   Hereinafter, embodiments for carrying out the present invention will be described as embodiments. The present invention is not limited to the embodiments described below, and can be implemented with various modifications.

(実施形態1)
図1は、本発明の一実施形態に係る視線分析装置の機能ブロック図を示す。視線分析装置100は、頭部運動検出部101と、頭部運動算出部102と、眼球運動検出部103と、眼球運動算出部104と、対象物運動検出部105と、対象物運動算出部106と、視線方向算出部107と、視点算出部108とを有する。
(Embodiment 1)
FIG. 1 is a functional block diagram of a visual line analyzer according to an embodiment of the present invention. The line-of-sight analysis apparatus 100 includes a head movement detection unit 101, a head movement calculation unit 102, an eye movement detection unit 103, an eye movement calculation unit 104, an object movement detection unit 105, and an object movement calculation unit 106. And a gaze direction calculation unit 107 and a viewpoint calculation unit 108.

頭部運動検出部101は、頭部の運動を検出する。頭部は、被験者の頭部である。被験者とは、視線分析装置100により視点の位置が測定される対象者である。被験者の頭部は、頭部運動検出部101により頭部の動きが検出される。被験者は、次に説明する眼球運動検出部103により眼球の動きが検出される。また、対象物が、被験者の把持し視認の対象となる携帯端末や書籍などである場合、後に説明する対象物運動検出部105により被験者が把持する対象物の動きも検出される。これにより、間接的に被験者の手の動きが検出される。   The head movement detection unit 101 detects head movement. The head is the head of the subject. The subject is a subject whose viewpoint position is measured by the line-of-sight analysis apparatus 100. The head movement of the subject's head is detected by the head movement detection unit 101. The subject's movement of the eyeball is detected by an eyeball detection unit 103 described below. Further, when the target object is a portable terminal or a book to be grasped and visually recognized by the subject, the motion of the target object gripped by the subject is also detected by the target object motion detection unit 105 described later. Thereby, the motion of the subject's hand is indirectly detected.

頭部運動検出部101は、磁気センサや加速度センサを用いて被験者の頭部の運動を検出する。図2は、磁気センサによる頭部などの運動を検出する一原理を説明するための図である。磁気センサの動作は、磁界内を導体が横切ると起電力が発生する電磁誘導の原理に基づいている。図2に示すように、ドライブ回路201により交流電圧を、直交する3方向に巻いたコイルにより構成されるソースコイル202に、印加することにより、交流磁界203を発生させる。この磁界203内を、同様に直交する3方向に巻いたセンサコイル205が移動すると、その動きに応じて、センサコイル205の3方向に巻かれたコイルそれぞれの起電力が変化する。この起電力を検出回路206が検出し、コンピュータ204により分析を行うことにより、水平、上下及び前後方向の直線加速度と、ロール角、ピッチ角及びヨー角の角加速度を検出し出力することができる。   The head movement detection unit 101 detects the movement of the subject's head using a magnetic sensor or an acceleration sensor. FIG. 2 is a diagram for explaining a principle of detecting movement of the head or the like by the magnetic sensor. The operation of the magnetic sensor is based on the principle of electromagnetic induction in which an electromotive force is generated when a conductor crosses the magnetic field. As shown in FIG. 2, an AC magnetic field 203 is generated by applying an AC voltage to a source coil 202 composed of coils wound in three orthogonal directions by a drive circuit 201. Similarly, when the sensor coil 205 wound in three orthogonal directions moves in the magnetic field 203, the electromotive force of each of the coils wound in the three directions of the sensor coil 205 changes in accordance with the movement. By detecting this electromotive force by the detection circuit 206 and analyzing it by the computer 204, it is possible to detect and output the linear acceleration in the horizontal, vertical and longitudinal directions and the angular acceleration of the roll angle, pitch angle and yaw angle. .

なお、回転方向と直線方向の加速度を測ることができるセンサであれば、加速度センサは他の原理を用いるセンサを用いても構わない。また、頭部運動検出部101は、被験者の頭部の位置を連続的に測定することが可能であればよい。例えば、光学的な手段により被験者の頭部を複数個所から撮影し、頭部の位置を測定してもよい。また、超音波の反射などを用いて被験者の頭部の位置を測定してもよい。   As long as the sensor can measure the acceleration in the rotation direction and the linear direction, the acceleration sensor may be a sensor using another principle. Moreover, the head movement detection part 101 should just be able to measure the position of a test subject's head continuously. For example, the head of the subject may be photographed from a plurality of locations by optical means, and the position of the head may be measured. Further, the position of the subject's head may be measured using ultrasonic reflection or the like.

頭部運動算出部102は、頭部運動検出部101による被験者の頭部運動の検出の結果により、被験者の頭部の運動による移動量を算出する。具体的には、磁気センサが用いられる場合には、磁気センサの出力する加速度をαとし偏位量をx、時間をtとすると、α=dx/dtとして加速度αは偏位量の時間方向の2次微分で表されるので、加速度αを時間で2回積分することにより移動量が得られる。また、頭部運動の基準となる位置(例えばt=0におけるセンサなどの位置)にこの移動量を加えると現在の位置を算出することができる。 The head movement calculation unit 102 calculates the amount of movement due to the movement of the head of the subject based on the result of detection of the head movement of the subject by the head movement detection unit 101. Specifically, when a magnetic sensor is used, if the acceleration output by the magnetic sensor is α, the displacement amount is x, and the time is t, then α = d 2 x / dt 2 and the acceleration α is the displacement amount. Therefore, the amount of movement can be obtained by integrating the acceleration α twice over time. Further, the current position can be calculated by adding this amount of movement to a position that is a reference for head movement (for example, a position of a sensor or the like at t = 0).

また、頭部運動検出部101が光学的な手段などにより被験者の頭部の位置を連続的に測定することができる場合には、現在の測定結果と直前の測定結果とを比較することにより、被験者の頭部の運動による移動量を算出する。   Further, when the head movement detection unit 101 can continuously measure the position of the subject's head by optical means or the like, by comparing the current measurement result with the previous measurement result, The amount of movement due to the movement of the subject's head is calculated.

頭部運動算出部102が算出する移動量の一例としては、被験者の頭部の水平回転量Hψ、垂直回転量Hφ、傾き量Hθがある。なお、ここに「左右」、「上下」及び「前後」それぞれは、互いに直交する方向である。これらの方向は適宜定義可能であるが、上下の方向は鉛直方向と一致させ、左右の方向は被験者にとっての左右の方向と一致させ、前後の方向は被験者にとっての前後の方向と一致させるのがよい。この場合、対象物は被験者からみて前方の方向に位置することにできる。   Examples of the movement amount calculated by the head movement calculation unit 102 include a horizontal rotation amount Hψ, a vertical rotation amount Hφ, and an inclination amount Hθ of the subject's head. Here, “left and right”, “up and down” and “front and back” are directions orthogonal to each other. These directions can be defined as appropriate, but the up and down directions should match the vertical direction, the left and right directions should match the left and right directions for the subject, and the front and back directions should match the front and back directions for the subject. Good. In this case, the object can be positioned in the forward direction as viewed from the subject.

また、被験者の上体が自由に動かせることができる場合には、後に説明する実施形態2におけるように、頭部の左右方向移動量Hx、上下方向移動量Hy及び前後方向移動量Hzを算出することもできる。実施形態1においては、被験者がソファーに深く腰掛けている場合や電車座席などで左右に人がいるために上体が自由に動かせない場合を主に説明する。   Further, when the upper body of the subject can be freely moved, as in Embodiment 2 described later, the horizontal movement amount Hx, the vertical movement amount Hy, and the longitudinal movement amount Hz of the head are calculated. You can also In the first embodiment, a case where the subject sits deeply on the sofa or a case where the upper body cannot be moved freely because there are people on the left and right in a train seat or the like will be mainly described.

図3は、Hψ、Hφ及びHθの定義の一例を示す。図3(a)に示すように被験者の頭頂部301に磁気センサなどのセンサが設置されている場合、センサが検出するロール角、ピッチ角、ヨー角から、図3(a)に示すように、被験者が頭頂部301を中心に水平方向に回転させた角度をHψとし、図3(b)に示すように、被験者が頭部を前後に傾けた角度をHφとし、被験者が頭部を左右に傾けた角度をHθと定義することができる。なお、Hψの測定の中心は頭頂部301であり、Hφ及びHθの測定の中心は、被験者の首の部分の位置302とすることができる。   FIG. 3 shows an example of the definition of Hψ, Hφ, and Hθ. As shown in FIG. 3A, when a sensor such as a magnetic sensor is installed on the subject's parietal portion 301 as shown in FIG. 3A, from the roll angle, pitch angle, and yaw angle detected by the sensor, as shown in FIG. The angle that the subject rotates in the horizontal direction around the top of the head 301 is Hψ, and the angle that the subject tilts the head back and forth is Hφ, as shown in FIG. The angle inclined to can be defined as Hθ. It should be noted that the center of measurement of Hψ is the crown 301, and the center of measurement of Hφ and Hθ can be the position 302 of the neck portion of the subject.

眼球運動検出部103は、被験者の眼球運動を検出する。この検出には、通常の眼球運動測定装置を使用することができる。例えば、角膜反射方式を用いた眼球運動測定装置を使用することができる。   The eye movement detection unit 103 detects the eye movement of the subject. For this detection, a normal eye movement measuring device can be used. For example, an eye movement measuring device using a corneal reflection method can be used.

図4は、角膜反射方式を用いた眼球運動の検出原理について説明する図である。なお、眼球運動測定装置については、様々な検出原理に基づいた製品が市販されており、そのいずれも用いることができる。   FIG. 4 is a diagram for explaining the detection principle of eye movement using the corneal reflection method. As for the eye movement measuring device, products based on various detection principles are commercially available, and any of them can be used.

角膜反射方式は、眼球部をカメラで撮影するなどして反射光を測定して眼球の回転角を検出する方式である。まず、図4(b)に示すように、スポットランプ405により被験者の目の部分に赤外光を照射し、観察者の目の部分を撮影する。図4(a)は撮影された画像401の一例を示す。図4(b)を参照すると、被験者の虹彩、角膜404を通り眼球403の中に入った赤外光は、眼球403の角膜404の反対側の網膜で反射し、再び虹彩によって絞られた瞳孔部分から出射し、明るく白い瞳孔像410として撮影される。一方、観察者の目に照射された赤外光は、角膜の表面で反射し、明るい白い虚像402としても撮影される。眼球の回転中心Oと角膜404及び407の回転中心O’とが異なるため、眼球403が回転すると、虚像408に対応する白い円402、すなわち角膜からの反射光点の位置がずれ、それが眼球運動量409として検出される。それに対して、眼球運動ではなく身体や体の動きに対しては、先の瞳孔像410の中心、すなわち瞳孔の中心と、角膜からの反射光点は同時に同じ方向、量だけ動くので、頭部などの運動の影響を受けずに眼球運動量409を測定することができる。   The corneal reflection method is a method of detecting the rotation angle of the eyeball by measuring reflected light by photographing the eyeball portion with a camera or the like. First, as shown in FIG. 4B, infrared light is irradiated to the eye part of the subject by the spot lamp 405 to photograph the eye part of the observer. FIG. 4A shows an example of a captured image 401. Referring to FIG. 4 (b), the infrared light that has passed through the subject's iris and cornea 404 and entered the eyeball 403 is reflected by the retina on the opposite side of the cornea 404 of the eyeball 403, and the pupil is again constricted by the iris. The light exits from the portion and is photographed as a bright white pupil image 410. On the other hand, the infrared light irradiated to the eyes of the observer is reflected on the surface of the cornea and is also photographed as a bright white virtual image 402. Since the rotation center O of the eyeball is different from the rotation center O ′ of the corneas 404 and 407, when the eyeball 403 rotates, the position of the white circle 402 corresponding to the virtual image 408, that is, the position of the reflected light spot from the cornea is shifted. Detected as momentum 409. On the other hand, for the movement of the body and body instead of the eye movement, the center of the previous pupil image 410, that is, the center of the pupil and the reflected light point from the cornea simultaneously move in the same direction and amount, so that the head The eye movement amount 409 can be measured without being influenced by such movement.

眼球運動算出部104は、眼球運動検出部103により検出された眼球運動から、水平方向の視線の移動角と垂直方向の視線の移動角とを算出する。その算出の結果をそれぞれXe、Yeとする。   The eye movement calculation unit 104 calculates a horizontal line-of-sight movement angle and a vertical line-of-sight movement angle from the eye movement detected by the eye movement detection unit 103. The calculation results are Xe and Ye, respectively.

視線方向算出部107は、被験者の視線の方向を算出する。Xe、Yeは、被験者の頭部を基準とした方向を示している。そこで、Xe、Yeに加えてHψ、Hφ、Hθを考慮することにより、例えば被験者の頭部の運動の中心である首の部分302を基準とする座標軸における視線の移動角を算出することができる。   The line-of-sight direction calculation unit 107 calculates the direction of the line of sight of the subject. Xe and Ye indicate directions based on the subject's head. Therefore, by considering Hψ, Hφ, and Hθ in addition to Xe and Ye, for example, the line-of-sight movement angle on the coordinate axis with reference to the neck portion 302 that is the center of movement of the subject's head can be calculated. .

具体的には、視線方向算出部107は、次の式により、視線の移動角(Fx,Fy)を算出する。
Fx = Xe'+Hψ
Fy = Ye'+Hφ
ただし、(Xe',Ye')は(Xe',Ye')=(Xe,Ye)rot(Hθ)と定義され、ベクトル(Xe,Ye)をHθだけ回転させたベクトルである。これは、頭部をHθ傾けたときの視線の水平方向と垂直方向の視線の移動角を表わす。
Specifically, the line-of-sight direction calculation unit 107 calculates the line-of-sight movement angle (Fx, Fy) by the following equation.
Fx = Xe '+ Hψ
Fy = Ye '+ Hφ
However, (Xe ′, Ye ′) is defined as (Xe ′, Ye ′) = (Xe, Ye) rot (Hθ), and is a vector obtained by rotating the vector (Xe, Ye) by Hθ. This represents the movement angle of the line of sight in the horizontal and vertical directions when the head is tilted by Hθ.

すなわち、頭部運動の回転角は、Hψが水平方向の眼球回転角、Hφが垂直方向の眼球回転角に相当するので、直接換算できる。一方、Hθは首の傾きに相当する。眼球回転角としては、いわゆるTorsion(回旋運動)に相当するが、一般に人の目の動きとしてTorsionはほとんど生じない。しかし、首が傾いていると、対象物に向かっての水平方向、垂直方向の眼球回転角の意味が異なってくるため、本発明の一実施形態では、検出された眼球回転角に対してHθだけ、座標軸を回転させ、対象物に対する水平方向成分、垂直方向成分に換算して加算を行う。   That is, the rotation angle of head movement can be directly converted because Hψ corresponds to the horizontal eyeball rotation angle and Hφ corresponds to the vertical eyeball rotation angle. On the other hand, Hθ corresponds to the inclination of the neck. The eye rotation angle corresponds to so-called Torsion (rotational movement), but in general, Torsion hardly occurs as a human eye movement. However, when the neck is tilted, the meaning of the eyeball rotation angle in the horizontal direction and the vertical direction toward the target object is different. Therefore, in one embodiment of the present invention, Hθ with respect to the detected eyeball rotation angle. Therefore, the coordinate axis is rotated, converted into a horizontal component and a vertical component with respect to the object, and added.

対象物運動検出部105は、被験者の視認する対象物の運動を検出する。対象物が携帯電話であれば、例えば図5に示すように被験者が左手501で所持している携帯端末600の背面などにセンサ603を設置し、センサ603に接続された配線502を介して信号を受信することにより、携帯電話600の運動を検出することができる。センサ603としては、上述の原理に基づく磁気センサを用いることができる。   The object motion detection unit 105 detects the motion of the object visually recognized by the subject. If the object is a mobile phone, for example, as shown in FIG. 5, a sensor 603 is installed on the back surface of the mobile terminal 600 held by the subject with the left hand 501, and a signal is transmitted via the wiring 502 connected to the sensor 603. The movement of the mobile phone 600 can be detected by receiving. As the sensor 603, a magnetic sensor based on the above principle can be used.

対象物運動算出部106は、対象物運動検出部105による対象物の運動の検出の結果から、対象物の移動量を算出する。通常は、図5に示されるように、被験者は視線とほぼ直交する平面に携帯端末を把持する。そこで、対象物が携帯端末のように平面形状のディスプレイ面を有している場合には、ディプレイ面をXY−平面と定義し、XY−平面における対象物の移動量であるΔx及びΔyを算出し、後に説明するように、被験者から観察される移動角に換算する。また、対象物運動算出部106は、XY−平面と垂直な方向のZ軸方向における対象物の移動量であるΔz及びXYZ座標における位置を算出することができる。以下、手の移動量を、被験者から観察される移動角に換算する方法について、説明する。   The object motion calculation unit 106 calculates the amount of movement of the object from the result of detection of the object motion by the object motion detection unit 105. Usually, as shown in FIG. 5, the subject holds the portable terminal on a plane substantially orthogonal to the line of sight. Therefore, when the object has a flat display surface like a portable terminal, the display surface is defined as an XY-plane, and Δx and Δy, which are movement amounts of the object in the XY-plane, are defined. Calculated and converted to a moving angle observed by the subject as will be described later. Further, the object motion calculation unit 106 can calculate Δz that is the amount of movement of the object in the Z-axis direction perpendicular to the XY-plane and the position in the XYZ coordinates. Hereinafter, a method for converting the movement amount of the hand into the movement angle observed from the subject will be described.

なお、磁気センサの検出する3軸方向は、ソースの位置、センサの取り付け位置に依存し、必ずしも、携帯端末を把持した際の面のXY−平面と平行にならない。そこでまず携帯端末の表示面のXY−平面を決定する。そのために、被験者が携帯端末を把持した状態で、任意の量だけ、X方向、Y方向に順に移動させ、そのときに取得した座標位置から、磁気センサで検出された座標をXY−平面に換算する式fを算出する。一般に、平面は3点の座標から決定できる。そこで、
(X,Y,Z)=f(Mx,My,Mz)
という関係式により、磁気センサの検出する3軸方向における座標をXY−平面及びそれに垂直なZ軸から構成される3軸方向における座標に変換する。なお、Mx,My,Mzは磁気センサが出力する移動量であり、この移動量は磁気ソースに対する磁気センサの水平、垂直、奥行き移動量となる。これらの移動量を上記の手段によって得た換算式fにより、XYZ座標軸での移動量に変換できる。
Note that the three-axis directions detected by the magnetic sensor depend on the position of the source and the mounting position of the sensor, and are not necessarily parallel to the XY-plane of the surface when the portable terminal is gripped. Therefore, first, the XY-plane of the display surface of the mobile terminal is determined. For this purpose, the subject is moved in the X direction and the Y direction by an arbitrary amount while holding the portable terminal, and the coordinates detected by the magnetic sensor are converted into the XY-plane from the coordinate position acquired at that time. The following equation f is calculated. In general, the plane can be determined from the coordinates of three points. there,
(X, Y, Z) = f (Mx, My, Mz)
Based on the relational expression, the coordinate in the three-axis direction detected by the magnetic sensor is converted into the coordinate in the three-axis direction composed of the XY-plane and the Z-axis perpendicular thereto. Mx, My, and Mz are movement amounts output from the magnetic sensor, and the movement amounts are horizontal, vertical, and depth movement amounts of the magnetic sensor with respect to the magnetic source. These movement amounts can be converted into movement amounts on the XYZ coordinate axes by the conversion formula f obtained by the above means.

XY−平面の決定後、携帯端末のX、Y方向の移動量Δx、Δyを被験者から観察される移動角に換算する過程を、Δyを例にとり説明する。図6は、被験者が、ディスプレイ面601とセンサ603が取り付けられた裏面602とを有する携帯端末600を把持するときの移動量から視線の動き(被験者より観察した場合の移動角)に換算する原理について説明する図である。一般に携帯端末を見ている時、目すなわち視線から下ろした垂線に直角になるように携帯端末を把持する。この様にしてみると画面の隅々まで最も目で見た画面の歪みを小さくすることができる。そこで、Δyは縦書きの場合、改行と文章を読み進む場合に生じ、横書きでは改行の際に生じる動きであると考えられる。Dは目とディスプレイ面との距離である。Dの値は、頭部運動算出部102による頭部の位置の算出結果と対象物運動算出部106による対象物の位置の算出結果とから算出することができる。また、Hnφは水平方向の被験者から観察される移動角のうちY方向の角度である。次式によってΔyは、手の移動量を被験者から観察される移動角(単位はラジアン)に換算した量を示すHnφに、換算される。
Hnφ=tan−1(Δy/D)
Δxに関しても
Hnψ=tan−1(Δx/D)
により、水平方向の被験者から観察される移動角Hnψ(単位はラジアン)に換算できる。なお、対象物の奥行き方向の動きΔzは、携帯端末などの対象物を把持するような状況では、腕の可動範囲の関係で、ほとんど変化しないため無視することができる。ただし、より正確に視線の分析を行う場合には、前述のDにΔzとHz(頭部の奥行き移動量、後述)を加え、目と携帯端末までの距離を補正してもよい。
After determining the XY-plane, the process of converting the movement amounts Δx and Δy in the X and Y directions of the mobile terminal into the movement angles observed from the subject will be described by taking Δy as an example. FIG. 6 shows the principle of converting the movement amount when the subject grips the portable terminal 600 having the display surface 601 and the back surface 602 to which the sensor 603 is attached into the movement of the line of sight (movement angle when observed from the subject). It is a figure explaining about. In general, when looking at a portable terminal, the portable terminal is held so as to be perpendicular to the eyes, that is, a perpendicular line drawn from the line of sight. In this way, it is possible to reduce the distortion of the screen that is most viewed to every corner of the screen. Therefore, Δy is considered to be a movement that occurs when reading a line feed and a sentence in vertical writing, and a movement that occurs at the time of line breaking in horizontal writing. D is the distance between the eyes and the display surface. The value of D can be calculated from the calculation result of the position of the head by the head movement calculation unit 102 and the calculation result of the position of the target by the target movement calculation unit 106. Hnφ is an angle in the Y direction among the movement angles observed from the subject in the horizontal direction. Δy is converted into Hnφ indicating the amount obtained by converting the movement amount of the hand into the movement angle (unit: radians) observed from the subject.
Hnφ = tan −1 (Δy / D)
As for Δx, Hnψ = tan −1 (Δx / D)
Can be converted into a movement angle Hnψ (unit is radians) observed from the subject in the horizontal direction. It should be noted that the movement Δz in the depth direction of the object can be ignored in a situation where the object such as a portable terminal is gripped, because it hardly changes due to the movable range of the arm. However, in the case of analyzing the line of sight more accurately, Δz and Hz (the depth movement amount of the head, which will be described later) may be added to D described above to correct the distance between the eyes and the mobile terminal.

また、対象物算出部106は、対象物の移動を被験者から観察した場合の移動角を算出するので、例えば被験者のメガネなどに装着されたカメラから対象物を撮影し、最新の撮影結果と直前の撮影結果とから対象物の移動角を算出することもできる。この場合、対象物運動検出部105は、被験者のメガネなどに装着されたカメラの撮影した画像信号を取得することになる。   Further, the object calculation unit 106 calculates a movement angle when the movement of the object is observed from the subject, so that the object is photographed from a camera attached to the subject's glasses, for example, and the latest photographing result and immediately before The moving angle of the object can also be calculated from the shooting result of. In this case, the object motion detection unit 105 acquires an image signal captured by a camera attached to the subject's glasses or the like.

視点算出部108は、視線方向算出部107により算出された視線の移動量(Fx,Fy)と対象物運動算出部106により算出された対象物の運動の量とから、被験者の視点に関する情報を算出する。   The viewpoint calculation unit 108 obtains information on the viewpoint of the subject from the movement amount (Fx, Fy) of the line of sight calculated by the line-of-sight direction calculation unit 107 and the amount of movement of the object calculated by the object movement calculation unit 106. calculate.

本発明の一実施形態においては、携帯端末などの対象物を被験者から観察した場合の移動角を算出している。このため視点算出部108は、上述のようにΔx及びΔyをHnψ及びHnφに換算し、
Gx=Fx+Hnψ
Gy=Fy+Hnφ
により、被験者が対象物に向けている視点の方向である視線の方向を算出する。視点算出部108は、眼球の位置からベクトル(Gx,Gy)に平行に延長される直線と対象物との交点として視点を算出することができる。また、視点算出部108は、ベクトル(Gx,Gy)の時間変化に応じて視点の移動(移動量、移動方向)を算出することができる。
In one embodiment of the present invention, the movement angle when an object such as a portable terminal is observed from a subject is calculated. Therefore, the viewpoint calculation unit 108 converts Δx and Δy to Hnψ and Hnφ as described above,
Gx = Fx + Hnψ
Gy = Fy + Hnφ
Thus, the direction of the line of sight, which is the direction of the viewpoint that the subject faces the object, is calculated. The viewpoint calculation unit 108 can calculate the viewpoint as an intersection of a straight line extending in parallel with the vector (Gx, Gy) from the position of the eyeball and the object. In addition, the viewpoint calculation unit 108 can calculate the movement (movement amount, movement direction) of the viewpoint according to the time change of the vector (Gx, Gy).

図7は、視線分析装置100における処理の流れを説明するフローチャートである。ステップS701において、頭部運動検出部101により被験者の頭部運動を検出し、ステップS702において、眼球運動検出部103により被験者の眼球運動を検出し、ステップS703において、対象物運動検出部105により対象物の運動を検出する。   FIG. 7 is a flowchart for explaining the flow of processing in the line-of-sight analysis apparatus 100. In step S701, the head movement of the subject is detected by the head movement detection unit 101. In step S702, the eye movement of the subject is detected by the eye movement detection unit 103. In step S703, the target movement detection unit 105 detects the target. Detect the movement of objects.

頭部運動検出部101により被験者の頭部運動を検出した後にはステップS704に処理を移し、頭部運動算出部102により、Hψ、Hφ、Hθを算出する。また、実施形態2のように、水平方向及び垂直方向の移動角Ex及びEyを算出してもよい。   After the head movement of the subject is detected by the head movement detection unit 101, the process proceeds to step S704, and the head movement calculation unit 102 calculates Hψ, Hφ, and Hθ. Further, as in the second embodiment, the movement angles Ex and Ey in the horizontal direction and the vertical direction may be calculated.

眼球運動検出部103により被験者の眼球運動を検出した後にはステップS705に処理を移し、眼球運動算出部104により、Xe、Yeを算出する。   After the eye movement of the subject is detected by the eye movement detection unit 103, the process proceeds to step S705, and the eye movement calculation unit 104 calculates Xe and Ye.

対象物運動検出部105により対象物の運動を検出した後にはステップS706に処理を移し、対象物運動算出部106により、Hnψ、Hnφを算出する。   After the movement of the object is detected by the object movement detection unit 105, the process proceeds to step S706, and the object movement calculation unit 106 calculates Hnψ and Hnφ.

ステップS704、S705及びS706の処理の後は、ステップS704、S705及びS706の処理を統合してステップS707へ処理を移し、視線方向算出部107により、Fx、Fyを算出し、視点算出部108によりGx、Gyを被験者の視点に関する情報として算出する。   After the processes of steps S704, S705, and S706, the processes of steps S704, S705, and S706 are integrated and the process proceeds to step S707. The line-of-sight direction calculation unit 107 calculates Fx and Fy, and the viewpoint calculation unit 108 Gx and Gy are calculated as information on the viewpoint of the subject.

その後、ステップS708へ処理を移し、処理全体を終了させなければ最初に戻り、ステップS701〜S707の処理を再度実行する。   Thereafter, the process proceeds to step S708. If the entire process is not terminated, the process returns to the beginning, and the processes in steps S701 to S707 are executed again.

なお、図7のフローチャートに示す処理を行う前には、次のようにキャリブレーションを行うのが好ましい。頭部運動検出装置の出力は頭部に装着した磁気センサ等のセンサの装着状況により、3次元直交座標、回転座標の座標軸が必ずしも眼球運動の水平方向、垂直方向と一致しないため、被験者に頭部を水平、垂直方向に振らせ、座標系のキャリブレーションを行う。対象物の運動の検出のためには、XY−平面の決定として説明したように、被験者が対象物などの携帯端末を把持した状態で、任意の量だけ、X方向、Y方向に順に移動させ、そのときに取得された座標位置から、磁気センサで検出された座標を携帯端末上のXY−平面に換算する式fを算出する。次に頭部運動、眼球運動及びXY−平面のそれぞれのキャリブレーション出力から上述のGx及びGyを求める式に従い視線の方向を算出する。そして、被験者に携帯端末画面の指定した点を注視させ、そこに視線が表示されるように、Gx及びGyとして得られた方向を平行移動する。   Before performing the processing shown in the flowchart of FIG. 7, it is preferable to perform calibration as follows. The output of the head movement detection device depends on the mounting state of a sensor such as a magnetic sensor mounted on the head, and the coordinate axes of the three-dimensional orthogonal coordinates and the rotation coordinates do not necessarily coincide with the horizontal and vertical directions of the eye movement. Shake the part horizontally and vertically to calibrate the coordinate system. In order to detect the movement of the object, as described in the determination of the XY-plane, the subject is moved in the X direction and the Y direction by an arbitrary amount in order while holding the portable terminal such as the object. Then, from the coordinate position acquired at that time, an equation f for converting the coordinates detected by the magnetic sensor into the XY-plane on the portable terminal is calculated. Next, the direction of the line of sight is calculated according to the above-described equations for obtaining Gx and Gy from the respective calibration outputs of the head movement, eye movement, and XY-plane. Then, the subject is caused to gaze at the designated point on the mobile terminal screen, and the directions obtained as Gx and Gy are translated so that the line of sight is displayed there.

以上のように、本実施形態においては、被験者の頭部及び眼球の運動に加え、対象物の運動を考慮して被験者の視線を分析することができる。   As described above, in the present embodiment, the line of sight of the subject can be analyzed in consideration of the motion of the object in addition to the motion of the subject's head and eyeballs.

(実施形態2)
本発明の実施形態1においては、主に被験者が頭部を含む上体を自由に動かせない場合を想定して説明を行った。本発明の実施形態2においては、被験者が上体を自由に動かせる場合における被験者の視線の分析について説明する。
(Embodiment 2)
In the first embodiment of the present invention, the description has been mainly made on the assumption that the subject cannot freely move the upper body including the head. In the second embodiment of the present invention, analysis of the line of sight of the subject when the subject can freely move the upper body will be described.

本実施形態においては、頭部運動算出部は、頭部の水平方向移動量Hx、垂直方向移動量Hy、前後方向移動量Hzも算出する。頭部の水平方向、垂直方向及び前後方向それぞれの移動により、頭部を基準とすると、対象物がそれぞれの方向に逆に移動することとなる。したがって、被験者の頭部から対象物(例えば携帯電話のディスプレイ面)までの距離Dを用いて、水平方向及び垂直方向の移動角Ex及びEyを表わすと
Ex=tan−1(Hx/D)
Ey=tan−1(Hy/D)
となる。奥行き方向の移動量Hzに関しては、例えば携帯端末を把持して見る等の場合には、腕の可動範囲の制限からほとんど無視できる。ただし、立体映像を観察しているときや、実際に自動車を運転等している作業時においては、奥行き方向の視線移動量として利用することができる。また、より正確に測定する場合には、前述のDに、対象物の前後方向の移動量ΔzとHzと、を加え、目と対象物までの距離を補正するのが好ましい。
In the present embodiment, the head movement calculation unit also calculates the horizontal movement amount Hx, vertical movement amount Hy, and front-rear movement amount Hz of the head. By moving the head in the horizontal direction, the vertical direction, and the front-rear direction, the object moves in the opposite direction with respect to the head. Therefore, using the distance D from the subject's head to the object (for example, the display surface of a mobile phone), the horizontal and vertical movement angles Ex and Ey are expressed as follows: Ex = tan −1 (Hx / D)
Ey = tan −1 (Hy / D)
It becomes. Regarding the movement amount Hz in the depth direction, for example, when holding and viewing the mobile terminal, it can be almost ignored due to the limitation of the movable range of the arm. However, it can be used as a visual line movement amount in the depth direction when observing a stereoscopic image or during an operation of actually driving a car. For more accurate measurement, it is preferable to correct the distance between the eyes and the object by adding the amount of movement Δz and Hz of the object in the front-rear direction to the aforementioned D.

したがって、視点算出部108における視線の算出は、
Gx=Fx+Hnψ+Ex
Gy=Fy+Hnφ+Ey
として算出される。
Therefore, the gaze calculation in the viewpoint calculation unit 108 is
Gx = Fx + Hnψ + Ex
Gy = Fy + Hnφ + Ey
Is calculated as

(実施形態3)
本発明の実施形態3として、視線の速度を基準とする注視点の定義について説明する。
(Embodiment 3)
As a third embodiment of the present invention, the definition of a gazing point based on the line-of-sight speed will be described.

眼球運動は固視微動により常に小さく高速に微動していることが知られている。頭部運動も手の動きも空間内で完全に静止しているわけではなく、姿勢の保持や位置の保持のため常に微動している。そのため、これらを加算した視線は常に何らかの運動をしており完全に静止した状態はない。しかし、見たい対象を視力の最も高い網膜の中心窩で捉える場合、視線をある時間、視野内の一点にほぼ静止する必要がある。この状態を注視といい、注視される対象のある限られた範囲を注視点と言っている。しかし、一般的に視線は先に述べた理由により常時細かく変動しており、人が意識して視野のその部分から視覚情報を捉えようとしている点を注視点と考え、絶えず動いている視線の動きから注視点を取り出すには注視点の範囲を定義する必要がある。   It is known that the eye movement is always small and finely moved by fixation micromotion. Head movements and hand movements are not completely stationary in the space, but always move slightly to maintain posture and position. Therefore, the line of sight obtained by adding these is always in some motion and is not completely stationary. However, when the object to be viewed is captured in the fovea of the retina having the highest visual acuity, it is necessary to keep the line of sight almost stationary at a point in the visual field for a certain period of time. This state is called gaze, and a limited range of objects to be watched is called gaze. However, in general, the line of sight constantly fluctuates for the reasons described above, and the point that a person is consciously trying to capture visual information from that part of the field of view is considered a point of sight, and the line of sight that is constantly moving In order to extract a gaze point from movement, it is necessary to define the range of the gaze point.

眼球運動において、一点を凝視しているときにも生じる固視微動は外界から情報を入手するための大切な動きであり、眼球運動が固視微動のみを行っているときは注視成分と考えるべきである。そのほか、眼球運動の成分として跳躍運動と追従運動が知られている。跳躍運動中は視覚特性が低下するが、追従運動中にはあまり低下しないことが知られている。追従運動は運動視標を追従するときに生じ、運動視標の情報をよりよく捉えようとするための眼球運動と考えることができる。しかし運動視標の速度が増加していくと、視標に対する眼球の相対位置が次第に遅れていく。運動視標に対して遅れが少なく忠実に追従できる追従運動の眼球運動速度は毎秒5°程度であることが知られている。そこで、眼球運動から注視点を分離する手法として毎秒5°をしきい速度Vthとして、図8に示す様に、「実質的な注視点」を定義する。すなわち、ある注視点801からVthの速さで次のサンプル点に到達する距離Dthを次の様に定める。
Dth = Vth×サンプル時間間隔
図8に示す様に、Dth803を半径とする円804内に次のサンプル点802が存在するとき、その点は現在の注視点に含まれるとし実質的な注視点は変化せず、円804の外に存在したとき、実質的に新しい注視点とする。
Eye movements that occur even when staring at a single point are important movements for obtaining information from the outside world, and should be considered as a gaze component when eye movements are performed only with fixation movements. It is. In addition, jumping movement and tracking movement are known as components of eye movement. It is known that the visual characteristics are reduced during the jumping movement but not so much during the following movement. The following movement occurs when following the motion target, and can be considered as an eye movement for trying to better capture the information of the motion target. However, as the speed of the motion target increases, the relative position of the eyeball relative to the target gradually delays. It is known that the eye movement speed of the follow-up movement that can follow the movement target faithfully with little delay is about 5 ° per second. Therefore, as a method for separating the gazing point from the eye movement, a “substantial gazing point” is defined as shown in FIG. 8 with a threshold speed Vth of 5 ° per second. That is, the distance Dth to reach the next sample point at a speed of Vth from a certain gazing point 801 is determined as follows.
Dth = Vth × sample time interval As shown in FIG. 8, when a next sample point 802 exists in a circle 804 having a radius of Dth 803, it is assumed that the point is included in the current gaze point, and the substantial gaze point is When it does not change and exists outside the circle 804, a substantially new gaze point is set.

以上は眼球運動に注目して注視点の抽出について説明したものであるが、網膜上の視対象の移動という観点から考えると、眼球運動によっても、頭部運動によっても、あるいは手の動きによっても、網膜上を視対象が移動する現象は変わらない。そこで、本発明の実施形態では、眼球回転角、頭部運動、手で把持されている携帯端末の動きを総合した視線の方向Gx及びGyの変化の速度に対して、前述した注視点の定義を適用して、視線の方向Gx及びGyから注視点を分離する。これまでの眼球運動と頭部運動から視線を計算して注視点を抽出する手法では、手の動きで端末を動かして見ている時や、電車の中等で、携帯端末を把持している手が大きく動いた場合でも、眼球運動と頭部運動から算出した視線が動いていない場合には、注視点が抽出されるという不都合が生じていた。本発明の実施形態を適用することにより、眼球運動と頭部運動に加え手の動きも考慮した視線が視対象を注視したときのみを注視点として抽出できるという大きな特徴がある。   The above describes the extraction of the gazing point, focusing on the eyeball movement. From the viewpoint of the movement of the visual target on the retina, the eye movement, the head movement, or the hand movement The phenomenon that the visual target moves on the retina remains the same. Therefore, in the embodiment of the present invention, the above-described gaze point definition is defined with respect to the speed of change of the line-of-sight directions Gx and Gy including the eyeball rotation angle, head movement, and movement of the mobile terminal held by the hand. Is applied to separate the gaze point from the line-of-sight directions Gx and Gy. The conventional method of calculating the gaze from eye movements and head movements to extract the gazing point is a hand holding the mobile terminal while moving the terminal by hand movement or in a train. Even if the eye movement moves greatly, if the line of sight calculated from the eye movement and the head movement is not moving, there is a disadvantage that the gazing point is extracted. By applying the embodiment of the present invention, there is a great feature that it is possible to extract only when the line of sight considering the movement of the hand in addition to the eye movement and the head movement gazes at the visual target.

(実施形態4)
本発明の実施形態4に係る視線分析装置を用いて、上述のように注視点を抽出するとともに、視線の移動が、被験者の頭部運動、被験者の眼球運動、対象物の運動のいずれによるものであるかを判別することが可能である。例えば、視点算出部108により算出された視点が移動した場合、頭部運動算出部102、眼球運動算出部104及び対象物運動算出部106の算出の結果のうち注視点の移動量に最も寄与した結果を判別する。したがって、視線の移動が頭部運動により発生したのか、眼球運動により発生したのか、あるいは対象物の移動により発生したのかを判別することができる。
(Embodiment 4)
Using the line-of-sight analysis apparatus according to Embodiment 4 of the present invention, the gazing point is extracted as described above, and the movement of the line of sight is caused by any of the head movement of the subject, the eye movement of the subject, and the movement of the object. Can be determined. For example, when the viewpoint calculated by the viewpoint calculation unit 108 moves, it contributes most to the movement amount of the gazing point among the calculation results of the head movement calculation unit 102, the eye movement calculation unit 104, and the object movement calculation unit 106. Determine the result. Therefore, it is possible to determine whether the movement of the line of sight is caused by the head movement, the eye movement, or the movement of the object.

言い換えると、対象物の表面と視点の方向に延びる直線との交点を求めることにより被験者の視点が対象物の表面のどの位置にあるかを表示することができる。したがって、頭部移動量・対象物の移動量を眼球運動量に換算し、眼球運動量と合成し、統合的な視線の動きを計算する。その計算結果から注視点を抽出し、注視時間を計算する。また、注視点間の移動軌跡から移動速度を計算するとともに、眼球運動による移動量、頭部運動を眼球運動量に換算した移動量、手の動きを眼球運動量に換算した移動量を計算し、眼球運動、頭部運動、手の動きの時系列的な変化の分かるデータとともに、視線分析出力として出力する。   In other words, the position of the subject's viewpoint on the surface of the object can be displayed by obtaining the intersection of the surface of the object and a straight line extending in the direction of the viewpoint. Therefore, the head movement amount / the movement amount of the object is converted into an eye movement amount, and is combined with the eye movement amount to calculate an integrated line of sight movement. The gaze point is extracted from the calculation result, and the gaze time is calculated. In addition to calculating the movement speed from the movement trajectory between gazing points, the movement amount by eye movement, the movement amount by converting head movement to eye movement amount, and the movement amount by converting hand movement to eye movement amount are calculated. Along with data that understands time-series changes in movement, head movement, and hand movement, it is output as a gaze analysis output.

図9は、対象物が携帯端末のディスプレイである場合に、そのディスプレイに表示された提示画像に視点の位置を重ねて表示した一例を示す。提示画像は電子ブックの画像、携帯端末の画像など画質や解像度が様々であり、いったん画像変換を行い、眼球運動・頭部運動・手対象物の運動を合成して表示できる画質と解像度に変換したものである。   FIG. 9 shows an example in which when the object is a display of a portable terminal, the position of the viewpoint is superimposed on the presentation image displayed on the display. The displayed images vary in image quality and resolution, such as images of electronic books and mobile devices. Once image conversion is performed, it is converted into image quality and resolution that can be displayed by combining eye movement, head movement, and hand object movement. It is a thing.

図9においては、注視点の抽出と視点の移動の判別にしたがって、注視点及び視線の移動を携帯端末などの表示画像に投影して視線分析装置の表示部に表示した一例である。図9において、「○」901、905、907、909、911、914及び917は注視点を表わし、被験者が「○」で示される位置を注視していたことを示す。また、実線902、904、910、913は頭部運動により発生した視線の移動を示し、一点鎖線906、912は眼球運動により発生した視線の移動を示し、破線903は対象物の移動により発生した視線の移動を示す。   FIG. 9 shows an example in which the movement of the gazing point and the line of sight is projected on a display image of a mobile terminal or the like and displayed on the display unit of the line-of-sight analysis apparatus in accordance with the gazing point extraction and the viewpoint movement determination. In FIG. 9, “◯” 901, 905, 907, 909, 911, 914, and 917 represent gazing points, indicating that the subject was gazing at the position indicated by “◯”. Solid lines 902, 904, 910, and 913 indicate the movement of the line of sight generated by the head movement, the alternate long and short dash lines 906 and 912 indicate the movement of the line of sight generated by the eye movement, and the broken line 903 is generated by the movement of the object. Indicates the movement of the line of sight.

したがって、注視点間の移動軌跡は注視点間の移動が画像のどこで行われたかについて示す。注視点は、注視時間によって色分けして表示するとともに、注視点間の移動軌跡を移動速度によって色分けして表示することができる。また、上述のように実線により頭部運動を眼球運動の量に変換したもの、一点鎖線により眼球運動量、点線により対象物の運動を眼球運動量に換算したものとして表示することができる。さらに、例えば眼球運動を緑の線、頭部運動を眼球運動に換算したものを赤の線、対象物の運動を眼球運動量に換算したもの青の線として前述の注視点間の移動軌跡に平行して表示することにより、眼球運動、頭部運動、対象物の運動が、注視点間の移動においてどこで行われたかについて、眼球・頭部・対象物の運動の合成をした出力画像から知ることができる。   Therefore, the movement trajectory between the gazing points indicates where the movement between the gazing points is performed in the image. The gazing point can be displayed in different colors according to the gazing time, and the movement locus between the gazing points can be displayed in different colors according to the moving speed. Further, as described above, it is possible to display the head movement converted into the amount of eye movement by the solid line, the eye movement amount by the alternate long and short dash line, and the movement of the object converted to the eye movement amount by the dotted line. Furthermore, for example, the eye movement is a green line, the head movement converted to an eye movement is a red line, and the movement of the object is converted to an eye movement amount, and the blue line is parallel to the movement trajectory between the above-mentioned gazing points. To know where the eye movement, head movement, and movement of the object were performed during the movement between the gazing points from the output image obtained by combining the movements of the eye, head, and object. Can do.

また、注視点の持続時間により「○」の表示態様を変化させて表示させることもできる。例えば、持続時間の長さに応じて、
青<100ms
100ms≦黄<200ms
200ms≦シアン<300ms
300ms≦マゼンタ<400ms
500ms≦青緑<600ms
600ms≦緑<700ms
700ms≦赤<800ms
800ms≦白
として「○」の表示色を変化させることができる。なお、「青<100ms」という不等式は、注視点の持続時間が100ms未満であれば青色で表示を行うことを意味する。他の不等式も同様である。
In addition, the display mode of “◯” can be changed depending on the duration of the gazing point. For example, depending on the duration,
Blue <100ms
100ms ≦ yellow <200ms
200ms ≦ cyan <300ms
300ms ≦ magenta <400ms
500ms ≦ blue green <600ms
600ms ≦ green <700ms
700ms ≦ red <800ms
The display color of “◯” can be changed as 800 ms ≦ white. The inequality “blue <100 ms” means that if the duration of the gazing point is less than 100 ms, the display is performed in blue. The same applies to other inequalities.

また、注視点間の移動軌跡を下記の様に色分けすることもできる。
青 <100deg/sec
100deg/sec≦黄<200deg/sec
200deg/sec≦シアン<300deg/sec
300deg/sec≦マゼンタ<400deg/sec
500deg/sec≦青緑<600deg/sec
600deg/sec≦緑<700deg/sec
700deg/sec≦赤<800deg/sec
800deg/sec≦白
Also, the movement trajectory between gazing points can be color-coded as follows.
Blue <100deg / sec
100deg / sec ≦ yellow <200deg / sec
200deg / sec ≦ cyan <300deg / sec
300deg / sec ≦ magenta <400deg / sec
500deg / sec ≦ blue green <600deg / sec
600deg / sec ≦ green <700deg / sec
700deg / sec ≦ red <800deg / sec
800deg / sec ≦ white

以上のように、視線分析出力として、眼球運動による移動量、頭部運動を眼球運動量に換算した移動量、手の動きを眼球運動量に移動量とそれらの開始時間、動作終了時間、眼球運動による移動量、頭部運動を眼球運動量に換算した移動量、対象物の運動量を眼球運動量に変換した移動量を合成した視線から計算される注視点の位置、注視時間を計算するとともに、注視点間の視線に占める眼球運動による移動量、頭部運動を眼球運動量に換算した移動量、手の動きを眼球運動量に移動量の比率を出力して、ヒューマンインタフェースの研究に役立てることができる。   As described above, as the line-of-sight analysis output, the movement amount by eye movement, the movement amount by converting head movement to eye movement amount, the movement amount of hand movement to eye movement amount, their start time, operation end time, and eye movement Calculates the gaze point position and gaze time calculated from the line of sight that combines the movement amount, the movement amount converted from the head movement into eye movement amount, the movement amount converted from the movement amount of the object into eye movement amount, and between the fixation points. The amount of movement due to eye movement occupying the line of sight, the movement amount obtained by converting head movement into eye movement amount, and the ratio of movement amount to eye movement amount of hand movement can be output for use in human interface research.

本発明の各実施形態においては、携帯端末から視覚情報を取得するときの視線の動きについて、これまで行われていた眼球運動、頭部運動だけでなく、対象物の運動の役割を表示することができ、当該分野の研究・開発に貢献することができる。また、視線分析出力は、前述した眼球運動による移動量、頭部運動を眼球運動量に換算した移動量、対象物の運動量を眼球運動量に変換した移動量と、これらを合成した視線から計算される注視点の位置、注視時間に加え、注視点間の視線に占める眼球運動による移動量、頭部運動を眼球運動量に換算した移動量、対象物の運動量を眼球運動量に変換した移動量の比率を出力し、新たなヒューマンインタフェースの開発などに役立てることができる。   In each embodiment of the present invention, regarding the movement of the line of sight when visual information is acquired from the mobile terminal, not only the eye movement and the head movement that have been performed so far, but also the role of the movement of the object is displayed. Can contribute to research and development in this field. The visual line analysis output is calculated from the movement amount by the eye movement described above, the movement amount obtained by converting the head movement into the eye movement amount, the movement amount obtained by converting the movement amount of the object into the eye movement amount, and the visual line obtained by combining these. In addition to the position of the gazing point and the gazing time, the movement amount of the eye movement occupying the line of sight between the gazing points, the movement amount obtained by converting the head movement into the eye movement amount, and the ratio of the movement amount obtained by converting the movement amount of the object into the eye movement amount. The output can be used to develop new human interfaces.

100 視線分析装置
101 頭部運動検出部
102 頭部運動算出部
103 眼球運動検出部
104 眼球運動算出部
105 対象物運動検出部
106 対象物運動算出部
107 視線方向算出部
108 視点算出部
DESCRIPTION OF SYMBOLS 100 Gaze analysis apparatus 101 Head movement detection part 102 Head movement calculation part 103 Eye movement detection part 104 Eye movement calculation part 105 Object movement detection part 106 Object movement calculation part 107 Gaze direction calculation part 108 View point calculation part

Claims (7)

対象物に視線を向ける被験者の視線を分析する視線分析装置であり、
頭部の回転運動による前記頭部の回転移動角を算出する頭部運動算出部と、
眼球の運動による前記眼球の回転角を算出する眼球運動算出部と、
前記頭部運動算出部により算出された回転移動角と前記眼球運動算出部により算出された回転角とにより前記被験者の視線の方向の移動角を算出する視線方向算出部と、
前記対象物の運動による移動を前記被験者より観察した場合の移動角を算出する対象運動算出部と、
前記視線方向算出部により算出された移動角と前記対象運動算出部により算出された移動角とにより前記被験者が前記対象物に向けている視線による視点の移動を算出する視点算出部と
を有する視線分析装置。
A line-of-sight analysis device that analyzes the line of sight of a subject who turns his line of sight to an object,
A head movement calculation unit for calculating a rotational movement angle of the head by a rotational movement of the head;
An eye movement calculation unit that calculates a rotation angle of the eyeball due to eye movement;
A line-of-sight direction calculation unit that calculates a movement angle in the direction of the line of sight of the subject based on the rotation movement angle calculated by the head movement calculation unit and the rotation angle calculated by the eye movement calculation unit;
A target motion calculation unit that calculates a movement angle when the movement of the target object is observed from the subject; and
A line of sight having a viewpoint calculation unit that calculates a movement of the viewpoint by the line of sight toward the object by the subject based on the movement angle calculated by the line-of-sight direction calculation unit and the movement angle calculated by the target motion calculation unit. Analysis equipment.
前記頭部運動算出部は、前記頭部の平行運動による移動量を算出し、
前記視線方向算出部は、前記頭部運動算出部が算出した前記頭部の平行運動による移動量を前記被験者より観察した場合の移動角に換算する請求項1に記載の視線分析装置。
The head movement calculation unit calculates a movement amount due to the parallel movement of the head;
The line-of-sight analysis device according to claim 1, wherein the line-of-sight direction calculation unit converts the movement amount due to the parallel movement of the head calculated by the head movement calculation unit into a movement angle when observed from the subject.
前記視点算出部により算出された視点の移動を、前記対象物の画像上に重ねて表示を行う請求項1または2に記載の視線分析装置。   The line-of-sight analysis apparatus according to claim 1, wherein the movement of the viewpoint calculated by the viewpoint calculation unit is displayed by being superimposed on the image of the object. 前記視点算出部により算出された視点の移動の速度に応じて、前記対象物の画像上に重ねて行う表示の態様を変更する請求項3に記載の視線分析装置。   The line-of-sight analysis apparatus according to claim 3, wherein a display mode superimposed on the image of the object is changed according to a movement speed of the viewpoint calculated by the viewpoint calculation unit. 前記視点算出部により算出された視点の移動の速度が閾値未満であれば、視点を注視点として前記対象物の画像上に重ねて表示を行う請求項3または4に記載の視線分析装置。   The line-of-sight analysis apparatus according to claim 3 or 4, wherein when the speed of movement of the viewpoint calculated by the viewpoint calculation unit is less than a threshold value, the viewpoint is superimposed on the image of the target object as a gazing point. 前記視点算出部により算出された視点の移動が、前記頭部の運動によるものか、前記眼球の運動によるものか、あるいは前記対象物の運動による移動によるものかに応じて前記対象物の画像上に重ねて行う表示の態様を変更する請求項3から5のいずれかに記載の視線分析装置。   Depending on whether the movement of the viewpoint calculated by the viewpoint calculation unit is due to movement of the head, movement of the eyeball, or movement due to movement of the object, The line-of-sight analysis apparatus according to claim 3, wherein a display mode superimposed on the display is changed. 対象物に視線を向ける被験者の視線を分析する視線分析装置による視線分析方法であり、
前記視線分析装置は、
頭部の回転運動による前記頭部の回転移動角を算出する頭部運動算出部と、
眼球の運動による前記眼球の回転角を算出する眼球運動算出部と、
前記頭部運動算出部により算出された回転移動角と前記眼球運動算出部により算出された回転角とにより前記被験者の視線の方向の移動角を算出する視線方向算出部と、
前記対象物の運動による移動を前記被験者より観察した場合の移動角を算出する対象運動算出部とを有し、
前記視線方向算出部により算出された移動角と前記対象運動算出部により算出された移動角とにより前記被験者が前記対象物に向けている視線による視点の移動を算出することを含む視線分析方法。
It is a line-of-sight analysis method by a line-of-sight analysis device that analyzes the line of sight of a subject who turns his line of sight to an object,
The line of sight analyzer is
A head movement calculation unit for calculating a rotational movement angle of the head by a rotational movement of the head;
An eye movement calculation unit that calculates a rotation angle of the eyeball due to eye movement;
A line-of-sight direction calculation unit that calculates a movement angle in the direction of the line of sight of the subject based on the rotation movement angle calculated by the head movement calculation unit and the rotation angle calculated by the eye movement calculation unit;
A target motion calculation unit that calculates a movement angle when the movement of the object is observed from the subject,
A line-of-sight analysis method including calculating a movement of a viewpoint by a line of sight directed toward the object by the subject based on the movement angle calculated by the line-of-sight direction calculation unit and the movement angle calculated by the target motion calculation unit.
JP2013019731A 2013-02-04 2013-02-04 Line of sight analyzer Expired - Fee Related JP6199038B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013019731A JP6199038B2 (en) 2013-02-04 2013-02-04 Line of sight analyzer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013019731A JP6199038B2 (en) 2013-02-04 2013-02-04 Line of sight analyzer

Publications (2)

Publication Number Publication Date
JP2014149794A true JP2014149794A (en) 2014-08-21
JP6199038B2 JP6199038B2 (en) 2017-09-20

Family

ID=51572689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013019731A Expired - Fee Related JP6199038B2 (en) 2013-02-04 2013-02-04 Line of sight analyzer

Country Status (1)

Country Link
JP (1) JP6199038B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099959A (en) * 2014-11-26 2016-05-30 公立大学法人広島市立大学 Direction indicating device and direction indicating method
JP2020042807A (en) * 2018-09-06 2020-03-19 株式会社ソニー・インタラクティブエンタテインメント Foveated rendering system and method
JP2020177066A (en) * 2019-04-16 2020-10-29 凸版印刷株式会社 Observation status display system, observation status display method and program
JP2024083553A (en) * 2018-03-14 2024-06-21 メニコン シンガポール ピーティーイー. リミテッド WEARABLE DEVICE FOR COMMUNICATION WITH AN OPHTHALMIC DEVICE - Patent application

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0449943A (en) * 1990-06-14 1992-02-19 A T R Shichiyoukaku Kiko Kenkyusho:Kk Eye ball motion analyzer
JPH04288123A (en) * 1991-03-18 1992-10-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk Line-of-sight display device
US6381339B1 (en) * 1997-01-15 2002-04-30 Winton Emery Brown Image system evaluation method and apparatus using eye motion tracking
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control device, display device, and display control method
WO2009150747A1 (en) * 2008-06-13 2009-12-17 パイオニア株式会社 Sight line input user interface unit, user interface method, user interface program, and recording medium with user interface program recorded
US20100125816A1 (en) * 2008-11-20 2010-05-20 Bezos Jeffrey P Movement recognition as input mechanism
JP2011015913A (en) * 2009-07-10 2011-01-27 Toyota Central R&D Labs Inc Doze determination device and program, and alarm output device and program
US20120294478A1 (en) * 2011-05-20 2012-11-22 Eye-Com Corporation Systems and methods for identifying gaze tracking scene reference locations

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0449943A (en) * 1990-06-14 1992-02-19 A T R Shichiyoukaku Kiko Kenkyusho:Kk Eye ball motion analyzer
JPH04288123A (en) * 1991-03-18 1992-10-13 A T R Shichiyoukaku Kiko Kenkyusho:Kk Line-of-sight display device
US6381339B1 (en) * 1997-01-15 2002-04-30 Winton Emery Brown Image system evaluation method and apparatus using eye motion tracking
JP2008129775A (en) * 2006-11-20 2008-06-05 Ntt Docomo Inc Display control device, display device, and display control method
WO2009150747A1 (en) * 2008-06-13 2009-12-17 パイオニア株式会社 Sight line input user interface unit, user interface method, user interface program, and recording medium with user interface program recorded
US20100125816A1 (en) * 2008-11-20 2010-05-20 Bezos Jeffrey P Movement recognition as input mechanism
JP2012509544A (en) * 2008-11-20 2012-04-19 アマゾン テクノロジーズ インコーポレイテッド Motion recognition as an input mechanism
JP2011015913A (en) * 2009-07-10 2011-01-27 Toyota Central R&D Labs Inc Doze determination device and program, and alarm output device and program
US20120294478A1 (en) * 2011-05-20 2012-11-22 Eye-Com Corporation Systems and methods for identifying gaze tracking scene reference locations
JP2014520314A (en) * 2011-05-20 2014-08-21 アイフルエンス,インコーポレイテッド System and method for identifying eye tracking scene reference position

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"自然な状態で小型電子媒体を用いて黙読している時の視線と手の動きの解析", 電子情報通信学会2011年基礎・境界ソサイエティ大会講演論文集, JPN6016046873, 30 August 2011 (2011-08-30), JP, pages 242頁, ISSN: 0003604714 *
山田 光穂: "2次元平面上の視標を注視した時の視線の動きの特徴", NHK技研R&D, vol. 第30号, JPN6016046874, 15 May 1994 (1994-05-15), JP, pages 58 - 73, ISSN: 0003604715 *
長谷川 勉 他: "視線変化の観測に基づく監視者の意図推定", 第17回日本ロボット学会学術講演会予稿集, vol. 第1分冊, JPN6016046875, 9 September 1999 (1999-09-09), pages 409 - 410, ISSN: 0003604716 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099959A (en) * 2014-11-26 2016-05-30 公立大学法人広島市立大学 Direction indicating device and direction indicating method
JP2024083553A (en) * 2018-03-14 2024-06-21 メニコン シンガポール ピーティーイー. リミテッド WEARABLE DEVICE FOR COMMUNICATION WITH AN OPHTHALMIC DEVICE - Patent application
JP2020042807A (en) * 2018-09-06 2020-03-19 株式会社ソニー・インタラクティブエンタテインメント Foveated rendering system and method
JP7420510B2 (en) 2018-09-06 2024-01-23 株式会社ソニー・インタラクティブエンタテインメント Foveated rendering system and method
JP2020177066A (en) * 2019-04-16 2020-10-29 凸版印刷株式会社 Observation status display system, observation status display method and program
JP7342409B2 (en) 2019-04-16 2023-09-12 凸版印刷株式会社 Observation status display system, observation status display method and program

Also Published As

Publication number Publication date
JP6199038B2 (en) 2017-09-20

Similar Documents

Publication Publication Date Title
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
CN102149325B (en) Line-of-sight direction determination device and line-of-sight direction determination method
JP6265348B2 (en) Eye-gaze measuring device, eye-gaze measuring method, and eye-gaze measuring program
US8406479B2 (en) Visual axis direction detection device and visual line direction detection method
US11454811B2 (en) Method and apparatus for unlocking head-mounted display device
JP6675209B2 (en) Information processing apparatus and user guide presentation method
JP5187517B2 (en) Information providing apparatus, information providing method, and program
KR101922343B1 (en) Method and system for testing diynamic visual acuity
CN110167421A (en) Integrally measure the system of the clinical parameter of visual performance
JPH06105808A (en) Depth perception analyzer
JP7625102B2 (en) Information processing device, user guide presentation method, and head-mounted display
JPWO2016021034A1 (en) 3D gaze point location algorithm
CN109414167A (en) Sight line detector, method for detecting sight line and computer program
JP7168953B2 (en) Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program
CN104089606A (en) Free space eye tracking measurement method
JP6199038B2 (en) Line of sight analyzer
US20220049947A1 (en) Information processing apparatus, information processing method, and recording medium
JPH0449943A (en) Eye ball motion analyzer
WO2023244267A1 (en) Systems and methods for human gait analysis, real-time feedback and rehabilitation using an extended-reality device
US11270451B2 (en) Motion parallax in object recognition
JP2020024278A (en) Information processing apparatus, information processing system, information processing method, and computer program
JP7165604B2 (en) Virtual object output device and virtual object output method
TWI907226B (en) Method for acquiring gazing point of eye and test system
US20240185482A1 (en) Information processing apparatus, information processing method, and program
JPH04288123A (en) Line-of-sight display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170823

R150 Certificate of patent or registration of utility model

Ref document number: 6199038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees