[go: up one dir, main page]

JP2019046438A - Evaluation apparatus and evaluation method - Google Patents

Evaluation apparatus and evaluation method Download PDF

Info

Publication number
JP2019046438A
JP2019046438A JP2018051358A JP2018051358A JP2019046438A JP 2019046438 A JP2019046438 A JP 2019046438A JP 2018051358 A JP2018051358 A JP 2018051358A JP 2018051358 A JP2018051358 A JP 2018051358A JP 2019046438 A JP2019046438 A JP 2019046438A
Authority
JP
Japan
Prior art keywords
subject
output
display screen
evaluation
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018051358A
Other languages
Japanese (ja)
Inventor
林 孝浩
Takahiro Hayashi
孝浩 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Publication of JP2019046438A publication Critical patent/JP2019046438A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】被験者の視線を表示画面内に効率的に誘導する。【解決手段】評価装置100は、被験者の画像データを取得する画像データ取得部206と、画像データに基づいて被験者の注視点の位置データを検出する注視点検出部214と、表示画面101Sに被験者を評価する評価用画像を表示させる表示制御部202と、表示画面101Sにおいて被験者の注視点の目標領域Aを設定する領域設定部216と、注視点の位置データに基づいて注視点が目標領域Aに存在するか否かを判定する判定部218と、注視点が目標領域Aに存在しないと判定される不在期間が所定期間を超える場合に注意喚起信号を出力装置(70、80)から出力させ当該注意喚起信号が出力された状態で注視点が目標領域Aに存在すると判定された場合に注意喚起信号の出力を停止させる出力制御部226と、被験者の注視点の位置データに基づいて被験者の評価データを求める評価部224とを備える。【選択図】図3PROBLEM TO BE SOLVED: To efficiently guide a subject's gaze in a display screen. SOLUTION: An evaluation device 100 comprises an image data acquisition unit 206 for acquiring image data of a subject, a gaze point detection unit 214 for detecting position data of a gaze point of the subject based on the image data, and a subject on a display screen 101S. The display control unit 202 displays an evaluation image for evaluating the subject, the region setting unit 216 that sets the target region A of the subject's gaze point on the display screen 101S, and the gaze point is the target region A based on position data of the gaze point. And an alerting signal is output from the output device (70, 80) when the absence period determined to be absent in the target area A exceeds a predetermined period. An output control unit 226 for stopping the output of the alerting signal when it is determined that the fixation point is in the target area A in a state where the alerting signal is output; And a evaluation unit 224 for obtaining the evaluation data of the subject based on the position data of the viewpoint. [Selected figure] Figure 3

Description

本発明は、評価装置、及び評価方法に関する。   The present invention relates to an evaluation device and an evaluation method.

視線検出技術の一つとして角膜反射法が知られている。角膜反射法は、光源から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼をカメラで撮影し、角膜表面における光源の反射像である角膜反射像に対する瞳孔の位置を検出して、被験者の視線を検出する。   The corneal reflection method is known as one of the gaze detection techniques. In the corneal reflection method, the subject is irradiated with infrared light emitted from a light source, the subject's eye irradiated with the infrared light is photographed with a camera, and a pupil of the pupil with respect to the corneal reflection image which is a reflection image of the light source on the cornea surface The position is detected to detect the line of sight of the subject.

このような検出法により視線の検出を行う場合、被験者の注視点の位置データを高精度に取得するため、被験者の注視点を所定の表示画面に収まるようにし、この状態で注視点の位置データを取得するようにしている。   When line of sight is detected by such a detection method, in order to obtain position data of the subject's gaze point with high precision, the subject's gaze point is made to fit on a predetermined display screen, and in this state the gaze point position data I am trying to get

特許第2739331号公報Patent No. 2739331

上記の構成において、被験者の注視点の位置データを取得している期間に、注視点が表示画面から外れてしまうと、注視点の位置データの取得が困難となる場合がある。このような場合、被験者の注視点を表示画面内に効率的に誘導する必要がある。   In the above configuration, if the fixation point deviates from the display screen during acquisition of the position data of the fixation point of the subject, it may be difficult to acquire the position data of the fixation point. In such a case, it is necessary to efficiently guide the subject's gaze point into the display screen.

本発明は、上記に鑑みてなされたものであり、被験者の視線を表示画面内に効率的に誘導することが可能な評価装置、及び評価方法を提供することを目的とする。   This invention is made in view of the above, and an object of this invention is to provide the evaluation apparatus which can guide a test subject's gaze efficiently in a display screen, and an evaluation method.

本発明に係る評価装置は、被験者の画像データを取得する画像データ取得部と、前記画像データに基づいて、前記被験者の注視点の位置データを検出する注視点検出部と、前記被験者を評価する評価用画像を表示画面に表示させる表示制御部と、前記表示画面において、前記被験者の注視点の目標領域を設定する領域設定部と、前記注視点の位置データに基づいて、前記注視点が前記目標領域に存在するか否かを判定する判定部と、前記注視点が前記目標領域に存在しないと判定される不在期間が所定期間を超える場合に所定の音声及び可視光パターンの少なくとも一方の信号を出力装置から出力させ、前記信号が出力された状態で前記注視点が前記目標領域に存在すると判定された場合に前記信号の出力を停止させる出力制御部とを備える。   An evaluation apparatus according to the present invention includes an image data acquisition unit that acquires image data of a subject, a gaze point detection unit that detects position data of a gaze point of the subject based on the image data, and the subject. The gaze point is determined based on a display control unit for displaying an evaluation image on a display screen, a region setting unit for setting a target region of the subject's gaze point on the display screen, and position data of the gaze point. A determination unit that determines whether or not the target region is present, and a signal of at least one of a predetermined voice and a visible light pattern when an absence period determined that the gaze point is not present in the target region exceeds a predetermined period And an output control unit for stopping the output of the signal when it is determined that the fixation point is in the target area in a state where the signal is output.

本発明に係る評価方法は、被験者の画像データを取得することと、前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、前記被験者を評価する評価用画像を表示画面に表示させることと、前記表示画面において、前記被験者の注視点の目標領域を設定することと、前記注視点の位置データに基づいて、前記注視点が前記目標領域に存在するか否かを判定することと、前記注視点が前記目標領域に存在しないと判定される不在期間が所定期間を超える場合に所定の音声及び可視光パターンの少なくとも一方の信号を出力装置から出力させ、前記信号が出力された状態で前記注視点が前記目標領域に存在すると判定された場合に前記信号の出力を停止させることとを含む。   The evaluation method according to the present invention includes acquiring image data of a subject, detecting position data of a gaze point of the subject based on the image data, and displaying an evaluation image for evaluating the subject. And displaying the target area of the subject's gaze point on the display screen, and determining whether the gaze point is present in the target area based on the position data of the gaze point. And outputting at least one signal of a predetermined voice and visible light pattern from the output device when the absent period determined to be absent from the target area exceeds the predetermined period, the signal being output And stopping the output of the signal when it is determined that the fixation point is in the target area in the set state.

本発明によれば、被験者の視線を表示画面内に効率的に誘導することができる。   According to the present invention, the line of sight of the subject can be efficiently guided into the display screen.

図1は、本実施形態に係る画像音声出力装置である視線検出装置の一例を模式的に示す斜視図である。FIG. 1 is a perspective view schematically showing an example of a gaze detection apparatus which is an image / sound output apparatus according to the present embodiment. 図2は、本実施形態に係る視線検出装置のハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of a hardware configuration of the gaze detection apparatus according to the present embodiment. 図3は、本実施形態に係る視線検出装置の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the gaze detection apparatus according to the present embodiment. 図4は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。FIG. 4 is a schematic diagram for explaining a method of calculating position data of the corneal curvature center according to the present embodiment. 図5は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。FIG. 5 is a schematic view for explaining a calculation method of position data of the corneal curvature center according to the present embodiment. 図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。FIG. 6 is a schematic view for explaining an example of the calibration process according to the present embodiment. 図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。FIG. 7 is a schematic view for explaining an example of gaze point detection processing according to the present embodiment. 図8は、評価装置の表示画面と被験者の注視点との関係を示す図である。FIG. 8 is a diagram showing the relationship between the display screen of the evaluation device and the gaze point of the subject. 図9は、表示画面に設定される目標領域の一例を示す図である。FIG. 9 is a diagram showing an example of the target area set on the display screen. 図10は、評価装置の表示画面と被験者の注視点との関係を示す図である。FIG. 10 is a diagram showing the relationship between the display screen of the evaluation device and the gaze point of the subject. 図11は、評価装置の表示画面と被験者の注視点との関係を示す図である。FIG. 11 is a diagram showing the relationship between the display screen of the evaluation device and the gaze point of the subject. 図12は、本実施形態に係る評価方法の一例を示すフローチャートである。FIG. 12 is a flowchart showing an example of the evaluation method according to the present embodiment. 図13は、視線誘導処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the gaze guidance process. 図14は、視線誘導処理の他の例を示すフローチャートである。FIG. 14 is a flowchart showing another example of the line-of-sight guidance processing. 図15は、視線誘導処理の他の例を示すフローチャートである。FIG. 15 is a flowchart showing another example of the gaze guidance processing. 図16は、本実施形態に係る評価方法の他の例を示すフローチャートである。FIG. 16 is a flowchart showing another example of the evaluation method according to the present embodiment. 図17は、本実施形態に係る評価方法の他の例を示すフローチャートである。FIG. 17 is a flowchart showing another example of the evaluation method according to the present embodiment. 図18は、評価装置の表示画面と被験者の注視点との関係についての他の例を示す図である。FIG. 18 is a diagram showing another example of the relationship between the display screen of the evaluation device and the gaze point of the subject. 図19は、評価装置の表示画面と被験者の注視点との関係についての他の例を示す図である。FIG. 19 is a diagram showing another example of the relationship between the display screen of the evaluation device and the gaze point of the subject. 図20は、評価方法の他の例を示すフローチャートである。FIG. 20 is a flowchart showing another example of the evaluation method. 図21は、評価装置の表示画面と被験者の注視点との関係についての他の例を示す図である。FIG. 21 is a diagram showing another example of the relationship between the display screen of the evaluation device and the gaze point of the subject. 図22は、評価装置の表示画面と被験者の注視点との関係についての他の例を示す図である。FIG. 22 is a diagram showing another example of the relationship between the display screen of the evaluation device and the gaze point of the subject. 図23は、評価装置の表示画面と被験者の注視点との関係についての他の例を示す図である。FIG. 23 is a diagram showing another example of the relationship between the display screen of the evaluation device and the gaze point of the subject. 図24は、評価方法の他の例を示すフローチャートである。FIG. 24 is a flowchart showing another example of the evaluation method.

以下、本発明に係る評価装置、及び評価方法の実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。   Hereinafter, embodiments of an evaluation device and an evaluation method according to the present invention will be described based on the drawings. The present invention is not limited by this embodiment. In addition, constituent elements in the following embodiments include those that can be easily replaced by persons skilled in the art or those that are substantially the same.

以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。   In the following description, a three-dimensional global coordinate system is set to describe the positional relationship of each part. A direction parallel to the first axis of the predetermined surface is the X axis direction, a direction parallel to the second axis of the predetermined surface orthogonal to the first axis is the Y axis direction, and it is orthogonal to the first axis and the second axis The direction parallel to the third axis is taken as the Z-axis direction. The predetermined plane includes the XY plane.

(視線検出装置)
図1は、本実施形態に係る視線検出装置100の一例を模式的に示す斜視図である。視線検出装置100は、被験者を評価する評価装置として用いられる。図1に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103とを備える。また、視線検出装置100は、注意喚起信号を出力する出力装置として音声出力装置70と、可視光パターン出力装置80とを備える。なお、音声出力装置70は、注意喚起信号以外の音声も出力可能である。
(Line-of-sight detection device)
FIG. 1 is a perspective view schematically showing an example of a gaze detection apparatus 100 according to the present embodiment. The gaze detection apparatus 100 is used as an evaluation apparatus for evaluating a subject. As shown in FIG. 1, the visual axis detection device 100 includes a display device 101, a stereo camera device 102, and an illumination device 103. In addition, the sight line detection device 100 includes an audio output device 70 and a visible light pattern output device 80 as an output device that outputs an alerting signal. The voice output device 70 can also output voice other than the alerting signal.

表示装置101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置101は、表示画面101Sを有する。表示画面101Sは、画像を表示する。表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。   The display device 101 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OLED). In the present embodiment, the display device 101 has a display screen 101S. The display screen 101S displays an image. The display screen 101S is substantially parallel to the XY plane. The X-axis direction is the horizontal direction of the display screen 101S, the Y-axis direction is the vertical direction of the display screen 101S, and the Z-axis direction is a depth direction orthogonal to the display screen 101S.

音声出力装置70は、例えばスピーカを含み、例えば被験者に手順を指示するための音声や、被験者の注意を引き付ける注意喚起信号として注意喚起音声を出力する。可視光パターン出力装置80は、被験者の注意を引き付ける注意喚起信号として可視光パターンを出力する。可視光パターン出力装置80は、例えばランプ等が用いられる。   The voice output device 70 includes, for example, a speaker, and outputs, for example, a voice for instructing a subject of a procedure, or an alerting voice as an alerting signal for attracting the alert of the subject. The visible light pattern output device 80 outputs a visible light pattern as an alerting signal for attracting the attention of the subject. For example, a lamp or the like is used as the visible light pattern output device 80.

ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。   The stereo camera device 102 has a first camera 102A and a second camera 102B. The stereo camera device 102 is disposed below the display screen 101S of the display device 101. The first camera 102A and the second camera 102B are disposed in the X-axis direction. The first camera 102A is disposed in the -X direction more than the second camera 102B. Each of the first camera 102A and the second camera 102B includes an infrared camera, and includes, for example, an optical system capable of transmitting near-infrared light of a wavelength of 850 nm and an imaging device capable of receiving the near-infrared light. .

照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。   The illumination device 103 has a first light source 103A and a second light source 103B. The lighting device 103 is disposed below the display screen 101S of the display device 101. The first light source 103A and the second light source 103B are disposed in the X-axis direction. The first light source 103A is arranged in the −X direction more than the first camera 102A. The second light source 103B is disposed in the + X direction more than the second camera 102B. Each of the first light source 103A and the second light source 103B includes an LED (light emitting diode) light source, and can emit near infrared light of, for example, a wavelength of 850 nm. The first light source 103A and the second light source 103B may be disposed between the first camera 102A and the second camera 102B.

照明装置103は、検出光である近赤外光を射出して、被験者の眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。   The illumination device 103 emits near-infrared light which is detection light to illuminate the eyeball 111 of the subject. When the detection light emitted from the first light source 103A is irradiated to the eye 111, the stereo camera device 102 captures an image of the eye 111 with the second camera 102B, and the detection light emitted from the second light source 103B is transmitted to the eye 111 When illuminated, the eyeball 111 is photographed by the first camera 102A.

第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。   A frame synchronization signal is output from at least one of the first camera 102A and the second camera 102B. The first light source 103A and the second light source 103B emit detection light based on the frame synchronization signal. The first camera 102A acquires image data of the eyeball 111 when the detection light emitted from the second light source 103B is irradiated to the eyeball 111. The second camera 102B acquires image data of the eyeball 111 when the detection light emitted from the first light source 103A is irradiated to the eyeball 111.

眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。   When the detection light is irradiated to the eyeball 111, a part of the detection light is reflected by the pupil 112, and the light from the pupil 112 enters the stereo camera device 102. When the eye 111 is irradiated with detection light, a corneal reflection image 113 which is a virtual image of the cornea is formed on the eye 111, and light from the corneal reflection image 113 is incident on the stereo camera device 102.

第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。   By appropriately setting the relative positions of the first camera 102A and the second camera 102B and the first light source 103A and the second light source 103B, the intensity of light incident from the pupil 112 to the stereo camera device 102 becomes low, and the cornea The intensity of light entering the stereo camera device 102 from the reflected image 113 is high. That is, the image of the pupil 112 acquired by the stereo camera device 102 has low luminance, and the image of the corneal reflection image 113 has high luminance. The stereo camera device 102 can detect the position of the pupil 112 and the position of the corneal reflection image 113 based on the brightness of the acquired image.

図2は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図2に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70と、可視光パターン出力装置80を備える。   FIG. 2 is a diagram showing an example of a hardware configuration of the visual axis detection device 100 according to the present embodiment. As shown in FIG. 2, the visual axis detection device 100 includes a display device 101, a stereo camera device 102, a lighting device 103, a computer system 20, an input / output interface device 30, a drive circuit 40, and an output device 50. , An input device 60, an audio output device 70, and a visible light pattern output device 80.

コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。   The computer system 20, the drive circuit 40, the output device 50, the input device 60, and the audio output device 70 communicate data via the input / output interface device 30. Computer system 20 includes an arithmetic processing unit 20A and a storage unit 20B. The processing unit 20A includes a microprocessor such as a CPU (central processing unit). The storage device 20B includes a memory or storage such as a read only memory (ROM) and a random access memory (RAM). Arithmetic processing unit 20A carries out arithmetic processing in accordance with computer program 20C stored in storage unit 20B.

駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。   The drive circuit 40 generates a drive signal and outputs the drive signal to the display device 101, the stereo camera device 102, and the lighting device 103. The drive circuit 40 also supplies the image data of the eyeball 111 acquired by the stereo camera device 102 to the computer system 20 via the input / output interface device 30.

出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。   The output device 50 includes a display such as a flat panel display. The output device 50 may include a printing device. The input device 60 generates input data by being operated. Input device 60 includes a keyboard or mouse for a computer system. The input device 60 may include a touch sensor provided on the display screen of the output device 50 which is a display device.

本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。   In the present embodiment, the display device 101 and the computer system 20 are separate devices. The display device 101 and the computer system 20 may be integrated. For example, when the sight line detection device 100 includes a tablet personal computer, the computer system 20, the input / output interface device 30, the drive circuit 40, and the display device 101 may be mounted on the tablet personal computer.

図3は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図3に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。   FIG. 3 is a functional block diagram showing an example of the gaze detection apparatus 100 according to the present embodiment. As shown in FIG. 3, the input / output interface device 30 has an input / output unit 302. The drive circuit 40 generates a drive signal for driving the display device 101 and outputs the drive signal to the display device 101, and generates a drive signal for driving the first camera 102A to generate a first camera. The first camera input / output unit 404A that outputs to 102A, the second camera input / output unit 404B that generates drive signals for driving the second camera 102B and outputs to the second camera 102B, the first light source 103A and the second The light source drive unit 406 generates a drive signal for driving the two light sources 103B and outputs the drive signal to the first light source 103A and the second light source 103B. In addition, the first camera input / output unit 404A supplies the image data of the eyeball 111 acquired by the first camera 102A to the computer system 20 via the input / output unit 302. The second camera input / output unit 404B supplies the image data of the eyeball 111 acquired by the second camera 102B to the computer system 20 via the input / output unit 302.

コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、表示制御部202と、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、領域設定部216と、判定部218と、演算部220と、記憶部222と、評価部224と、出力制御部226とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。   The computer system 20 controls the gaze detection apparatus 100. The computer system 20 includes a display control unit 202, a light source control unit 204, an image data acquisition unit 206, an input data acquisition unit 208, a position detection unit 210, a curvature center calculation unit 212, and a fixation point detection unit 214. An area setting unit 216, a determination unit 218, an operation unit 220, a storage unit 222, an evaluation unit 224, and an output control unit 226. The functions of the computer system 20 are exerted by the arithmetic processing unit 20A and the storage unit 20B.

表示制御部202は、被験者を評価する評価用画像を表示画面101Sに表示させる。評価用画像は、静止画及び動画を含む。評価用画像は、例えば複数用意され、当該複数の評価用画像が順次表示される。表示制御部202は、注視点が目標領域に存在しないと判定される不在期間が所定期間を超える場合に、注意喚起信号に連動する注意喚起画像を表示画面101Sに表示させる。また、表示制御部202は、不在期間が所定期間を超える場合に、評価用画像の表示を停止させてもよい。また、表示制御部202は、評価用画像の表示が停止した状態で注視点が目標領域に存在すると判定された場合に、評価用画像の表示を再開させてもよい。   The display control unit 202 causes the display screen 101S to display an evaluation image for evaluating a subject. The evaluation image includes a still image and a moving image. For example, a plurality of evaluation images are prepared, and the plurality of evaluation images are sequentially displayed. The display control unit 202 causes the display screen 101S to display an alerting image interlocked with the alerting signal, when the absence period determined that the gaze point is not present in the target area exceeds the predetermined period. In addition, the display control unit 202 may stop the display of the evaluation image when the absence period exceeds the predetermined period. In addition, the display control unit 202 may resume the display of the evaluation image when it is determined that the gaze point is present in the target area in a state where the display of the evaluation image is stopped.

光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。   The light source control unit 204 controls the light source driving unit 406 to control the operating states of the first light source 103A and the second light source 103B. The light source control unit 204 controls the first light source 103A and the second light source 103B such that the detection light is emitted at different timings of the first light source 103A and the second light source 103B.

画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。   The image data acquisition unit 206 acquires the image data of the eyeball 111 of the subject acquired by the stereo camera device 102 including the first camera 102A and the second camera 102B from the stereo camera device 102 via the input / output unit 302.

入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。   The input data acquisition unit 208 acquires input data generated by operating the input device 60 from the input device 60 via the input / output unit 302.

位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。   The position detection unit 210 detects position data of the pupil center based on the image data of the eyeball 111 acquired by the image data acquisition unit 206. Further, the position detection unit 210 detects position data of the corneal reflection center based on the image data of the eyeball 111 acquired by the image data acquisition unit 206. The pupil center is the center of the pupil 112. The corneal reflection center is the center of the corneal reflection image 113. The position detection unit 210 detects position data of the pupil center and position data of the corneal reflection center for each of the left and right eyeballs 111 of the subject.

曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。   The curvature center calculation unit 212 calculates position data of the corneal curvature center of the eyeball 111 based on the image data of the eyeball 111 acquired by the image data acquisition unit 206.

注視点検出部214は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。   The fixation point detection unit 214 detects position data of the fixation point of the subject based on the image data of the eyeball 111 acquired by the image data acquisition unit 206. In the present embodiment, the position data of the fixation point means position data of an intersection point of the eye gaze vector of the subject defined in the three-dimensional global coordinate system and the display screen 101S of the display device 101. The fixation point detection unit 214 detects the line-of-sight vector of each of the left and right eyeballs 111 of the subject based on the position data of the pupil center and the position data of the corneal curvature center acquired from the image data of the eyeball 111. After the gaze vector is detected, the gaze point detection unit 214 detects position data of the gaze point indicating an intersection of the gaze vector and the display screen 101S.

領域設定部216は、表示装置101の表示画面101Sに目標領域を設定する。領域設定部216は、例えば表示画面101Sの全面に目標領域を設定することができる。なお、領域設定部216は、表示画面101Sの一部に目標領域を設定してもよい。   The area setting unit 216 sets a target area on the display screen 101S of the display device 101. The area setting unit 216 can set, for example, a target area on the entire surface of the display screen 101S. The area setting unit 216 may set a target area on part of the display screen 101S.

判定部218は、注視点の位置の検出結果である位置データに基づいて、注視点が目標領域に存在するか否かを判定し、判定データを出力する。判定部218は、例えば一定時間毎に注視点が目標領域に存在するか否かを判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。   The determination unit 218 determines whether or not the fixation point is present in the target area based on the position data that is the detection result of the position of the fixation point, and outputs determination data. The determination unit 218 determines, for example, whether or not a fixation point exists in the target area at fixed time intervals. The fixed time may be, for example, a cycle (for example, every 50 [msec]) of the frame synchronization signal output from the first camera 102A and the second camera 102B.

演算部220は、判定部218の判定データに基づいて、注視点が目標領域に存在しないと判定された判定回数をカウントする。演算部220は、目標領域について判定回数をカウントするカウンタを有する。なお、演算部220は、評価用画像の再生時間を管理する管理タイマと、表示画面101Sに評価用画像が表示されてからの経過時間を検出する検出タイマを有する。   Based on the determination data of the determination unit 218, the calculation unit 220 counts the number of determinations determined that the gaze point does not exist in the target area. The calculation unit 220 has a counter that counts the number of determinations for the target area. The calculation unit 220 has a management timer that manages the reproduction time of the evaluation image, and a detection timer that detects an elapsed time after the evaluation image is displayed on the display screen 101S.

評価部224は、被験者の評価データを求める。評価データは、注視点検出部の検出結果に基づいて被験者を評価するデータである。   The evaluation unit 224 obtains evaluation data of the subject. The evaluation data is data for evaluating the subject based on the detection result of the fixation point detection unit.

記憶部222は、表示画面101Sに表示させる評価用画像の画像データ、音声出力装置70から出力させる指示用音声及び注意喚起音声の音声データ、可視光パターン出力装置80から出力させる可視光パターンのパターンデータ、判定部218により出力された判定データ、評価部224から出力された評価データを記憶する。表示画面101Sに表示させる画像は、静止画及び動画を含む。   The storage unit 222 includes the image data of the evaluation image to be displayed on the display screen 101S, the voice of the instruction voice to be output from the voice output device 70 and the voice data of the attention calling voice, and the pattern of visible light pattern to be output from the visible light pattern output device 80 The data, the determination data output from the determination unit 218, and the evaluation data output from the evaluation unit 224 are stored. Images displayed on the display screen 101S include still images and moving images.

記憶部222は、被験者の眼球の画像データを取得する処理と、画像データに基づいて、被験者の注視点の位置データを検出する処理と、被験者を評価する評価用画像を表示画面に表示させる処理と、表示画面において、被験者の注視点の目標領域を設定する処理と、注視点の位置データに基づいて、注視点が目標領域に存在するか否かを判定する処理と、注視点が目標領域に存在しないと判定される不在期間が所定期間を超える場合に注意喚起音声及び可視光パターンの少なくとも一方の注意喚起信号を出力装置から出力させ、当該注意喚起信号が出力された状態で注視点が目標領域に存在すると判定された場合に注意喚起信号の出力を停止させる処理と、被験者の注視点の位置データに基づいて、被験者の評価データを求める処理とをコンピュータに実行させる評価プログラムを記憶する。   The storage unit 222 performs processing for acquiring image data of the subject's eye, processing for detecting position data of the gaze point of the subject based on the image data, and processing for displaying an evaluation image for evaluating the subject on a display screen. In the display screen, a process of setting a target area of the subject's gaze point, a process of determining whether the gaze point exists in the target area based on position data of the gaze point, a gaze point is the target area If the absence period determined to not exist in the group exceeds the predetermined period, at least one of the alerting voice and the visible light pattern is output from the output device, and the attention point is output in the state where the alerting signal is output. A process of stopping the output of the alerting signal when it is determined to exist in the target area, and a process of obtaining evaluation data of the subject based on the position data of the subject's gaze point It stores the evaluation program to be executed by the computer.

出力制御部226は、出力装置50、音声出力装置70、可視光パターン出力装置80の少なくとも一つにデータを出力する。本実施形態において、出力制御部226は、音声出力装置70に被験者に対して指示を行う指示用音声や、被験者の注意を引き付ける注意喚起音声を出力させる。また、出力制御部226は、被験者の注意を引き付ける可視光パターンを出力させる。   The output control unit 226 outputs data to at least one of the output device 50, the audio output device 70, and the visible light pattern output device 80. In the present embodiment, the output control unit 226 causes the voice output device 70 to output an instruction voice for instructing the subject and an alerting voice for attracting the subject's attention. Further, the output control unit 226 outputs a visible light pattern that attracts the attention of the subject.

また、出力制御部226は、不在期間が所定期間を超える場合、注意喚起音声及び可視光パターンの少なくとも一方の注意喚起信号を出力装置(音声出力装置70、可視光パターン出力装置80)から出力させる。出力制御部226は、注意喚起信号を出力装置から出力させることにより、被験者の注意を引き付け、注視点を目標領域に誘導する。以下、注意喚起信号を出力装置から出力させる処理を、視線誘導処理と表記する場合がある。出力制御部226は、注意喚起信号が出力されている状態で注視点が目標領域に存在すると判定された場合には、注意喚起信号の出力を停止させる。つまり、出力制御部226は、視線誘導処理が行われている状態で、注視点が目標領域に存在すると判定された場合には、視線誘導処理を停止させる。   Further, when the absence period exceeds the predetermined period, the output control unit 226 causes the output device (the voice output device 70, the visible light pattern output device 80) to output at least one of the alerting voice and the visible light pattern. . The output control unit 226 attracts the attention of the subject by causing the output device to output an alerting signal, and guides the gaze point to the target area. Hereinafter, the process of outputting the alerting signal from the output device may be referred to as eye gaze processing. The output control unit 226 stops the output of the alerting signal when it is determined that the fixation point is in the target area in the state where the alerting signal is output. That is, the output control unit 226 stops the gaze guidance process when it is determined that the gaze point is in the target area in the gaze guidance process.

なお、出力制御部226は、被験者の左右それぞれの眼球111の注視点の位置を表示画面101S又は出力装置50に表示させてもよい。   The output control unit 226 may cause the display screen 101S or the output device 50 to display the positions of the fixation points of the left and right eyeballs 111 of the subject.

次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。図4及び図5は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図4は、1つの光源103Cで眼球111が照明される例を示す。図5は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。   Next, an outline of processing of the curvature center calculation unit 212 according to the present embodiment will be described. The curvature center calculation unit 212 calculates position data of the corneal curvature center of the eyeball 111 based on the image data of the eyeball 111. FIG.4 and FIG.5 is a schematic diagram for demonstrating the calculation method of the positional data of the corneal-curvature center 110 which concerns on this embodiment. FIG. 4 shows an example in which the eye 111 is illuminated by one light source 103C. FIG. 5 shows an example in which the eyeball 111 is illuminated by the first light source 103A and the second light source 103B.

まず、図4に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図4において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。   First, an example shown in FIG. 4 will be described. The light source 103C is disposed between the first camera 102A and the second camera 102B. The pupil center 112C is the center of the pupil 112. The corneal reflection center 113C is the center of the corneal reflection image 113. In FIG. 4, the pupil center 112 </ b> C indicates the pupil center when the eye 111 is illuminated by one light source 103 </ b> C. The corneal reflection center 113C indicates the corneal reflection center when the eye 111 is illuminated by one light source 103C. The corneal reflection center 113C exists on a straight line connecting the light source 103C and the corneal curvature center 110. The corneal reflection center 113 C is positioned at the midpoint between the corneal surface and the corneal curvature center 110. The corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110. Position data of the corneal reflection center 113C is detected by the stereo camera device 102. The corneal curvature center 110 is present on a straight line connecting the light source 103C and the corneal reflection center 113C. The curvature center calculation unit 212 calculates, as position data of the corneal curvature center 110, position data in which the distance from the corneal reflection center 113C is a predetermined value on the straight line. The predetermined value is a value determined in advance from a general curvature radius value of the cornea and the like, and is stored in the storage unit 222.

次に、図5に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部222に記憶されている。曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。   Next, an example shown in FIG. 5 will be described. In the present embodiment, the first camera 102A and the second light source 103B, and the second camera 102B and the first light source 103A are symmetrical with respect to a straight line passing an intermediate position between the first camera 102A and the second camera 102B. Placed in the position of. It can be considered that the virtual light source 103V exists at an intermediate position between the first camera 102A and the second camera 102B. The corneal reflection center 121 indicates the corneal reflection center in the image of the eyeball 111 taken by the second camera 102B. The corneal reflection center 122 indicates the corneal reflection center in the image of the eyeball 111 taken by the first camera 102A. The corneal reflection center 124 indicates the corneal reflection center corresponding to the virtual light source 103V. The positional data of the corneal reflection center 124 is calculated based on the positional data of the corneal reflection center 121 and the positional data of the corneal reflection center 122 acquired by the stereo camera device 102. The stereo camera device 102 detects position data of the corneal reflection center 121 and position data of the corneal reflection center 122 in a three-dimensional local coordinate system defined in the stereo camera device 102. For the stereo camera device 102, camera calibration is performed in advance by the stereo calibration method, and conversion parameters for converting the three-dimensional local coordinate system of the stereo camera device 102 to the three-dimensional global coordinate system are calculated. The conversion parameters are stored in the storage unit 222. The curvature center calculation unit 212 converts the position data of the corneal reflection center 121 and the position data of the corneal reflection center 122 acquired by the stereo camera device 102 into position data in a three-dimensional global coordinate system using conversion parameters. The curvature center calculation unit 212 calculates position data of the corneal reflection center 124 in the three-dimensional global coordinate system based on position data of the corneal reflection center 121 defined by the three-dimensional global coordinate system and position data of the corneal reflection center 122. Do. The corneal curvature center 110 is present on a straight line 123 connecting the virtual light source 103 V and the corneal reflection center 124. The curvature center calculation unit 212 calculates position data at which the distance from the corneal reflection center 124 is a predetermined value on the straight line 123 as position data of the corneal curvature center 110. The predetermined value is a value determined in advance from a general curvature radius value of the cornea and the like, and is stored in the storage unit 222.

このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。   Thus, even in the case where there are two light sources, the corneal curvature center 110 is calculated in the same manner as in the case where there are one light source.

角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。   The corneal curvature radius 109 is the distance between the corneal surface and the corneal curvature center 110. Therefore, the corneal curvature radius 109 is calculated by calculating the positional data of the corneal surface and the positional data of the corneal curvature center 110.

次に、本実施形態に係る視線検出方法の一例について説明する。図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理では、被験者に注視させるため、目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。出力制御部226は、設定された目標位置130に目標画像を表示させる。直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。   Next, an example of the gaze detection method according to the present embodiment will be described. FIG. 6 is a schematic view for explaining an example of the calibration process according to the present embodiment. In the calibration process, a target position 130 is set to cause the subject to gaze. The target position 130 is defined in a three-dimensional global coordinate system. In the present embodiment, the target position 130 is set, for example, at the center position of the display screen 101S of the display device 101. The target position 130 may be set at an end position of the display screen 101S. The output control unit 226 displays a target image at the set target position 130. The straight line 131 is a straight line connecting the virtual light source 103V and the corneal reflection center 113C. The straight line 132 is a straight line connecting the target position 130 and the pupil center 112C. The corneal curvature center 110 is an intersection point of the straight line 131 and the straight line 132. The curvature center calculation unit 212 calculates the position data of the corneal curvature center 110 based on the position data of the virtual light source 103V, the position data of the target position 130, the position data of the pupil center 112C, and the position data of the corneal reflection center 113C. Can be calculated.

次に、注視点検出処理について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。図7において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。   Next, attention point detection processing will be described. The fixation point detection process is performed after the calibration process. The fixation point detection unit 214 calculates the gaze vector of the subject and the position data of the fixation point based on the image data of the eye 111. FIG. 7 is a schematic view for explaining an example of gaze point detection processing according to the present embodiment. In FIG. 7, a gaze point 165 indicates a gaze point obtained from the corneal curvature center calculated using a general curvature radius value. The fixation point 166 indicates a fixation point obtained from the corneal curvature center calculated using the distance 126 obtained by the calibration process. The pupil center 112C indicates the pupil center calculated in the calibration process, and the corneal reflection center 113C indicates the cornea reflection center calculated in the calibration process. A straight line 173 is a straight line connecting the virtual light source 103V and the corneal reflection center 113C. The corneal curvature center 110 is the position of the corneal curvature center calculated from a general curvature radius value. The distance 126 is a distance between the pupil center 112C and the corneal curvature center 110 calculated by the calibration process. The corneal curvature center 110 H indicates the position of the corneal curvature center after correction using the distance 126 to correct the corneal curvature center 110. The corneal curvature center 110 H is obtained from the existence of the corneal curvature center 110 on the straight line 173 and the distance 126 between the pupil center 112 C and the corneal curvature center 110. Thereby, the line of sight 177 calculated when using a general curvature radius value is corrected to the line of sight 178. In addition, the fixation point on the display screen 101S of the display device 101 is corrected from the fixation point 165 to the fixation point 166.

[評価方法]
次に、本実施形態に係る評価方法について説明する。本実施形態において、視線検出装置100は、例えば被験者の視線を検出することで被験者を評価する評価装置として使用される。以下の説明においては、視線検出装置100を適宜、評価装置100、と称する場合がある。
[Evaluation method]
Next, an evaluation method according to the present embodiment will be described. In the present embodiment, the line-of-sight detection device 100 is used as an evaluation device that evaluates a subject by detecting the line of sight of the subject, for example. In the following description, the visual axis detection device 100 may be referred to as an evaluation device 100 as appropriate.

図8、図10及び図11は、評価装置100の表示画面101Sと被験者の注視点との関係を示す図である。図8に示すように、被験者の注視点P1が表示画面101Sの目標領域Aから外れた位置に存在する場合、注視点検出部214により求められる注視点の位置データは無効な値となる。   FIGS. 8, 10 and 11 are diagrams showing the relationship between the display screen 101S of the evaluation device 100 and the gaze point of the subject. As shown in FIG. 8, when the subject's gaze point P1 exists at a position deviated from the target area A of the display screen 101S, the gaze point position data obtained by the gaze point detection unit 214 has an invalid value.

図9は、表示画面101Sに設定される目標領域Aの一例を示す図である。本実施形態において、目標領域Aは、領域設定部216により、表示画面101Sの全面に設定されている。領域設定部216は、例えば表示画面101Sの基準点A1と、当該基準点A1からY方向に所定距離だけ離れた地点A2と、X方向に所定距離だけ離れた地点A3とに基づいて目標領域Aを設定する。なお、領域設定部216は、表示画面101Sの一部の領域に目標領域Aを設定してもよい。この場合、図9に示す状態から基準点A1、地点A2、A3の位置の設定を変更すればよい。   FIG. 9 is a diagram showing an example of the target area A set on the display screen 101S. In the present embodiment, the target area A is set by the area setting unit 216 on the entire surface of the display screen 101S. The area setting unit 216 sets a target area A based on, for example, a reference point A1 of the display screen 101S, a point A2 separated from the reference point A1 by a predetermined distance in the Y direction, and a point A3 separated by a predetermined distance in the X direction. Set The area setting unit 216 may set the target area A in a partial area of the display screen 101S. In this case, the setting of the positions of the reference point A1 and the points A2 and A3 may be changed from the state shown in FIG.

目標領域Aが設定された場合、判定部218は、注視点検出部214によって検出された注視点の位置データに基づいて、注視点が目標領域Aに存在するか否かを判定する。目標領域Aが表示画面101Sの全面に設定されている場合、注視点が表示画面101Sのいずれかの位置に存在する場合には、注視点が目標領域Aに存在する旨の判定を行う。一方、図8に示すように、注視点が表示画面101Sから外れた位置に存在する場合、つまり注視点検出部214により検出される位置データが無効な値となる場合には、注視点が目標領域Aに存在しない旨の判定を行う。判定部218は、少なくとも注視点検出部214による注視点の位置の取得処理を行う間、上記判定を行う。   When the target area A is set, the determination unit 218 determines whether the gaze point is present in the target area A, based on the position data of the gaze point detected by the gaze point detection unit 214. When the target area A is set on the entire surface of the display screen 101S, when the gaze point exists at any position on the display screen 101S, it is determined that the gaze point exists in the target area A. On the other hand, as shown in FIG. 8, when the fixation point exists at a position deviated from the display screen 101S, that is, when the position data detected by the fixation point detection unit 214 has an invalid value, the fixation point is the target. It is determined that the region A does not exist. The determination unit 218 performs the above determination at least while the gaze point detection unit 214 performs acquisition processing of the position of the gaze point.

判定部218において注視点が目標領域Aに存在しないと判定された回数が多くなるほど、注視点が目標領域Aに存在しない期間が長いと推定することができる。したがって、本実施形態において、注視点が目標領域Aに存在しない不在期間は、例えば判定部218で注視点が目標領域Aに存在しないと判定された回数とすることができる。演算部220は、判定部218に設けられるカウンタのカウント結果を用いて不在期間を算出可能である。   As the number of times the determination unit 218 determines that the gaze point is not present in the target area A increases, it can be estimated that the period in which the gaze point is not present in the target area A is longer. Therefore, in the present embodiment, the absent period in which the gaze point is not present in the target area A can be, for example, the number of times the determination unit 218 determines that the gaze point is not present in the target area A. The calculation unit 220 can calculate the absence period using the count result of the counter provided in the determination unit 218.

被験者の視線を検出することで被験者の評価を行う場合、注視点検出部214により無効なデータが検出される期間が長くなると、高精度な評価を行うことが困難となる。このため、図8のように被験者の注視点が目標領域Aに存在しないと判定される不在期間が所定期間を超える場合には、以下の手順により、効率的に被験者の注視点を表示画面101S内に誘導する視線誘導処理が行われる。   In the case of evaluating a subject by detecting the line of sight of the subject, when the period in which invalid data is detected by the gaze point detection unit 214 becomes long, it becomes difficult to perform highly accurate evaluation. For this reason, as shown in FIG. 8, when the absent period determined that the subject's gaze point is not present in the target area A exceeds the predetermined period, the subject's gaze point is displayed efficiently by the following procedure. A gaze guidance process is performed to guide the inside.

例えば、図10に示すように、出力制御部226は、表示画面101Sの下部に配置される音声出力装置70から注意喚起音声を出力させる。注意喚起音声を出力させることにより、被験者の注意を音声出力装置70側に引き付け、注視点を表示画面101Sの外側の位置P1から表示画面101S内の位置P2へと誘導する。注意喚起音声としては、ビープ音等の電子機器の発信音であってもよいし、動物の鳴き声や救急車のサイレン、打楽器を鳴らした音等、日常生活の中で聞き取れる音声であってもよい。   For example, as shown in FIG. 10, the output control unit 226 causes the voice output device 70 disposed at the lower part of the display screen 101S to output the alert voice. By outputting an alerting voice, the subject's attention is drawn to the audio output device 70 side, and the gaze point is guided from the position P1 outside the display screen 101S to the position P2 in the display screen 101S. The alerting voice may be a beep of an electronic device such as a beep, or may be a voice that can be heard in daily life, such as an animal scream, an ambulance siren, and a sound of a percussion instrument.

また、例えば、図11に示すように、出力制御部226は、表示画面101Sの下部に配置される可視光パターン出力装置80から可視光パターンを出力させる。可視光パターンを出力させることにより、被験者の注意を可視光パターン出力装置80側に引き付け、注視点を表示画面101Sの外側の位置(P1)から表示画面101S内の位置P3へと誘導する。可視光パターンの発光パターンについては、例えば所定間隔で点滅させる態様であってもよいし、発光色を変化させる態様であってもよい。   Further, for example, as shown in FIG. 11, the output control unit 226 causes the visible light pattern output device 80 disposed at the lower part of the display screen 101S to output a visible light pattern. By outputting the visible light pattern, the attention of the subject is drawn to the visible light pattern output device 80, and the fixation point is guided from the position (P1) outside the display screen 101S to the position P3 in the display screen 101S. The light emission pattern of the visible light pattern may be, for example, an aspect in which it blinks at a predetermined interval, or an aspect in which the emission color is changed.

出力制御部226は、図10に示す注意喚起音声の出力と、図11に示す可視光パターンの出力とを、同時に行ってもよい。これにより、注意喚起音声及び可視光パターンの双方の注意喚起信号により、被験者の注意を一層引き付けることが可能となる。例えば、注視点検出部214において、注視点が目標領域Aからどの程度離れた位置に存在するかを検出可能である場合、目標領域Aからの距離に応じて、注意喚起音声及び可視光パターンの組み合わせが異なるように設定してもよい。例えば、出力制御部226は、目標領域Aからの距離が所定の閾値よりも近い場合には注意喚起音声及び可視光パターンの一方のみを出力させ、目標領域Aからの距離が所定の閾値よりも遠い場合には、注意喚起音声及び可視光パターンの両方を出力させるようにしてもよい。   The output control unit 226 may simultaneously perform the output of the alerting voice shown in FIG. 10 and the output of the visible light pattern shown in FIG. This makes it possible to draw more attention of the subject by the alerting signal of both the alerting voice and the visible light pattern. For example, when it is possible to detect how far away the gaze point is from the target area A in the gaze point detection unit 214, according to the distance from the target area A, the alerting voice and the visible light pattern The combination may be set to be different. For example, when the distance from the target area A is smaller than a predetermined threshold, the output control unit 226 outputs only one of the alerting voice and the visible light pattern, and the distance from the target area A is larger than the predetermined threshold. In the case of being far away, both the alerting voice and the visible light pattern may be output.

また、表示制御部202は、上記のような注意喚起音声及び可視光パターンの少なくとも一方の注意喚起信号が出力される場合、当該注意喚起信号に関連する注意喚起画像を表示画面101Sに表示させてもよい。例えば、注意喚起信号として動物の鳴き声が出力される場合、表示制御部202は、当該鳴き声に該当する動物の画像を注意喚起画像として、表示画面101Sに表示させてもよい。また、注意喚起信号として救急車のサイレン音が出力される場合、表示制御部202は、救急車の画像を注意喚起画像として、表示画面101Sに表示させてもよい。注意喚起画像を表示画面101Sに表示させることで、被験者の注意を一層引き付けることが可能となる。また、注意喚起信号として注意喚起音声や可視光パターンを出力する代わりに、表示制御部202は、被験者の注意を引き付ける画像である注意喚起画像を表示してもよい。   Further, when at least one of the alerting signal and the visible light pattern as described above is output, the display control unit 202 causes the display screen 101S to display an alerting image related to the alerting signal. It is also good. For example, when the call of an animal is output as the alerting signal, the display control unit 202 may cause the display screen 101S to display an image of an animal corresponding to the call as an alerting image. In addition, when the siren sound of the ambulance is output as the alerting signal, the display control unit 202 may cause the display screen 101S to display an image of the ambulance as an alerting image. By displaying an alerting image on the display screen 101S, it is possible to further attract the attention of the subject. Further, instead of outputting the alerting voice or the visible light pattern as the alerting signal, the display control unit 202 may display an alerting image which is an image for attracting the attention of the subject.

判定部218は、出力制御部226による注意喚起信号の出力制御及び表示制御部202による注意喚起画像の表示制御が行われている間においても、注視点検出部214によって検出された注視点の位置データに基づいて、注視点が目標領域Aに存在するか否かを判定する。例えば、上記の注意喚起信号の出力制御及び注意喚起画像の表示制御により、被験者の注視点が表示画面101S内(目標領域A内)に誘導された場合、判定部218は、注視点が目標領域Aに存在する旨の判定を行う。   The determination unit 218 determines the position of the gaze point detected by the gaze point detection unit 214 even while the output control of the alerting signal by the output control unit 226 and the display control of the alert image by the display control unit 202 are performed. Based on the data, it is determined whether or not the fixation point is in the target area A. For example, when the subject's gaze point is guided into the display screen 101S (in the target area A) by the output control of the attention call signal and the display control of the attention call image described above, the determination unit 218 determines that the gaze point is the target area. A determination is made that it exists in A.

このように、注意喚起信号の出力制御及び表示制御部202による注意喚起画像の表示制御が行われている期間に、注視点が目標領域Aに存在する旨の判定が行われた場合には、被験者の注視点を目標領域Aに誘導することに成功したと考えられる。そこで、このような場合、出力制御部226は、注意喚起信号の出力を停止させる。また、表示制御部202は、注意喚起画像の表示を終了させる。   As described above, when it is determined that the fixation point is present in the target area A while the output control of the alerting signal and the display control of the alerting image by the display control unit 202 are performed, It is considered successful in guiding the subject's gaze point to the target area A. Therefore, in such a case, the output control unit 226 stops the output of the alerting signal. Further, the display control unit 202 ends the display of the alerting image.

上記のように被験者の注視点が目標領域Aから外れた位置に存在する場合、被験者は、表示画面101Sに表示される評価用画像を見ていないことになる。このため、表示画面101Sに評価用画像を表示させ続けると、被験者が見ていないまま評価用画像の表示が先に進んでしまう。   As described above, when the subject's gaze point is at a position deviated from the target area A, the subject does not look at the evaluation image displayed on the display screen 101S. For this reason, when the evaluation image is continuously displayed on the display screen 101S, the display of the evaluation image proceeds ahead without the subject looking.

そこで、不在期間が所定期間を超える場合、表示制御部202は、評価用画像の表示を停止させてもよい。この場合、被験者が表示画面101Sを見ていない間には評価用画像の表示が停止されるため、被験者が注視点を再び表示画面101S上に戻した場合、評価用画像が先に進んだ状態となるのを回避できる。   Therefore, when the absence period exceeds the predetermined period, the display control unit 202 may stop the display of the evaluation image. In this case, since the display of the evaluation image is stopped while the subject is not looking at the display screen 101S, if the test subject returns the gaze point on the display screen 101S again, the state in which the evaluation image has advanced Can be avoided.

また、表示制御部202は、評価用画像の表示が停止した状態で注視点が目標領域Aに存在すると判定された場合、つまり、被験者の注視点が目標領域Aに誘導された場合、評価用画像の表示を再開させてもよい。この場合、表示制御部202は、停止した時点から評価用画像の表示を再開させてもよいし、停止した時点よりも遡った時点から評価用画像の表示を再開させてもよい。   In addition, when it is determined that the fixation point is present in the target area A while the display of the evaluation image is stopped, that is, when the fixation point of the subject is guided to the target area A, the display control unit 202 The display of the image may be resumed. In this case, the display control unit 202 may resume the display of the evaluation image from the point of stop, or may resume the display of the evaluation image from the point backward from the point of stop.

次に、本実施形態に係る評価方法の一例について、図12を参照しながら説明する。図12は、本実施形態に係る評価方法の一例を示すフローチャートである。まず、表示制御部202は、評価用画像を選択して表示画面101Sに表示させる(ステップS101)。次に、注視点検出部214は、キャリブレーションを行い(ステップS102)、注視点の位置データを検出する際に用いるパラメータを算出して設定する(ステップS103)。次に、演算部220は、視線誘導処理を実行するまでの閾値となる所定の期間を設定する(ステップS104)。また、演算部220は、注視点が目標領域Aに存在しない期間をカウントするカウンタの値をリセットする。   Next, an example of the evaluation method according to the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing an example of the evaluation method according to the present embodiment. First, the display control unit 202 selects an evaluation image and causes the display screen 101S to display the image (step S101). Next, the gaze point detection unit 214 performs calibration (step S102), and calculates and sets parameters used when detecting position data of the gaze point (step S103). Next, the calculation unit 220 sets a predetermined period which is a threshold until execution of the gaze guidance processing (step S104). In addition, the calculation unit 220 resets the value of the counter that counts the period in which the fixation point is not present in the target area A.

所定の期間が設定され、カウンタの値がリセットされた後、注視点検出部214は、注視点の位置データの検出を開始する(ステップS105)。注視点の位置データの検出が開始された場合、出力制御部226は、視線検出処理を行う(ステップS106)。視線検出処理の詳細については後述する。   After the predetermined period is set and the value of the counter is reset, the fixation point detection unit 214 starts detection of position data of the fixation point (step S105). When the detection of the position data of the fixation point is started, the output control unit 226 performs a gaze detection process (step S106). Details of the gaze detection process will be described later.

その後、表示制御部202は、評価用画像の表示が完了したか否かを判断する(ステップS107)。評価用画像の表示が完了したと判断された場合(ステップS107のYes)、評価部224は、注視点検出部214の検出結果に基づいて、被験者の評価データを求め(ステップS108)、出力装置50等に出力させる(ステップS109)。なお、出力制御部226は、求めた評価データを記憶部222に記憶させてもよい。一方、評価用画像の表示が完了していないと判断された場合(ステップS107のNo)、出力制御部226は、繰り返し視線検出処理を行う(ステップS106)。   Thereafter, the display control unit 202 determines whether the display of the evaluation image is completed (step S107). When it is determined that the display of the evaluation image is completed (Yes in step S107), the evaluation unit 224 obtains evaluation data of the subject based on the detection result of the gaze point detection unit 214 (step S108), and outputs the output device It is output to 50 and the like (step S109). The output control unit 226 may store the obtained evaluation data in the storage unit 222. On the other hand, when it is determined that the display of the evaluation image is not completed (No in step S107), the output control unit 226 repeatedly performs the gaze detection process (step S106).

次に、視線誘導処理について説明する。図13から図15は、視線誘導処理の一例を示すフローチャートである。図13では、視線誘導処理として、刺激音声の出力及び関連画像の表示を行う場合の一例を示している。図13に示すように、視線誘導処理において、注視点検出部214は、注視点の位置データを取得する(ステップS201)。判定部218は、取得された注視点の位置データに基づいて、注視点が目標領域Aに存在するか否かを判定する(ステップS202)。   Next, the gaze guidance processing will be described. 13 to 15 are flowcharts showing an example of the line-of-sight guidance processing. FIG. 13 illustrates an example in the case of performing output of a stimulus sound and display of a related image as the line-of-sight guidance processing. As shown in FIG. 13, in gaze guidance processing, the gaze point detection unit 214 acquires position data of the gaze point (step S201). The determination unit 218 determines whether the fixation point is present in the target area A, based on the acquired position data of the fixation point (step S202).

ステップS202において、注視点が目標領域Aに存在しないと判定された場合(ステップS202のNo)、演算部220は、カウンタの値を所定数(例えば、+1)アップさせる(ステップS203)。ステップS203の後、出力制御部226は、不在期間が所定期間を超えたか否かを判断する(ステップS204)。出力制御部226は、不在期間が所定期間を超えたと判断した場合(ステップS204のYes)、音声出力装置70から刺激音声を出力させる(ステップS205)。また、表示制御部202は、関連画像を表示するか否かの判断を行い(ステップS206)、関連画像を表示すると判断した場合には(ステップS206のYes)、表示画面101Sに関連画像を表示させる(ステップS207)。また、表示制御部202は、ステップS206において、関連画像を表示しないと判断した場合には(ステップS206のNo)、ステップS207を行わないようにする。ステップS207の処理又はステップS206のNoの処理を行った場合、出力制御部226は、刺激音声を出力したタイミングを記憶部222に記憶させる(ステップS208)。このタイミングに関するデータは、被験者を評価する評価データに含めてもよい。   When it is determined in step S202 that the fixation point is not present in the target area A (No in step S202), the arithmetic unit 220 increases the value of the counter by a predetermined number (for example, +1) (step S203). After step S203, the output control unit 226 determines whether the absence period has exceeded a predetermined period (step S204). When it is determined that the absence period has exceeded the predetermined period (Yes in step S204), the output control unit 226 causes the voice output device 70 to output a stimulation voice (step S205). Further, the display control unit 202 determines whether or not to display the related image (step S206), and when it is determined to display the related image (Yes in step S206), the related image is displayed on the display screen 101S. (Step S207). When the display control unit 202 determines in step S206 that the related image is not to be displayed (No in step S206), the display control unit 202 does not perform step S207. When the process of step S207 or the process of No of step S206 is performed, the output control unit 226 stores the timing at which the stimulation voice is output in the storage unit 222 (step S208). Data on the timing may be included in evaluation data for evaluating a subject.

一方、上記ステップS202において注視点が目標領域Aに存在すると判定された場合(ステップS202のYes)、演算部220は、カウンタの値をリセットさせる(ステップS209)。ステップS209の後、出力制御部226及び表示制御部202は、注意喚起音声の出力及び注意喚起画像の表示が行われているか否かを判断する(ステップS210)。出力制御部226及び表示制御部202は、注意喚起音声の出力及び注意喚起画像の表示が行われていると判断した場合(ステップS210のYes)、注意喚起音声の出力を終了させ、注意喚起画像の表示を終了させる(ステップS211)。   On the other hand, when it is determined in step S202 that the fixation point is present in the target area A (Yes in step S202), the computing unit 220 resets the value of the counter (step S209). After step S209, the output control unit 226 and the display control unit 202 determine whether the output of the alerting voice and the display of the alerting image are performed (step S210). When the output control unit 226 and the display control unit 202 determine that the output of the alerting voice and the display of the alerting image are performed (Yes in step S210), the output of the alerting voice is ended, and the alerting image is displayed. Is displayed (step S211).

上記のフローにおいて、ステップS204のNoの処理、ステップS208の処理、ステップS210のNoの処理、又はステップS211の処理を行われた場合、視線誘導処理が完了する。   In the above flow, when the process of No in step S204, the process of step S208, the process of No in step S210, or the process of step S211 is performed, the line-of-sight guidance process is completed.

次に、図14を参照して、視線誘導処理の他の例を説明する。図14では、視線誘導処理として、可視光パターンの出力と注意喚起音声の出力とを行う場合の一例を示している。図14に示す例では、ステップS301〜ステップS304については、図13に示す例のステップS201〜ステップS204と同様である。この場合、ステップS304において、出力制御部226は、不在期間が所定期間を超えたと判断した場合(ステップS304のYes)、可視光パターン出力装置80から可視光パターンを出力させる(ステップS305)。また、出力制御部226は、可視光パターンと同時に注意喚起音声を出力させるか否かを判断し(ステップS306)、注意喚起音声を出力させると判断した場合には(ステップS306のYes)、音声出力装置70から注意喚起音声を出力させる(ステップS307)。また、出力制御部226は、ステップS306において、注意喚起音声の出力を行わないと判断した場合には(ステップS306のNo)、ステップS307を行わないようにする。ステップS307の処理又はステップS306のNoの処理を行った場合、出力制御部226は、可視光パターンを出力したタイミングを記憶部222に記憶させる(ステップS308)。このタイミングに関するデータは、被験者を評価する評価データに含めてもよい。   Next, another example of the line-of-sight guidance processing will be described with reference to FIG. FIG. 14 shows an example in the case of performing the output of a visible light pattern and the output of an alerting voice as the gaze guidance processing. In the example shown in FIG. 14, steps S301 to S304 are the same as steps S201 to S204 in the example shown in FIG. In this case, in step S304, when the output control unit 226 determines that the absent period has exceeded the predetermined period (Yes in step S304), the output control unit 226 causes the visible light pattern output device 80 to output a visible light pattern (step S305). Further, the output control unit 226 determines whether or not to output the alerting voice simultaneously with the visible light pattern (step S306), and when it is determined to output the alerting voice (Yes in step S306), A warning voice is output from the output device 70 (step S307). When the output control unit 226 determines in step S306 that the alerting voice is not output (No in step S306), the output control unit 226 does not perform step S307. When the process of step S307 or the process of step S306 is performed, the output control unit 226 causes the storage unit 222 to store the timing at which the visible light pattern is output (step S308). Data on the timing may be included in evaluation data for evaluating a subject.

一方、上記ステップS302において注視点が目標領域Aに存在すると判定された場合(ステップS302のYes)、演算部220は、カウンタの値をリセットさせる(ステップS309)。ステップS309の後、出力制御部226は、可視光パターンの出力及び注意喚起音声の出力が行われているか否かを判断する(ステップS310)。出力制御部226は、可視光パターンの出力及び注意喚起音声の出力が行われていると判断した場合(ステップS310のYes)、可視光パターンの出力及び注意喚起音声の出力を終了させる(ステップS311)。   On the other hand, when it is determined in step S302 that the gaze point is present in the target area A (Yes in step S302), the computing unit 220 resets the value of the counter (step S309). After step S309, the output control unit 226 determines whether the output of the visible light pattern and the output of the alerting voice are performed (step S310). When it is determined that the output of the visible light pattern and the output of the alerting voice are being performed (Yes in step S310), the output control unit 226 ends the output of the visible light pattern and the output of the alerting voice (step S311). ).

上記のフローにおいて、ステップS304のNoの処理、ステップS308の処理、ステップS310のNoの処理、又はステップS311の処理を行われた場合、視線誘導処理が完了する。   In the above flow, when the process of No in step S304, the process of step S308, the process of No in step S310, or the process of step S311 is performed, the line-of-sight guidance process is completed.

次に、図15を参照して、視線誘導処理の他の例を説明する。図15では、視線誘導処理として、注意喚起音声の出力、可視光パターンの出力、及び注意喚起画像の表示をすべて行う場合の一例を示している。図15に示す例では、ステップS401〜ステップS404については、図13に示す例のステップS201〜ステップS204と同様である。この場合、ステップS404において、出力制御部226は、不在期間が所定期間を超えたと判断した場合(ステップS404のYes)、音声出力装置70から注意喚起音声を出力させる(ステップS405)。また、出力制御部226は、可視光パターン出力装置80から可視光パターンを出力させる(ステップS406)。そして、表示制御部202は、表示画面101Sに注意喚起画像を表示させる(ステップS407)。その後、出力制御部226は、注意喚起音声を出力したタイミングを記憶部222に記憶させる(ステップS408)。このタイミングに関するデータは、被験者を評価する評価データに含めてもよい。   Next, another example of the line-of-sight guidance processing will be described with reference to FIG. FIG. 15 shows an example in the case where the output of the alerting voice, the output of the visible light pattern, and the display of the alerting image are all performed as the visual line guidance processing. In the example shown in FIG. 15, steps S401 to S404 are the same as steps S201 to S204 in the example shown in FIG. In this case, in step S404, when the output control unit 226 determines that the absence period has exceeded the predetermined period (Yes in step S404), the output control unit 226 causes the voice output device 70 to output a reminder voice (step S405). Further, the output control unit 226 causes the visible light pattern output device 80 to output a visible light pattern (step S406). Then, the display control unit 202 displays an alerting image on the display screen 101S (step S407). Thereafter, the output control unit 226 causes the storage unit 222 to store the timing at which the alerting voice is output (step S408). Data on the timing may be included in evaluation data for evaluating a subject.

一方、上記ステップS402において注視点が目標領域Aに存在すると判定された場合(ステップS402のYes)、演算部220は、カウンタの値をリセットさせる(ステップS409)。ステップS409の後、出力制御部226は、注意喚起音声の出力及び可視光パターンの出力が行われているか否かを判断する(ステップS410)。出力制御部226は、激音声の出力及び可視光パターンの出力の出力が行われていると判断した場合(ステップS410のYes)、激音声の出力及び可視光パターンの出力の出力を終了させる(ステップS411)。同様に、表示制御部202は、注意喚起画像の表示が行われているか否かを判断し、注意喚起画像の表示が行われていると判断した場合、注意喚起画像の表示を終了させる。   On the other hand, when it is determined in step S402 that the gaze point is present in the target area A (Yes in step S402), the arithmetic unit 220 resets the value of the counter (step S409). After step S409, the output control unit 226 determines whether the output of the alerting voice and the output of the visible light pattern are performed (step S410). If the output control unit 226 determines that the output of the intense sound and the output of the visible light pattern is being performed (Yes in step S410), the output control unit 226 terminates the output of the intense sound and the output of the visible light pattern Step S411). Similarly, the display control unit 202 determines whether or not the display of the alerting image is performed, and ends the display of the alerting image when it is determined that the display of the alerting image is performed.

上記のフローにおいて、ステップS404のNoの処理、ステップS408の処理、ステップS410のNoの処理、又はステップS411の処理を行われた場合、視線誘導処理が完了する。   In the above flow, when the process of No in step S404, the process of step S408, the process of No in step S410, or the process of step S411 is performed, the line-of-sight guidance process is completed.

次に、本実施形態に係る評価方法の他の例について、図16を参照しながら説明する。図16は、本実施形態に係る評価方法の他の例を示すフローチャートである。図16では、不在期間が所定期間を超える場合に評価用画像の表示を停止させる場合の一例を示している。図16に示す例では、ステップS501〜ステップS506、ステップS511〜ステップS513の処理については、それぞれ、図12に示す例のステップS101〜ステップS106、ステップS107〜ステップS109の処理と同様である。この場合、ステップS506(図13から図15参照)の後、表示制御部202は、視線誘導処理(注意喚起信号の出力)を行ったか否かを判断する(ステップS507)。表示制御部202は、視線誘導処理を行ったと判断した場合(ステップS507のYes)、評価用画像の表示を停止させてから(ステップS508)、ステップS511の処理に移行する。また、表示制御部202は、視線誘導処理を行わなかったと判断した場合(ステップS507のNo)、当該ステップS507を行った以前に直近に行ったステップS507において、視線誘導処理を行ったと判断したか否かを判断する(ステップS509)。ステップS509において、視線誘導処理を行ったという判断である場合(ステップS509のYes)、評価用画像は停止した状態であるため、当該評価用画像の表示を再開させる(ステップS510)。また、ステップS509において、視線誘導処理を行わなかったという判断である場合(ステップS509のNo)、評価用画像の表示が既に再開されているため、ステップS510の処理を行わずに、ステップS511の処理に移行する。   Next, another example of the evaluation method according to the present embodiment will be described with reference to FIG. FIG. 16 is a flowchart showing another example of the evaluation method according to the present embodiment. FIG. 16 illustrates an example in which the display of the evaluation image is stopped when the absence period exceeds the predetermined period. In the example illustrated in FIG. 16, the processes of steps S501 to S506 and steps S511 to S513 are the same as the processes of steps S101 to S106 and steps S107 to S109 of the example illustrated in FIG. 12, respectively. In this case, after step S506 (see FIG. 13 to FIG. 15), the display control unit 202 determines whether or not the line-of-sight guidance processing (output of the alerting signal) has been performed (step S507). If the display control unit 202 determines that the visual line guidance processing has been performed (Yes in step S507), the display control unit 202 stops the display of the evaluation image (step S508), and proceeds to the processing of step S511. If the display control unit 202 determines that the line-of-sight guidance processing has not been performed (No in step S507), has the display control unit 202 determined that the line-of-sight guidance processing has been performed in step S507 most recently performed before performing the step S507? It is determined whether or not it is (step S509). If it is determined in step S509 that the visual line guidance processing has been performed (Yes in step S509), the evaluation image is in a stopped state, and thus the display of the evaluation image is resumed (step S510). If it is determined in step S509 that the line-of-sight guidance processing has not been performed (No in step S509), the display of the evaluation image has already been resumed, so the process of step S510 is not performed. Transfer to processing.

以上のように、本実施形態に係る評価装置100は、被験者の画像データを取得する画像データ取得部206と、画像データに基づいて、被験者の注視点の位置データを検出する注視点検出部214と、表示画面101Sに被験者を評価する評価用画像を表示させる表示制御部202と、表示画面101Sにおいて、被験者の注視点の目標領域Aを設定する領域設定部216と、注視点の位置データに基づいて、注視点が目標領域Aに存在するか否かを判定する判定部218と、注視点が目標領域Aに存在しないと判定される不在期間が所定期間を超える場合に注意喚起信号を出力装置(70、80)から出力させ、当該注意喚起信号が出力された状態で注視点が目標領域Aに存在すると判定された場合に注意喚起信号の出力を停止させる出力制御部226と、被験者の注視点の位置データに基づいて、被験者の評価データを求める評価部224とを備える。   As described above, the evaluation apparatus 100 according to the present embodiment includes the image data acquisition unit 206 that acquires the image data of the subject, and the gaze point detection unit 214 that detects the position data of the gaze point of the subject based on the image data. The display control unit 202 displays an evaluation image for evaluating the subject on the display screen 101S, the area setting unit 216 sets the target area A of the subject's gaze point on the display screen 101S, and position data of the gaze point Based on the determination unit 218 which determines whether or not the fixation point is present in the target area A, and outputs an alerting signal when the absence period determined to be absent in the target area A exceeds the predetermined period. It is output from the devices (70, 80), and the output of the alerting signal is stopped when it is determined that the gaze point is in the target area A in the state where the alerting signal is output. A control unit 226, based on the position data of the focus point of a subject, and a evaluation unit 224 for obtaining the evaluation data of the subject.

この構成によれば、注意喚起音声及び可視光パターンの少なくとも一方の注意喚起信号により被験者の注意を引き付けることができ、被験者の注視点を目標領域Aに効率的に誘導することができる。また、被験者の注視点が目標領域Aに誘導された場合、注意喚起信号の出力を停止させるため、注視点を誘導した後には視線検出処理を速やかに継続させることができる。   According to this configuration, the attention of the subject can be drawn by the attention calling signal of at least one of the attention calling voice and the visible light pattern, and the subject's gaze point can be efficiently guided to the target area A. In addition, when the subject's gaze point is guided to the target area A, the gaze detection process can be promptly continued after guiding the gaze point in order to stop the output of the alerting signal.

本実施形態に係る評価装置100において、表示制御部202は、不在期間が所定期間を超える場合に、注意喚起信号に連動する注意喚起画像を表示画面101Sに表示させる。これにより、被験者の注意を一層引き付けることが可能となる。   In the evaluation device 100 according to the present embodiment, the display control unit 202 causes the display screen 101S to display an alerting image interlocked with the alerting signal when the absence period exceeds the predetermined period. This makes it possible to draw more attention from the subject.

本実施形態に係る評価装置100において、領域設定部216は、目標領域Aを表示画面101Sの全面に設定する。これにより、被験者の注視点を誘導する目標領域Aを広く確保できる。   In the evaluation device 100 according to the present embodiment, the area setting unit 216 sets the target area A on the entire surface of the display screen 101S. This makes it possible to secure a wide target area A for guiding the subject's gaze point.

本実施形態に係る評価装置100において、表示制御部202は、不在期間が所定期間を超える場合に、画像の表示を停止させる。これにより、被験者が表示画面101Sを見ていない間には評価用画像の表示が停止されるため、被験者が注視点を再び表示画面101S上に戻した場合、評価用画像が先に進んだ状態となるのを回避できる。   In the evaluation device 100 according to the present embodiment, the display control unit 202 stops the display of the image when the absence period exceeds the predetermined period. As a result, the display of the evaluation image is stopped while the subject is not looking at the display screen 101S. Therefore, when the test subject returns the gaze point on the display screen 101S again, the evaluation image is advanced. Can be avoided.

本実施形態に係る評価装置100において、表示制御部202は、画像の表示が停止した状態で注視点が目標領域Aに存在すると判定された場合に、画像の表示を再開させる。これにより、視線検出処理を速やかに継続させることができる。   In the evaluation device 100 according to the present embodiment, the display control unit 202 resumes the display of the image when it is determined that the gaze point is present in the target area A while the display of the image is stopped. Thereby, the sight line detection process can be continued promptly.

本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。例えば、上記実施形態では、図16に示すように、不在期間が所定期間を超える場合に、視線誘導処理を行いかつ評価用画像の表示を停止させる処理を行う処理を例に挙げて説明したが、これに限定されない。例えば、不在期間が所定期間を超える場合に、視線誘導処理を行うことなく、評価用画像の表示を停止させる処理のみを行ってもよい。   The technical scope of the present invention is not limited to the above embodiment, and appropriate modifications can be made without departing from the scope of the present invention. For example, in the above embodiment, as shown in FIG. 16, the process of performing the line-of-sight guidance process and the process of stopping the display of the evaluation image has been described as an example. Not limited to this. For example, when the absence period exceeds the predetermined period, only the process of stopping the display of the evaluation image may be performed without performing the gaze guidance process.

図17は、本実施形態に係る評価方法の他の例を示すフローチャートである。図17では、不在期間が所定期間を超える場合に評価用画像の表示を停止させる場合の一例を示している。図17に示す例では、ステップS601〜ステップS604については、図13に示す例のステップS201〜ステップS204と同様である。この場合、ステップS604において、出力制御部226は、不在期間が所定期間を超えたと判断した場合(ステップS604のYes)、表示制御部202は、評価用画像の表示を停止させる(ステップS605)。その後、表示制御部202は、評価用画像の表示を停止したタイミングを記憶部222に記憶させる(ステップS606)。   FIG. 17 is a flowchart showing another example of the evaluation method according to the present embodiment. FIG. 17 illustrates an example in which the display of the evaluation image is stopped when the absence period exceeds the predetermined period. In the example shown in FIG. 17, steps S601 to S604 are the same as steps S201 to S204 in the example shown in FIG. In this case, when the output control unit 226 determines that the absence period has exceeded the predetermined period in step S604 (Yes in step S604), the display control unit 202 stops the display of the evaluation image (step S605). Thereafter, the display control unit 202 causes the storage unit 222 to store the timing at which the display of the evaluation image is stopped (step S606).

一方、上記ステップS602において注視点が目標領域Aに存在すると判定された場合(ステップS602のYes)、演算部220は、カウンタの値をリセットさせる(ステップS607)。ステップS607の後、表示制御部202は、評価用画像が停止しているか否かを判断する(ステップS608)。表示制御部202は、評価用画像が停止していると判断した場合(ステップS608のYes)、評価用画像の表示を再開させる(ステップS609)。また、表示制御部202は、評価用画像が停止していないと判断した場合(ステップS608のNo)、ステップS609を行うことなく、処理を終了させる。   On the other hand, when it is determined in step S602 that the fixation point is present in the target area A (Yes in step S602), the computing unit 220 resets the value of the counter (step S607). After step S607, the display control unit 202 determines whether the evaluation image is stopped (step S608). If the display control unit 202 determines that the evaluation image is stopped (Yes in step S608), the display control unit 202 resumes the display of the evaluation image (step S609). Further, when the display control unit 202 determines that the evaluation image is not stopped (No in step S608), the process is ended without performing step S609.

このように、表示制御部202は、不在期間が所定期間を超える場合に、画像の表示を停止させる。これにより、被験者が表示画面101Sを見ていない間には評価用画像の表示が停止されるため、被験者が注視点を再び表示画面101S上に戻した場合、評価用画像が先に進んだ状態となるのを回避できる。   Thus, the display control unit 202 stops the display of the image when the absence period exceeds the predetermined period. As a result, the display of the evaluation image is stopped while the subject is not looking at the display screen 101S. Therefore, when the test subject returns the gaze point on the display screen 101S again, the evaluation image is advanced. Can be avoided.

[実施形態2]
図18及び図19は、評価装置の表示画面と被験者の注視点との関係についての他の例を示す図である。図18に示す例では、被験者の左目111Lの視線178Lと、右目111Rの視線178Rとの交点である注視位置Pcが、表示画面101S上に存在している。この場合、被験者は、表示画面101Sを注視していると判定できる。
Second Embodiment
FIG. 18 and FIG. 19 are diagrams showing other examples of the relationship between the display screen of the evaluation device and the gaze point of the subject. In the example illustrated in FIG. 18, a gaze position Pc, which is an intersection point of the line of sight 178L of the left eye 111L of the subject and the line of sight 178R of the right eye 111R, is present on the display screen 101S. In this case, it can be determined that the subject is gazing at the display screen 101S.

一方、図19に示す例では、被験者の左目111Lの視線178Lと、右目111Rの視線178Rとの交点である注視位置Pcが、被験者から見て表示画面101Sよりも遠方に存在している。表示画面101Sには、被験者の左目111Lについての注視点Plと、右目111Rについての注視点Prとが離れた位置に存在している。このとき、表示画面101Sでは、被験者の注視点は、左目111Lの注視点Plと、右目111Rの注視点Prとの間の位置Peに存在すると算出される。   On the other hand, in the example shown in FIG. 19, a gaze position Pc, which is an intersection point of a line of sight 178L of the left eye 111L of the subject and a line of sight 178R of the right eye 111R, is distant from the display screen 101S as viewed from the subject. In the display screen 101S, the gaze point Pl for the left eye 111L of the subject and the gaze point Pr for the right eye 111R are present at a distance from each other. At this time, on the display screen 101S, it is calculated that the subject's gaze point exists at a position Pe between the gaze point Pl of the left eye 111L and the gaze point Pr of the right eye 111R.

左目111Lの注視点Plと、右目111Rの注視点Prとの距離が大きいと、注視位置Pcと左右の注視点の間の位置Peとの距離が大きくなるため、被験者が位置Peを注視しているとは言えない状態となる。そこで、処理部220は、左目111Lの注視点Plと、右目111Rの注視点Prとの距離を算出し、当該距離が所定の閾値以上の場合には、被験者が表示画面101Sを注視していないと判断することができる。   If the distance between the fixation point Pl of the left eye 111L and the fixation point Pr of the right eye 111R is large, the distance between the fixation position Pc and the position Pe between the right and left fixation points becomes large. It can not be said that Therefore, the processing unit 220 calculates the distance between the fixation point Pl of the left eye 111L and the fixation point Pr of the right eye 111R, and when the distance is equal to or more than a predetermined threshold, the subject is not gazing at the display screen 101S. It can be judged.

図20は、評価方法の他の例を示すフローチャートである。図20に示す例において、ステップS701〜ステップS703は、図12に示す例のステップS101〜ステップS103と同様である。ステップS703の後、演算部220は、注視位置の判定に使用する左右の注視点間距離の閾値Xを設定する(ステップS704)。閾値Xを設定した後、注視点検出部214は、注視点の位置データの検出を開始し(ステップS705)、被験者の眼球111の映像データを取得し(ステップS706)、左右の注視点の位置データを算出する(ステップS707)。   FIG. 20 is a flowchart showing another example of the evaluation method. In the example shown in FIG. 20, steps S701 to S703 are the same as steps S101 to S103 in the example shown in FIG. After step S703, the calculation unit 220 sets the threshold X of the distance between the left and right gaze points used to determine the gaze position (step S704). After setting the threshold value X, the fixation point detection unit 214 starts detection of position data of the fixation point (step S705), acquires video data of the eyeball 111 of the subject (step S706), and positions of the right and left fixation points. Data are calculated (step S 707).

判定部218は、算出された左右の注視点間の距離が閾値Xよりも小さいか否かを判定する(ステップS708)。演算部220は、左右の注視点間の距離が閾値Xよりも小さい場合(ステップS708のYes)、被験者が表示画面101Sを注視しているものとし、左右の注視点の位置データを記憶部222に記憶させる(ステップS710)。一方、演算部220は、左右の注視点間の距離が閾値X以上である場合(ステップS708のNo)、被験者が表示画面101Sを注視していないものとし、注視点の判定が無効である旨のフラグを記録した上で(ステップS709)、左右の注視点の位置データを記憶部222に記憶させる(ステップS710)。   The determination unit 218 determines whether the calculated distance between the right and left fixation points is smaller than the threshold X (step S 708). If the distance between the right and left fixation points is smaller than the threshold X (Yes in step S 708), the calculation unit 220 assumes that the subject is gazing at the display screen 101 S, and stores the position data of the left and right fixation points. (Step S710). On the other hand, when the distance between the right and left fixation points is equal to or larger than the threshold X (No in step S708), the calculation unit 220 assumes that the subject is not gazing at the display screen 101S, and that the determination of the fixation points is invalid. Is recorded (step S709), and the position data of the right and left gaze points are stored in the storage unit 222 (step S710).

その後、表示制御部202は、評価用画像の表示が完了したか否かを判断する(ステップS711)。評価用画像の表示が完了したと判断された場合(ステップS711のYes)、評価部224は、注視点検出部214の検出結果に基づいて、被験者の評価データを求め(ステップS712)、出力装置50等に出力させる(ステップS713)。なお、出力制御部226は、求めた評価データを記憶部222に記憶させてもよい。一方、評価用画像の表示が完了していないと判断された場合(ステップS711のNo)、出力制御部226は、繰り返し映像データの取得を行う(ステップS706)。   After that, the display control unit 202 determines whether the display of the evaluation image is completed (step S711). When it is determined that the display of the evaluation image is completed (Yes in step S711), the evaluation unit 224 obtains evaluation data of the subject based on the detection result of the gaze point detection unit 214 (step S712), and outputs the output device It is output to 50 and the like (step S713). The output control unit 226 may store the obtained evaluation data in the storage unit 222. On the other hand, when it is determined that the display of the evaluation image is not completed (No in step S711), the output control unit 226 repeatedly acquires the video data (step S706).

このように、左右の注視点間距離を算出し、算出結果に基づいて被験者が表示画面101Sを注視していないと判断することが可能となるため、被験者が表示画面101Sを注視していないと判断した場合の検出結果を用いないようにする等、無効化する処理を行うことができる。これにより、評価方法における精度を向上させることができる。   As described above, it is possible to calculate the left and right gaze point distances and to judge that the subject is not gazing at the display screen 101S based on the calculation result, and therefore it is assumed that the subject is not gazing at the display screen 101S. It is possible to perform invalidation processing such as not using the detection result in the case of determination. Thereby, the accuracy in the evaluation method can be improved.

このような左右の注視点間距離に基づいて注視結果の有効性を判定する処理については、上記実施形態で説明した所定の信号の出力及び出力停止の処理に加えて、又は当該所定の信号の出力及び出力停止の処理に代えて行うことができる。また、左右の注視点間距離に基づいて注視結果の有効性を判定する処理については、上記実施形態で説明した取得された注視点の位置データに基づいて、注視点が目標領域Aに存在するか否かを判定する処理に加えて、又は注視点が目標領域Aに存在するか否かを判定する処理に代えて行うことができる。   The process of determining the effectiveness of the gaze result based on the distance between the right and left fixation points in addition to the process of outputting and stopping the predetermined signal described in the above embodiment or the process of determining the effectiveness of the predetermined signal It can replace the process of output and output stop. Further, in the processing of determining the effectiveness of the fixation result based on the distance between the right and left fixation points, the fixation point exists in the target area A based on the acquired position data of the fixation points described in the above embodiment. In addition to the process of determining whether or not the process is performed, or in place of the process of determining whether or not the fixation point is in the target area A.

具体的には、例えば図12に示すステップS104とステップS105の間に、図20に示す、演算部220が注視点位置判定に使用する左右の注視点間距離Xを設定するステップS704を挿入する。図13に示すステップS202のYesと、ステップS209の間に、図20に示す、判定部218が左右の注視点間の距離が閾値Xよりも小さいか否かを判定するステップS708を挿入する。左右の注視点間の距離が閾値Xよりも小さい場合(ステップS708のYes)、被験者が目標領域Aを注視しているものとし、ステップS209に進む。左右の注視点間の距離が閾値X以上である場合(ステップS708のNo)、被験者が目標領域Aを注視していないものとし、ステップS203に進む、という評価方法にすることができる。   Specifically, for example, between step S104 and step S105 shown in FIG. 12, step S704 shown in FIG. 20 for setting the distance X between the right and left gaze points used for the gaze point position determination is inserted. . Step S 708 shown in FIG. 20 is performed to determine whether the distance between the right and left fixation points is smaller than the threshold X, between Yes in step S 202 shown in FIG. 13 and step S 209. If the distance between the right and left fixation points is smaller than the threshold X (Yes in step S 708), it is assumed that the subject is gazing at the target area A, and the process proceeds to step S 209. When the distance between the right and left fixation points is equal to or larger than the threshold X (No in step S 708), the evaluation method may be such that the subject is not gazing at the target area A and the process proceeds to step S 203.

[実施形態3]
図21から図23は、評価装置の表示画面と被験者の注視点との関係についての他の例を示す図である。図21から図23に示す例では、表示画面101Sと平行な仮想画面101A、101Bを用いている。仮想画面101Aは、表示画面101Sよりも被験者に近づく側に配置される。仮想画面101Bは、表示画面101Sよりも被験者から離れる側に配置される。仮想画面101Aと表示画面101Sとの間の距離は、仮想画面101Bと表示画面101Sとの間の距離に等しい(共に距離Y)。
Third Embodiment
21 to 23 are diagrams showing other examples of the relationship between the display screen of the evaluation device and the gaze point of the subject. In the examples shown in FIGS. 21 to 23, virtual screens 101A and 101B parallel to the display screen 101S are used. The virtual screen 101A is disposed closer to the subject than the display screen 101S. The virtual screen 101B is disposed on the side farther from the subject than the display screen 101S. The distance between the virtual screen 101A and the display screen 101S is equal to the distance between the virtual screen 101B and the display screen 101S (both are distance Y).

図21に示す例では、被験者の左目111Lの視線178Lと右目111Rの視線111Rの視線178Rとは、表示画面101Sと仮想画面101Bとの間で交差(注視位置Pc)している。この場合、表示画面101Sにおける左右の注視点間距離をL1とし、仮想画面101Aにおける左右の注視点間距離をL2とし、仮想画面101Bにおける左右の注視点間距離をL3とすると、L3<L2となっている。   In the example shown in FIG. 21, the line of sight 178L of the subject's left eye 111L and the line of sight 178R of the line of sight 111R of the right eye 111R intersect (gaze position Pc) between the display screen 101S and the virtual screen 101B. In this case, assuming that the left-right gaze point distance on the display screen 101S is L1, the left-right gaze point distance on the virtual screen 101A is L2, and the left-right gaze point distance on the virtual screen 101B is L3, L3 <L2. It has become.

図22に示す例では、被験者の左目111Lの視線178Lと右目111Rの視線111Rの視線178Rとは、表示画面101S上で交差(注視位置Pc)している。この場合、表示画面101Sにおける左右の注視点間距離をL1とし、仮想画面101Aにおける左右の注視点間距離をL2とし、仮想画面101Bにおける左右の注視点間距離をL3とすると、L1<L2、L1<L3、かつ、L2=L3となっている。   In the example shown in FIG. 22, the line of sight 178L of the left eye 111L of the subject and the line of sight 178R of the line of sight 111R of the right eye 111R intersect (gaze position Pc) on the display screen 101S. In this case, assuming that the distance between the right and left fixation points on the display screen 101S is L1, the distance between the right and left fixation points on the virtual screen 101A is L2, and the distance between right and left fixation points on the virtual screen 101B is L3, L1 <L2, L1 <L3 and L2 = L3.

図23に示す例では、被験者の左目111Lの視線178Lと右目111Rの視線111Rの視線178Rとは、表示画面101Sと仮想画面101Aとの間で交差(注視位置Pc)している。この場合、表示画面101Sにおける左右の注視点間距離をL1とし、仮想画面101Aにおける左右の注視点間距離をL2とし、仮想画面101Bにおける左右の注視点間距離をL3とすると、L2<L3となっている。   In the example shown in FIG. 23, the line of sight 178L of the left eye 111L of the subject and the line of sight 178R of the line of sight 111R of the right eye 111R intersect (gaze position Pc) between the display screen 101S and the virtual screen 101A. In this case, assuming that the left-right gaze point distance on the display screen 101S is L1, the left-right gaze point distance on the virtual screen 101A is L2, and the left-right gaze point distance on the virtual screen 101B is L3, L2 <L3. It has become.

このように、演算部220は、表示画面101Sの近方と遠方とに仮想画面101A、101Bを設定し、仮想画面101A、101Bにおける左右の注視点間距離と表示画面101Sにおける左右の注視点間距離とを比較することにより、被験者の左右の視線の交点である注視位置Pcが表示画面101Sよりも近方に存在するのか、遠方に存在するのかを判別することができる。   In this manner, the computing unit 220 sets the virtual screens 101A and 101B to the near and far sides of the display screen 101S, and the distance between the right and left fixation points on the virtual screens 101A and 101B and the right and left fixation points on the display screen 101S. By comparing the distance with the distance, it can be determined whether the focused position Pc, which is the intersection of the subject's right and left lines of sight, exists nearer or farther than the display screen 101S.

図24は、評価方法の他の例を示すフローチャートである。図24に示す例において、ステップS801〜ステップS804は、図20に示す例のステップS701〜ステップS704と同様である。ステップS804の後、演算部220は、表示画面101Sと仮想画面101A、101Bとの距離Yを設定する(ステップS805)。距離Yを設定した後、注視点検出部214は、注視点の位置データの検出を開始し(ステップS806)、被験者の眼球111の映像データを取得し(ステップS807)、表示画面101Sにおける被験者の左右の注視点の位置データを算出する(ステップS808)。   FIG. 24 is a flowchart showing another example of the evaluation method. In the example shown in FIG. 24, steps S801 to S804 are the same as steps S701 to S704 in the example shown in FIG. After step S804, the computing unit 220 sets the distance Y between the display screen 101S and the virtual screens 101A and 101B (step S805). After setting the distance Y, the fixation point detection unit 214 starts detection of position data of the fixation point (step S806), acquires video data of the subject's eye 111 (step S807), and the subject's in the display screen 101S Position data of the right and left fixation points is calculated (step S808).

判定部218は、算出された左右の注視点間の距離L1が閾値Xよりも小さいか否かを判定する(ステップS809)。演算部220は、左右の注視点間の距離L1が閾値Xよりも小さい場合(ステップS809のYes)、被験者が表示画面101Sを注視しているものとし、左右の注視点の位置データを記憶部222に記憶させる(ステップS814)。   The determination unit 218 determines whether the calculated distance L1 between the right and left fixation points is smaller than the threshold X (step S809). If the distance L1 between the right and left fixation points is smaller than the threshold X (Yes in step S809), the calculation unit 220 assumes that the subject is gazing at the display screen 101S, and stores the position data of the left and right fixation points. It is stored in 222 (step S 814).

一方、演算部220は、左右の注視点間の距離L1が閾値X以上である場合(ステップS809のNo)、仮想画面101A、101Bのそれぞれにおける被験者の左右の注視点間の距離L2、L3を算出する(ステップS810)。距離L2、L3を算出した後、演算部220は、算出結果がL3<L2であるか否かを判定する(ステップS811)。演算部220は、算出結果がL3<L2であると判定した場合(ステップS811のYes)、被験者の注視位置Pcが表示画面101Sよりも遠方であると記憶部222に記憶させる(ステップS812)。また、演算部220は、算出結果がL3<L2ではないと判定した場合(ステップS811のNo)、被験者の注視位置が表示画面101Sよりも近方であると記憶部222に記憶させる(ステップS813)。ステップS812又はステップS813の後、演算部220は、左右の注視点の位置データを記憶部222に記憶させる(ステップS814)。   On the other hand, when the distance L1 between the right and left fixation points is equal to or larger than the threshold X (No in step S809), the calculation unit 220 calculates the distances L2 and L3 between the left and right fixation points of the subject in each of the virtual screens 101A and 101B. Calculate (step S810). After calculating the distances L2 and L3, the computing unit 220 determines whether the calculation result is L3 <L2 (step S811). When it is determined that the calculation result is L3 <L2 (Yes in step S811), the arithmetic unit 220 stores in the storage unit 222 that the gaze position Pc of the subject is farther than the display screen 101S (step S812). In addition, when the calculation unit 220 determines that the calculation result is not L3 <L2 (No in step S811), the storage unit 222 stores that the subject's gaze position is closer than the display screen 101S (step S813). ). After step S812 or step S813, the computing unit 220 stores the position data of the right and left gaze points in the storage unit 222 (step S814).

その後、表示制御部202は、評価用画像の表示が完了したか否かを判断する(ステップS815)。評価用画像の表示が完了したと判断された場合(ステップS815のYes)、評価部224は、注視点検出部214の検出結果に基づいて、被験者の評価データを求め(ステップS816)、出力装置50等に出力させる(ステップS817)。なお、出力制御部226は、求めた評価データを記憶部222に記憶させてもよい。一方、評価用画像の表示が完了していないと判断された場合(ステップS815のNo)、出力制御部226は、繰り返し映像データの取得を行う(ステップS806)。   Thereafter, the display control unit 202 determines whether the display of the evaluation image is completed (step S815). When it is determined that the display of the evaluation image is completed (Yes in step S815), the evaluation unit 224 obtains evaluation data of the subject based on the detection result of the gaze point detection unit 214 (step S816), and outputs the output device It is output to 50 and the like (step S 817). The output control unit 226 may store the obtained evaluation data in the storage unit 222. On the other hand, when it is determined that the display of the evaluation image is not completed (No in step S815), the output control unit 226 repeatedly acquires the video data (step S806).

このように、表示画面101Sの近方と遠方とに仮想画面101A、101Bを設定し、仮想画面101A、101Bにおける左右の注視点間距離と表示画面101Sにおける左右の注視点間距離とを比較することにより、被験者の左右の視線の交点である注視位置Pcが表示画面101Sよりも近方に存在するのか、遠方に存在するのかを容易に判別することができる。   Thus, the virtual screens 101A and 101B are set to the near and far sides of the display screen 101S, and the distance between the right and left fixation points on the virtual screens 101A and 101B is compared with the distance between the right and left fixation points on the display Thus, it can be easily determined whether the gaze position Pc, which is the intersection of the subject's right and left gazes, exists nearer or farther than the display screen 101S.

このような被験者の左右の視線の交点である注視位置が表示画面101Sよりも近方に存在するのか、遠方に存在するのかを容易に判別する処理については、実施形態2で説明した左右の注視点間距離に基づいて注視結果の有効性を判定する処理に加えて行うことができる。   About the process which discriminate | determines easily whether the gaze position which is the intersection of the test subject's right and left eyes | visual_axis exists near the display screen 101S in such a subject, the left-right note demonstrated in Embodiment 2 This can be performed in addition to the process of determining the effectiveness of the gaze result based on the inter-view distance.

A…目標領域、P1,165,166…注視点、P1,P2,P3…位置、20…コンピュータシステム、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、70…音声出力装置、80…可視光パターン出力装置、100…視線検出装置,評価装置、101…表示装置、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…照明装置、103A…第1光源、103B…第2光源、103C…光源、103V…仮想光源、109…角膜曲率半径、110,110H…角膜曲率中心、111…眼球,眼、112…瞳孔、112C…瞳孔中心、113…角膜反射像、113C,121,122,124…角膜反射中心、123,131,132,173…直線、126…距離、130…目標位置、177,178…視線、202…表示制御部、204…光源制御部、206…画像データ取得部、208…入力データ取得部、210…位置検出部、212…曲率中心算出部、214…注視点検出部、216…領域設定部、218…判定部、220…演算部、222…記憶部、224…評価部、226…出力制御部、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部。   A: target area, P1, 165, 166: gazing point, P1, P2, P3: position, 20: computer system, 20A: arithmetic processing unit, 20B: storage device, 20C: computer program, 30: input / output interface device, 40: drive circuit, 50: output device, 60: input device, 70: voice output device, 80: visible light pattern output device, 100: sight line detection device, evaluation device, 101: display device, 101S: display screen, 102 Stereo camera device 102A: first camera 102B: second camera 103: illumination device 103A: first light source 103B: second light source 103C: light source 103V: virtual light source 109: corneal radius of curvature 110, 110H: corneal curvature center, 111: eyeball, eye, 112: pupil, 112C: pupil center, 113: corneal reflection, 11 C, 121, 122, 124 ... corneal reflection center, 123, 131, 132, 173 ... straight line, 126 ... distance, 130 ... target position, 177, 178 ... line of sight, 202 ... display control unit, 204 ... light source control unit, 206 ... Image data acquisition unit 208 ... Input data acquisition unit 210 ... Position detection unit 212 ... Curvature center calculation unit 214 ... Attention point detection unit 216 ... Region setting unit 218 ... Judgment unit 220 ... Operation unit 222 ... storage unit 224 evaluation unit 226 output control unit 302 input / output unit 402 display device drive unit 404A first camera input / output unit 404B second camera input / output unit 406 light source drive Department.

Claims (5)

被験者の画像データを取得する画像データ取得部と、
前記画像データに基づいて、前記被験者の注視点の位置データを検出する注視点検出部と、
前記被験者を評価する評価用画像を表示画面に表示させる表示制御部と、
前記表示画面において、前記被験者の注視点の目標領域を設定する領域設定部と、
前記注視点の位置データに基づいて、前記注視点が前記目標領域に存在するか否かを判定する判定部と、
前記注視点が前記目標領域に存在しないと判定される不在期間が所定期間を超える場合に所定の音声及び可視光パターンの少なくとも一方の信号を出力装置から出力させ、前記信号が出力された状態で前記注視点が前記目標領域に存在すると判定された場合に前記信号の出力を停止させる出力制御部と
を備える評価装置。
An image data acquisition unit that acquires image data of a subject;
A gaze point detection unit that detects position data of the gaze point of the subject based on the image data;
A display control unit configured to display an evaluation image for evaluating the subject on a display screen;
An area setting unit configured to set a target area of the subject's gaze point on the display screen;
A determination unit that determines whether or not the fixation point is present in the target area based on position data of the fixation point;
In a state where at least one signal of a predetermined voice and a visible light pattern is output from an output device when an absent period determined that the fixation point is not present in the target region exceeds a predetermined period, and the signal is output. An output control unit that stops the output of the signal when it is determined that the fixation point is present in the target area.
前記表示制御部は、前記不在期間が前記所定期間を超える場合に、注意喚起画像を前記表示画面に表示させる
請求項1に記載の評価装置。
The evaluation device according to claim 1, wherein the display control unit displays an alerting image on the display screen when the absence period exceeds the predetermined period.
前記注視点検出部は、前記被験者の左右の前記注視点の位置データを検出し、
前記判定部は、前記被験者の左右の前記注視点の位置データに基づいて、前記注視点が前記目標領域に存在するか否かを判定することを特徴とする
請求項1又は請求項2に記載の評価装置。
The fixation point detection unit detects position data of the fixation points on the left and right of the subject,
The said determination part determines whether the said gaze point exists in the said target area | region based on the position data of the said gaze point of the said test subject's right and left, It is characterized by the above-mentioned. Evaluation device.
前記被験者の左右の前記注視点の位置データに基づいて、前記被験者の左右の視線が交わる注視位置を求める演算部を有する
請求項3に記載の評価装置。
The evaluation device according to claim 3, further comprising: an operation unit for obtaining a gaze position at which the left and right eyes of the subject intersect with each other based on position data of the fixation points on the left and right of the subject.
被験者の画像データを取得することと、
前記画像データに基づいて、前記被験者の注視点の位置データを検出することと、
前記被験者を評価する評価用画像を表示画面に表示させることと、
前記表示画面において、前記被験者の注視点の目標領域を設定することと、
前記注視点の位置データに基づいて、前記注視点が前記目標領域に存在するか否かを判定することと、
前記注視点が前記目標領域に存在しないと判定される不在期間が所定期間を超える場合に所定の音声及び可視光パターンの少なくとも一方の信号を出力装置から出力させ、前記信号が出力された状態で前記注視点が前記目標領域に存在すると判定された場合に前記信号の出力を停止させることと
を含む評価方法。
Obtaining image data of the subject,
Detecting position data of a gaze point of the subject based on the image data;
Displaying an evaluation image for evaluating the subject on a display screen;
Setting a target area of the subject's gaze point on the display screen;
Determining whether or not the gaze point is present in the target area based on the position data of the gaze point;
In a state where at least one signal of a predetermined voice and a visible light pattern is output from an output device when an absent period determined that the fixation point is not present in the target region exceeds a predetermined period, and the signal is output. Stopping the output of the signal when it is determined that the fixation point is in the target area.
JP2018051358A 2017-09-05 2018-03-19 Evaluation apparatus and evaluation method Pending JP2019046438A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017170575 2017-09-05
JP2017170575 2017-09-05

Publications (1)

Publication Number Publication Date
JP2019046438A true JP2019046438A (en) 2019-03-22

Family

ID=65814563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018051358A Pending JP2019046438A (en) 2017-09-05 2018-03-19 Evaluation apparatus and evaluation method

Country Status (1)

Country Link
JP (1) JP2019046438A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784655A (en) * 2019-11-11 2021-05-11 七鑫易维(深圳)科技有限公司 Living body detection method and device based on gazing information and detection equipment
WO2022075377A1 (en) * 2020-10-07 2022-04-14 国立大学法人千葉大学 Sightline-position determination device, sightline-position determination method, and training method
CN115040130A (en) * 2022-08-15 2022-09-13 深圳大学 Screening system for social disorder

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008181293A (en) * 2007-01-24 2008-08-07 Mitsubishi Electric Corp Operator monitoring control system
JP2012115505A (en) * 2010-12-01 2012-06-21 Fujitsu Ltd Visual line detection device and visual line detection method
JP2013215405A (en) * 2012-04-09 2013-10-24 Jvc Kenwood Corp Diagnosis support apparatus and method for supporting diagnosis
JP2014068933A (en) * 2012-09-28 2014-04-21 Jvc Kenwood Corp Diagnosis support apparatus and diagnosis support method
US20160224110A1 (en) * 2013-10-14 2016-08-04 Suricog Method of interaction by gaze and associated device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008181293A (en) * 2007-01-24 2008-08-07 Mitsubishi Electric Corp Operator monitoring control system
JP2012115505A (en) * 2010-12-01 2012-06-21 Fujitsu Ltd Visual line detection device and visual line detection method
JP2013215405A (en) * 2012-04-09 2013-10-24 Jvc Kenwood Corp Diagnosis support apparatus and method for supporting diagnosis
JP2014068933A (en) * 2012-09-28 2014-04-21 Jvc Kenwood Corp Diagnosis support apparatus and diagnosis support method
US20160224110A1 (en) * 2013-10-14 2016-08-04 Suricog Method of interaction by gaze and associated device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784655A (en) * 2019-11-11 2021-05-11 七鑫易维(深圳)科技有限公司 Living body detection method and device based on gazing information and detection equipment
WO2022075377A1 (en) * 2020-10-07 2022-04-14 国立大学法人千葉大学 Sightline-position determination device, sightline-position determination method, and training method
CN115040130A (en) * 2022-08-15 2022-09-13 深圳大学 Screening system for social disorder

Similar Documents

Publication Publication Date Title
JP6737234B2 (en) Evaluation device, evaluation method, and evaluation program
US11061470B2 (en) Eye tracking device and eye tracking method
JP2017102687A (en) Visual line detection device and visual line detection method
JP6848526B2 (en) Evaluation device, evaluation method, and evaluation program
US11266307B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP2020025849A (en) Evaluation device, evaluation method, and evaluation program
JP2019046438A (en) Evaluation apparatus and evaluation method
US20210290130A1 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP7092082B2 (en) Evaluation device, evaluation method, and evaluation program
JP7047676B2 (en) Evaluation device, evaluation method, and evaluation program
JP2020018470A (en) Gaze detection device, gaze detection method, and gaze detection program
JP2020092924A (en) Evaluation device, evaluation method, and evaluation program
JP6883242B2 (en) Evaluation device, evaluation method, and evaluation program
US11241152B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP6962079B2 (en) Image / audio output device, image / audio output method, and image / audio output program
JP7063045B2 (en) Line-of-sight detection device, line-of-sight detection method and line-of-sight detection program
JP7215246B2 (en) Display device, display method, and display program
JP6776970B2 (en) Gaze detection device, gaze detection method and gaze detection program
JP7074221B2 (en) Evaluation device, evaluation method, and evaluation program
WO2020256148A1 (en) Evaluation device, evaluation method, and evaluation program
JP7247690B2 (en) Evaluation device, evaluation method, and evaluation program
WO2020031471A1 (en) Assessment device, assessment method, and assessment program
WO2022044395A1 (en) Sight line detection device, sight line detection method, and sight line detection program
WO2020194841A1 (en) Assessment device, assessment method, and assessment program
WO2021010122A1 (en) Evaluation device, evaluation method, and evaluation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211101

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220308