[go: up one dir, main page]

JP7220043B2 - training system and program - Google Patents

training system and program Download PDF

Info

Publication number
JP7220043B2
JP7220043B2 JP2018182698A JP2018182698A JP7220043B2 JP 7220043 B2 JP7220043 B2 JP 7220043B2 JP 2018182698 A JP2018182698 A JP 2018182698A JP 2018182698 A JP2018182698 A JP 2018182698A JP 7220043 B2 JP7220043 B2 JP 7220043B2
Authority
JP
Japan
Prior art keywords
trainee
virtual space
target
line
index value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018182698A
Other languages
Japanese (ja)
Other versions
JP2020052290A (en
Inventor
久史 沙魚川
康弘 小松原
太嘉志 齋藤
智之 中居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2018182698A priority Critical patent/JP7220043B2/en
Publication of JP2020052290A publication Critical patent/JP2020052290A/en
Application granted granted Critical
Publication of JP7220043B2 publication Critical patent/JP7220043B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想空間において訓練を行う技術に関する。 The present invention relates to a technique for training in virtual space.

VR(virtual reality)を利用して訓練を行う技術が知られている。例えば特許文献1には、自転車運転シミュレータにおいて、被験者が模擬自転車の運転を開始してから終了するまでの間に後方を確認した時間を、評価データとして算出することが記載されている。 Techniques for training using VR (virtual reality) are known. For example, Patent Literature 1 describes that, in a bicycle driving simulator, the time during which the subject checks the rear from the start of driving the simulated bicycle to the end thereof is calculated as evaluation data.

特開2017-9717号公報JP 2017-9717 A

VRを利用して、仮想空間に含まれる対象(設備や不審物など)の状態を確認する訓練を行う場合がある。しかし、このような訓練において、状態が確認される対象は、必ずしも訓練者から見て特定の方向にあるわけではない。例えば訓練者が仮想空間内を移動する場合には、訓練者の移動に伴って、訓練者から見て対象がある方向も変化する。特許文献1に記載の技術では、特定の方向を確認した時間が評価データとして算出されるが、この評価データからは、特定の方向を確認したことしか認識できず、仮想空間に含まれる対象の状態を確認したかは認識できない。そのため、このような訓練者の行動を評価することができない。
本発明は、仮想空間において行われる訓練において、対象の状態を確認する訓練者の行動を評価することを目的とする。
In some cases, VR is used for training to check the state of objects (equipment, suspicious objects, etc.) included in the virtual space. However, in such training, the object whose condition is checked is not necessarily in a particular direction from the trainee's point of view. For example, when the trainee moves in the virtual space, the direction of the target as seen from the trainee changes as the trainee moves. In the technique described in Patent Document 1, the time at which a specific direction is confirmed is calculated as evaluation data. It is not possible to recognize whether or not the status has been confirmed. Therefore, the behavior of such a trainee cannot be evaluated.
SUMMARY OF THE INVENTION An object of the present invention is to evaluate the behavior of a trainee who confirms the condition of an object in training performed in a virtual space.

本発明は、仮想空間における訓練者の行動を評価する訓練システムであって、前記仮想空間における前記訓練者の位置からの視野画像を記憶する記憶部と、実空間における前記訓練者の視野方向を検出する検出部と、前記仮想空間における前記訓練者の位置と前記視野方向とに基づいて、前記仮想空間における前記訓練者の視野を特定する特定部と、前記視野画像のうち前記視野に含まれる部分を表示する表示部と、前記視野に含まれる視線位置と前記仮想空間に含まれる対象の位置との位置関係に基づいて、前記対象の状態を確認する前記訓練者の行動を評価する指標値を算出する算出部とを備える訓練システム訓練システムを提供する。 The present invention is a training system for evaluating a trainee's behavior in a virtual space, comprising a storage unit that stores a visual field image from the position of the trainee in the virtual space, and a visual field direction of the trainee in the real space. a detecting unit that detects; a specifying unit that specifies a field of view of the trainee in the virtual space based on the position of the trainee in the virtual space and the direction of the field of view; an index value for evaluating the behavior of the trainee who confirms the state of the target based on the positional relationship between the display unit that displays the portion and the position of the line of sight included in the visual field and the position of the target included in the virtual space. A training system training system comprising a calculation unit for calculating

前記算出部は、前記視線位置と前記対象の位置とが重なった場合には、前記指標値を増加させてもよい。 The calculation unit may increase the index value when the line-of-sight position and the target position overlap.

前記訓練者の位置は、前記仮想空間内を移動し、前記算出部は、前記視線位置と前記対象の位置とが重なり、且つ、そのときの前記仮想空間における前記訓練者の位置から前記対象の位置までの距離が所定距離以内である場合には、前記指標値を増加させてもよい。 The position of the trainee moves in the virtual space, and the calculation unit calculates the position of the target from the position of the trainee in the virtual space at that time when the line-of-sight position and the position of the target overlap. The index value may be increased when the distance to the position is within a predetermined distance.

前記対象の種別によって、前記所定距離が異なってもよい。 The predetermined distance may differ depending on the type of the target.

前記算出部は、前記視線位置と前記対象の位置とが重なり、且つ、前記視線位置と前記対象の位置とが重なった状態が継続している時間が所定範囲内である場合には、前記指標値を増加させてもよい。 When the line-of-sight position and the position of the target overlap and the time period during which the line-of-sight position and the position of the target continue to overlap is within a predetermined range, the calculation unit calculates the index You can increase the value.

前記対象の種別によって、前記所定範囲が異なってもよい。 The predetermined range may differ depending on the type of the target.

前記仮想空間は、複数の対象を含み、前記算出部は、前記複数の対象に対してそれぞれ定められた優先度と、前記視線位置と前記複数の対象のそれぞれの位置とが重なった順番とに基づいて、前記指標値の増加量に重み付けを行ってもよい。 The virtual space includes a plurality of objects, and the calculation unit calculates the order in which the priority determined for each of the plurality of objects and the order in which the line-of-sight position and the position of each of the plurality of objects overlap. Based on this, the amount of increase in the index value may be weighted.

前記訓練者の位置は、前記仮想空間内を移動し、前記算出部は、前記訓練者の位置の移動方向からの前記視野に含まれる視線方向の変化量に基づいて、前記訓練者の周囲を確認する行動を評価する他の指標値を算出してもよい。 The position of the trainee moves in the virtual space, and the calculation unit moves around the trainee based on the amount of change in the line-of-sight direction included in the visual field from the movement direction of the position of the trainee. Other index values for evaluating behavior to be confirmed may be calculated.

前記訓練システムは、前記仮想空間において熟練者が行った前記対象の状態を確認する行動に基づいて生成された、前記対象の状態を確認するときの視線位置と前記対象の位置との模範の位置関係を示すデータを記憶する記憶部をさらに備え、前記算出部は、前記位置関係と前記模範の位置関係との類似度に基づいて、前記指標値を算出してもよい。 The training system provides a model position of a line-of-sight position and a position of the object when confirming the condition of the object, which are generated based on an action of confirming the condition of the object performed by an expert in the virtual space. A storage unit that stores data indicating a relationship may be further provided, and the calculation unit may calculate the index value based on a degree of similarity between the positional relationship and the model positional relationship.

また、本発明は、仮想空間における訓練者の行動を評価する訓練システムに含まれるコンピュータに、実空間における前記訓練者の視野方向を検出するステップと、前記仮想空間における前記訓練者の位置と前記視野方向とに基づいて、前記仮想空間における前記訓練者の視野を特定するステップと、記憶部に記憶された視野画像であって前記仮想空間における前記訓練者の位置からの前記視野画像のうち前記視野に含まれる部分を表示するステップと、前記視野に含まれる視線位置と前記仮想空間に含まれる対象の位置との位置関係に基づいて、前記対象の状態を確認する前記訓練者の行動を評価する指標値を算出するステップとを実行させるためのプログラムを提供する。 Further, the present invention provides a computer included in a training system for evaluating the behavior of a trainee in a virtual space, which includes a step of detecting the line-of-sight direction of the trainee in the real space, the position of the trainee in the virtual space and the specifying the visual field of the trainee in the virtual space based on the direction of the visual field; Evaluating the behavior of the trainee confirming the state of the target based on the step of displaying a portion included in the field of view, and the positional relationship between the line-of-sight position included in the field of view and the position of the target included in the virtual space. and a step of calculating an index value to be used.

本発明によれば、仮想空間において行われる訓練において、対象の状態を確認する訓練者の行動を評価することができる。 Advantageous Effects of Invention According to the present invention, it is possible to evaluate the behavior of a trainee who confirms the condition of a target during training performed in virtual space.

実施形態に係る訓練システム1の構成の一例を示す図である。It is a figure showing an example of composition of training system 1 concerning an embodiment. 表示装置10のハードウェア構成の一例を示す図である。2 is a diagram showing an example of the hardware configuration of the display device 10; FIG. 表示装置10の機能構成の一例を示す図である。3 is a diagram showing an example of a functional configuration of the display device 10; FIG. 仮想空間の一例を示す平面図である。It is a top view which shows an example of virtual space. 表示処理の一例を示すフローチャートである。6 is a flowchart showing an example of display processing; 周囲確認の評価処理の一例を示すフローチャートである。7 is a flowchart showing an example of evaluation processing for confirming the surroundings; 対象確認の評価処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of evaluation processing for object confirmation; 表示部16に表示される動画50の一例を示す図である。5 is a diagram showing an example of a moving image 50 displayed on the display unit 16. FIG. 変形例に係る表示部16に表示される動画50の一例を示す図である。FIG. 10 is a diagram showing an example of a moving image 50 displayed on the display unit 16 according to a modified example; 変形例に係る対応テーブル131の一例を示す図である。It is a figure which shows an example of the correspondence table 131 which concerns on a modification. 変形例に係る対応テーブル132の一例を示す図である。It is a figure which shows an example of the correspondence table 132 which concerns on a modification.

1.構成
図1は、本実施形態に係る訓練システム1の構成の一例を示す図である。訓練システム1は、VRを利用して、警備、災害対処、救助等といった作業現場において注意を向けるべき対象(不審物や負傷者など)の存在が想定され、対象の状態に十分に注意を払うことが求められる作業に関する各種の訓練を行うために用いられる。訓練システム1は、仮想空間における訓練者の行動を評価する。この「訓練」とは、一定の目標に到達させるための教育活動をいう。訓練では、必ずしも実際に行動をする必要はない。訓練には、研修や学習も含まれる。訓練システム1は、複数の表示装置10と、管理装置20とを備える。複数の表示装置10と管理装置20とは、通信回線30を介して接続されている。通信回線30は、これらの装置間の通信を伝送する。通信回線30には、例えばLAN(Local Area Network)等のプライベートネットワークが用いられてもよい。
1. Configuration FIG. 1 is a diagram showing an example of the configuration of a training system 1 according to this embodiment. The training system 1 uses VR to assume the presence of objects (suspicious objects, injured persons, etc.) to which attention should be directed at work sites such as security, disaster response, rescue, etc., and pay sufficient attention to the conditions of the objects. It is used to conduct various training related to work that requires A training system 1 evaluates a trainee's behavior in a virtual space. The term “training” refers to educational activities aimed at reaching certain goals. Training does not necessarily require actual action. Training also includes training and learning. The training system 1 includes multiple display devices 10 and a management device 20 . The multiple display devices 10 and the management device 20 are connected via a communication line 30 . Communication line 30 carries communications between these devices. A private network such as a LAN (Local Area Network) may be used for the communication line 30, for example.

図2は、表示装置10のハードウェア構成の一例を示す図である。表示装置10は、訓練者の視界を模擬した画像を表示することで仮想空間を提供するとともに、訓練者のコンテンツの視聴中の行動(以下、単に行動ということもある)を記録して評価する。なお、このコンテンツには、例えば画像と音声とが含まれる。表示装置10は、訓練者の頭部に装着される。表示装置10には、例えばヘッドマウント型のウェアラブル端末が用いられてもよい。表示装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信部14と、操作部15と、表示部16と、音出力部17と、センサ部18とを備える。これらの構成は、バス19を介して接続されている。 FIG. 2 is a diagram showing an example of the hardware configuration of the display device 10. As shown in FIG. The display device 10 provides a virtual space by displaying an image simulating the field of view of the trainee, and records and evaluates the trainee's behavior while viewing the content (hereinafter, simply referred to as behavior). . Note that this content includes, for example, images and sounds. The display device 10 is worn on the trainee's head. For example, a head-mounted wearable terminal may be used as the display device 10 . The display device 10 includes a processor 11 , a memory 12 , a storage 13 , a communication section 14 , an operation section 15 , a display section 16 , a sound output section 17 and a sensor section 18 . These configurations are connected via a bus 19 .

プロセッサ11は、プログラムをメモリ12に読み出して実行することにより、各種の処理を実行する。プロセッサ11には、例えばCPU(Central Processing Unit)が用いられてもよい。メモリ12は、プロセッサ11により実行されるプログラムを記憶する。メモリ12には、例えばROM(Read Only Memory)又はRAM(Random Access Memory)が用いられてもよい。ストレージ13は、各種のデータ及びプログラムを記憶する。ストレージ13には、例えばフラッシュメモリが用いられてもよい。通信部14は、通信回線30に接続され、通信回線30を介してデータ通信を行う。操作部15は、各種の情報の入力に用いられる。操作部15には、例えば操作キーが用いられてもよい。表示部16は、各種の情報を表示する。表示部16には、例えば液晶ディスプレイが用いられてもよい。音出力部17は、音声信号を音に変換して出力する。音出力部17には、例えばスピーカが用いられてもよい。 The processor 11 executes various processes by reading programs to the memory 12 and executing them. A CPU (Central Processing Unit) may be used for the processor 11, for example. The memory 12 stores programs executed by the processor 11 . For the memory 12, for example, a ROM (Read Only Memory) or a RAM (Random Access Memory) may be used. The storage 13 stores various data and programs. A flash memory, for example, may be used for the storage 13 . The communication unit 14 is connected to the communication line 30 and performs data communication via the communication line 30 . The operation unit 15 is used for inputting various kinds of information. For example, an operation key may be used for the operation unit 15 . The display unit 16 displays various information. A liquid crystal display, for example, may be used for the display unit 16 . The sound output unit 17 converts the audio signal into sound and outputs the sound. For example, a speaker may be used for the sound output unit 17 .

センサ部18は、実空間における座標系にて訓練者の頭部の動きを検出する。この動きには、頭部の向きが含まれる。本実施形態では、実空間における訓練者の頭部の向きを実空間における訓練者の視野方向として検出する。センサ部18には、例えばジャイロスコープ、加速度センサ、及び地磁気センサが含まれてもよい。ジャイロスコープは、訓練者の頭部の角度又は角速度を計測する。加速度センサは、訓練者の頭部の加速度を計測する。地磁気センサは、訓練者の頭部の方位を計測する。 The sensor unit 18 detects movement of the trainee's head in a coordinate system in real space. This movement includes head orientation. In this embodiment, the orientation of the trainee's head in the real space is detected as the trainee's visual field direction in the real space. The sensor unit 18 may include, for example, a gyroscope, an acceleration sensor, and a geomagnetic sensor. The gyroscope measures the angle or angular velocity of the trainee's head. The acceleration sensor measures the acceleration of the trainee's head. A geomagnetic sensor measures the orientation of the trainee's head.

表示部16では、センサ部18で検出された頭部の向きに基づいて特定される訓練者の視野に対応する仮想空間の画像を表示する。すなわち、実空間において訓練者が頭部を左右に旋回させることで、訓練者は仮想空間全体を視認することが可能となる。 The display unit 16 displays an image of the virtual space corresponding to the trainee's field of view specified based on the orientation of the head detected by the sensor unit 18 . That is, the trainee can visually recognize the entire virtual space by turning the head left and right in the real space.

また、ストレージ13には、撮像装置(図示せず)を用いて予め撮影された動画を示す動画データが仮想空間における座標系に関連付けられた情報として予め記憶される。本実施形態においては、仮想空間における訓練者の位置は時間毎に予め定められており、時間の経過に伴って変化するものとしているため、この動画は、仮想空間において時刻毎に予め設定された位置における訓練者からの視界を模したもの、すなわち仮想空間における訓練者の各位置から見える範囲の動画である。この動画は、フレームと呼ばれる複数のパノラマ画像により構成される。パノラマ画像は、人間の視野よりも広い画角を有する。パノラマ画像の画角は、例えば360度であってもよい。動画は、例えば広角レンズを備える単一のビデオカメラを用いて撮影されてもよいし、互いに異なる方向を撮影する複数のビデオカメラを用いて撮影された動画を組み合わせることにより生成されてもよい。また、全天球カメラなどを用いて、上下左右全方位の360度のパノラマ画像から動画を構成することで、より現実空間に近い状況で訓練を行うようにしてもよい。 In addition, the storage 13 stores in advance moving image data indicating moving images captured in advance using an imaging device (not shown) as information associated with the coordinate system in the virtual space. In this embodiment, the position of the trainee in the virtual space is predetermined for each time, and changes with the passage of time. It simulates the view from the trainee at each position, that is, the animation of the range visible from each position of the trainee in the virtual space. This moving image is composed of a plurality of panoramic images called frames. A panoramic image has a wider angle of view than the human field of view. The angle of view of the panoramic image may be 360 degrees, for example. A moving image may be captured using, for example, a single video camera equipped with a wide-angle lens, or may be generated by combining moving images captured using a plurality of video cameras that capture images in different directions. Also, by using an omnidirectional camera or the like to create a moving image from 360-degree panorama images in all directions, the training may be performed in a situation closer to the real space.

また、仮想空間を構成するパノラマ画像において特定方向として0度の方向を設定することにより、パノラマ画像における-180度~180度を規定する。なお、本実施形態では、特定方向として後述の訓練者の位置P0における移動方向D1を用いることとする。 In addition, by setting the direction of 0 degrees as the specific direction in the panoramic image forming the virtual space, the range of -180 degrees to 180 degrees in the panoramic image is defined. In the present embodiment, a moving direction D1 at the trainee's position P0, which will be described later, is used as the specific direction.

なお、表示装置10は、訓練者の頭部に装着される筐体と、筐体に取り付けられるスマートフォンとにより構成されてもよい。この場合、スマートフォンは、上述したプロセッサ11と、メモリ12と、ストレージ13と、通信部14と、操作部15と、表示部16と、音出力部17と、センサ部18とを備える。スマートフォンは、筐体が訓練者の頭部に装着されたときに訓練者から表示部16が見えるような姿勢で、筐体に取り付けられる。 Note that the display device 10 may be configured by a housing mounted on the trainee's head and a smartphone attached to the housing. In this case, the smartphone includes the above-described processor 11 , memory 12 , storage 13 , communication section 14 , operation section 15 , display section 16 , sound output section 17 , and sensor section 18 . The smartphone is attached to the housing in such a posture that the trainee can see the display unit 16 when the housing is worn on the trainee's head.

図1に戻り、管理装置20は、各表示装置10から訓練者の評価結果を収集して出力する。管理装置20には、例えば汎用のコンピュータが用いられてもよい。管理装置20は、上述したプロセッサ11と、メモリ12と、ストレージ13と、通信部14と、操作部15と、表示部16と同様の構成を備えていてもよい。 Returning to FIG. 1 , the management device 20 collects and outputs the trainee's evaluation results from each display device 10 . A general-purpose computer, for example, may be used as the management device 20 . The management device 20 may have the same configuration as the processor 11, the memory 12, the storage 13, the communication section 14, the operation section 15, and the display section 16 described above.

図3は、表示装置10の機能構成の一例を示す図である。表示装置10は、特定部101と、測定部102と、算出部103と、出力部104として機能する。これらの機能は、メモリ12に記憶されたプログラムと、このプログラムを実行するプロセッサ11との協働により、プロセッサ11が演算を行い又は通信部14による通信を制御することにより実現される。 FIG. 3 is a diagram showing an example of the functional configuration of the display device 10. As shown in FIG. The display device 10 functions as an identification unit 101 , a measurement unit 102 , a calculation unit 103 and an output unit 104 . These functions are realized by cooperation between the program stored in the memory 12 and the processor 11 executing this program, whereby the processor 11 performs calculations or controls communication by the communication unit 14 .

特定部101は、仮想空間における訓練者の位置と、センサ部18が検出した実空間における訓練者の視野方向とに基づいて、仮想空間における訓練者の視野を特定する。以下、視野の特定方法の一例について説明する。動画の再生が開始されたときの実空間における訓練者の頭部の向きをパノラマ画像における特定方向として、訓練者の頭部の向き(実空間における座標系)とパノラマ画像における方向(仮想空間における座標系)とを対応付ける。そして、仮想空間における特定方向から時計回りに所定角度(例えば80度)を成す一端と反時計回りに所定角度(例えば80度)を成す他端との間の範囲を仮想空間における訓練者の視野として特定する。すなわち、動画の再生が開始されたときの視野は-80度~80度の範囲となり、この視野に対応するパノラマ画像の一部(-80度~80度)が表示部16に表示される。以降は、センサ部18で検出された訓練者の頭部の向きの変化に応じて仮想空間における訓練者の現在の視野を特定する。例えば、-80度~80度の範囲を視野として特定している場合において、センサ部18において訓練者の頭部の向きが反時計回り方向に20度変化したことが検出されると、特定部101はこの検出結果に基づいて、視野全体を反時計回り方向に20度変化させた-60度~100度の範囲を訓練者の現在の視野として特定する。視野の大きさには、例えば一般的な人の視野の大きさが用いられてもよい。 The identifying unit 101 identifies the trainee's visual field in the virtual space based on the position of the trainee in the virtual space and the visual field direction of the trainee in the real space detected by the sensor unit 18 . An example of a method for specifying the field of view will be described below. Assuming that the orientation of the trainee's head in real space when the video starts playing is the specific direction in the panoramic image, the orientation of the trainee's head (coordinate system in real space) and the direction in the panoramic image (in virtual space coordinate system). Then, the range between one end forming a predetermined angle (for example, 80 degrees) clockwise from a specific direction in the virtual space and the other end forming a predetermined angle (for example, 80 degrees) counterclockwise is the field of view of the trainee in the virtual space. Identify as That is, the field of view when the reproduction of the moving image is started is in the range of -80 degrees to 80 degrees, and a part of the panorama image (-80 degrees to 80 degrees) corresponding to this field of view is displayed on the display unit 16 . After that, the current field of view of the trainee in the virtual space is identified according to the change in the orientation of the trainee's head detected by the sensor unit 18 . For example, when the range of -80 degrees to 80 degrees is specified as the field of view, when the sensor unit 18 detects that the orientation of the trainee's head has changed counterclockwise by 20 degrees, the specifying unit Based on this detection result, 101 identifies a range of −60 degrees to 100 degrees obtained by changing the entire field of view by 20 degrees in the counterclockwise direction as the trainee's current field of view. For the size of the field of view, for example, the size of the field of view of a general person may be used.

測定部102は、仮想空間における訓練者の現在位置から仮想空間に含まれる対象の位置までの距離を測定する。対象とは、状態を確認すべき対象をいう。対象は、物体であってもよいし、事象であってもよい。例えば仮想空間において巡回警備の訓練が行われる場合、対象は、巡回警備において監視すべき施設の設備や物品、非常時に用いられる設備、又は異常な物体若しくは事象であってもよい。距離の測定には、例えば仮想空間における訓練者の位置を示す座標と対象の位置を示す座標とが用いられてもよい。また、本実施形態のように仮想空間における訓練者の位置及び対象の位置が予め設定されている場合、仮想空間における訓練者の現在位置から仮想空間に含まれる対象の位置までの距離を予め記憶するようにしてもよい。 The measurement unit 102 measures the distance from the current position of the trainee in the virtual space to the position of the object included in the virtual space. A target is a target whose state is to be confirmed. A target may be an object or an event. For example, when security patrol training is conducted in a virtual space, the target may be facility equipment or articles to be monitored in patrol security, equipment used in an emergency, or an abnormal object or event. For distance measurement, for example, coordinates indicating the position of the trainee and coordinates indicating the position of the target in the virtual space may be used. Further, when the position of the trainee and the position of the target in the virtual space are set in advance as in this embodiment, the distance from the current position of the trainee in the virtual space to the position of the target included in the virtual space is stored in advance. You may make it

算出部103は、特定部101が特定した視野に含まれる視線位置と仮想空間に含まれる対象の位置との位置関係に基づいて、対象の状態を確認する訓練者の行動を評価する注目指標値を算出する。この視線位置とは、視線の注がれるところをいう。本実施形態では、視線位置には、訓練者の視野の中心を用いる。なお、後述するようにアイトラッキング等を用いることにより、訓練者の視線位置をより正確に特定してもよい。この注目指標値は、例えば対象の状態を確認する訓練者の行動の習熟度を示す値である。注目指標値には、例えば数字が用いられてもよい。この場合、注目指標値が大きい程、評価が高いことを示してもよい。ただし、注目指標値は、必ずしも数字に限定されない。例えば注目指標値は、文字や記号により表現されてもよい。 The calculation unit 103 calculates an attention index value for evaluating the behavior of the trainee who confirms the state of the target based on the positional relationship between the line-of-sight position included in the visual field specified by the specifying unit 101 and the position of the target included in the virtual space. Calculate The line-of-sight position means a place where the line of sight is poured. In this embodiment, the center of the trainee's visual field is used as the line-of-sight position. As will be described later, eye tracking or the like may be used to more accurately identify the line-of-sight position of the trainee. This attention index value is, for example, a value indicating the proficiency level of the behavior of the trainee who confirms the state of the object. For example, a number may be used as the attention index value. In this case, a larger attention index value may indicate a higher evaluation. However, the attention index value is not necessarily limited to numbers. For example, the attention index value may be represented by characters or symbols.

注目指標値は、例えば訓練者の視線位置と対象の位置とが重なった場合には、増加してもよい。なお、この「重なった」状態には、完全に一致する状態だけではなく、部分的に重なった状態が含まれてもよい。また、注目指標値は、訓練者の視線位置と対象の位置とが重なり、且つ、測定部102が測定した距離が所定距離以内である場合には増加してもよい。すなわち、注目指標値は、訓練者の視線位置と対象の位置とが重なっていても、測定部102が測定した距離が所定距離外である場合には、増加しなくてもよい。この所定距離は、例えば訓練者が対象の状態を視認し得るような距離が用いられてもよい。例えば対象に近づかないと対象の状態を視認できない場合には、対象に近づいたとみなせる距離の範囲が所定距離として用いられてもよい。さらに、注目指標値は、訓練者の視線位置と対象の位置とが重なり、且つ、それらの位置が重なった状態が継続している時間が所定範囲内である場合には、増加してもよい。すなわち、注目指標値は、訓練者の視線位置と対象の位置とが重なった場合でも、それらの位置が重なった状態が継続している時間が所定範囲外である場合には、増加しなくてもよい。重なった状態が継続している時間は、例えばタイマを用いて計測されてもよい。この所定範囲は、例えば訓練者が対象の状態を視認するのに必要な時間の範囲が用いられてもよい。例えばある程度の時間継続して対象を見ないと対象の状態を視認できない場合には、その時間が所定範囲として用いられてもよい。 The attention index value may increase, for example, when the line-of-sight position of the trainee and the position of the target overlap. Note that this “overlapping” state may include not only a completely matching state but also a partially overlapping state. Also, the attention index value may be increased when the line-of-sight position of the trainee overlaps with the target position and the distance measured by the measurement unit 102 is within a predetermined distance. That is, even if the line-of-sight position of the trainee and the target position overlap, the attention index value does not need to be increased when the distance measured by the measurement unit 102 is outside the predetermined distance. For this predetermined distance, for example, a distance that allows the trainee to visually recognize the condition of the object may be used. For example, if the state of the object cannot be visually recognized unless the object is approached, the range of distances that can be regarded as approaching the object may be used as the predetermined distance. Furthermore, the attention index value may be increased when the line-of-sight position of the trainee overlaps with the position of the target, and the duration of the overlapping state of these positions is within a predetermined range. . That is, even when the position of the line of sight of the trainee and the position of the object overlap, the attention index value does not increase if the duration of the overlapping state of these positions is outside the predetermined range. good too. The duration of the overlapping state may be measured using a timer, for example. For this predetermined range, for example, a range of time required for the trainee to visually recognize the target state may be used. For example, if the state of the target cannot be visually recognized unless the target is viewed continuously for a certain amount of time, that time may be used as the predetermined range.

また、算出部103は、注目指標値に加えて、訓練者の位置の移動方向からの視線方向の変化量に基づいて、訓練者の周囲を確認する行動を評価する警戒指標値を算出してもよい。この警戒指標値は、例えば訓練者の周囲を確認する行動の習熟度を示す値である。警戒指標値には、例えば数字が用いられてもよい。この場合、警戒指標値が大きい程、評価が高いことを示してもよい。ただし、上述した注目指標値と同様に、警戒指標値は、必ずしも数字に限定されない。訓練者の位置の移動方向とは、仮想空間において訓練者の位置が移動する方向をいう。すなわち、移動方向は、訓練者の進行方向である。この移動方向には、訓練者の現在の位置から次の位置へと向かう方向が用いられてもよい。なお、以下の説明では、「訓練者の位置の移動」を単に「訓練者の移動」という場合がある。訓練者の視線方向は、例えば仮想空間における訓練者の位置から訓練者の視野の中心に向かう方向である。訓練者の移動方向からの視線方向の変化量には、例えば移動方向と視線方向とが成す角度が用いられてもよい。警戒指標値は、例えばこの変化量が大きい程、増加してもよい。 In addition to the attention index value, the calculation unit 103 also calculates a vigilance index value for evaluating the behavior of checking the surroundings of the trainee based on the amount of change in the line-of-sight direction from the movement direction of the position of the trainee. good too. This warning index value is, for example, a value indicating the proficiency level of the trainee's action to check the surroundings. For example, a number may be used as the warning index value. In this case, a higher alert index value may indicate a higher evaluation. However, similarly to the attention index value described above, the warning index value is not necessarily limited to numbers. The movement direction of the position of the trainee means the direction in which the position of the trainee moves in the virtual space. That is, the movement direction is the trainee's traveling direction. The movement direction may be a direction from the trainee's current position to the next position. In the following description, "movement of the position of the trainee" may be simply referred to as "movement of the trainee". The line-of-sight direction of the trainee is, for example, the direction from the trainee's position in the virtual space toward the center of the trainee's visual field. For example, the angle formed by the movement direction and the line-of-sight direction may be used as the amount of change in the line-of-sight direction from the movement direction of the trainee. The caution index value may increase, for example, as the amount of change increases.

出力部104は、算出部103が算出した注目指標値を出力する。この注目指標値の出力は、例えば管理装置20に送信することにより実現されてもよい。注目指標値を出力するタイミングは、例えば動画が終了した後であってもよい。また、注目指標値とともに警戒指標値が出力されてもよい。 The output unit 104 outputs the attention index value calculated by the calculation unit 103 . This attention index value may be output by transmitting it to the management device 20, for example. The timing of outputting the attention index value may be, for example, after the moving image ends. Also, a warning index value may be output together with the attention index value.

2.動作
図4は、仮想空間の一例を示す平面図である。この仮想空間では、巡回エリア40を巡回する業務の訓練が行われる。巡回エリア40には、灰皿41と、消火栓ランプ42と、非常口43と、AED44と、不審物45とが含まれる。これらは、いずれも巡回中に状態を確認すべき対象である。例えば灰皿41は、煙草の火が消えているかについて確認されるべきである。消火栓ランプ42は、点灯しているかについて確認されるべきである。非常口43は、その前に塞ぐようなものが置かれていないか及び誘導灯の点灯について確認されるべきである。AED44は、持ち出されていないか及びバッテリランプの点灯について確認されるべきである。不審物45は、その存在の有無について確認されるべきである。巡回エリア40においては、巡回経路Rが予め設定されている。仮想空間において、訓練者は巡回経路Rに沿って移動しながら巡回する業務を行う。訓練者の位置は、時間毎に予め設定されており、時間の経過に伴って巡回経路Rに沿って移動していく。
2. Operation FIG. 4 is a plan view showing an example of the virtual space. In this virtual space, work training for patrolling the patrol area 40 is carried out. The patrol area 40 includes an ashtray 41 , a fire hydrant lamp 42 , an emergency exit 43 , an AED 44 and a suspicious object 45 . All of these are targets whose states should be checked during patrol. For example, the ashtray 41 should be checked for extinguished cigarettes. The hydrant lamp 42 should be checked to see if it is illuminated. The emergency exit 43 should be checked for obstructions in front of it and for guidance lights. The AED 44 should be checked for removal and battery lamp illumination. Suspicious object 45 should be checked for its existence. A patrol route R is set in advance in the patrol area 40 . In the virtual space, the trainee travels along the patrol route R and performs patrol work. The position of the trainee is set in advance for each time, and moves along the patrol route R as time elapses.

2.1.表示処理
図5は、表示装置10により実行される表示処理の一例を示すフローチャートである。この表示処理は、例えば表示装置10に表示の開始を指示する信号が入力されたときに開始される。この信号は、例えば操作部15を用いた操作により入力されてもよいし、管理装置20から送信されてもよい。
2.1. Display Processing FIG. 5 is a flowchart showing an example of display processing executed by the display device 10 . This display processing is started, for example, when a signal instructing the start of display is input to the display device 10 . This signal may be input by an operation using the operation unit 15, or may be transmitted from the management device 20, for example.

ステップS11では、表示部16において、ストレージ13に記憶された動画データに基づいて、動画の再生が開始される。具体的には、動画データが示す動画に含まれる各パノラマ画像から訓練者の視野の範囲に対応する画角部分が抽出され、表示部16に順番に表示される。この動画は、巡回経路R上を移動する訓練者の視界を模している。そのため、動画では、巡回経路Rに沿ってカメラ視点の位置が自動的に移動していく。 In step S<b>11 , reproduction of moving images is started on the display unit 16 based on the moving image data stored in the storage 13 . Specifically, the angle-of-view portions corresponding to the range of the trainee's visual field are extracted from each panorama image included in the moving image indicated by the moving image data, and displayed on the display unit 16 in order. This moving image simulates the field of view of the trainee who moves on the patrol route R. Therefore, the position of the viewpoint of the camera automatically moves along the patrol route R in the moving image.

図4に示す例では、初期状態においては、例えば動画に含まれるパノラマ画像から、訓練者が位置P0において移動方向D1を向いたときの視野V1に含まれる部分が抽出されて表示される。ここでは、視野の大きさを示す角度として左右80度を用いるものとする。この場合、視野V1は、移動方向D1に向かう視線に対して、図4中の時計回りに80度の角度を成す一端と、図4中の反時計回りに80度の角度を成す他端との間の範囲となる。なお、図4では、視野V1の奥行方向の距離が円弧の半径で示されているが、実際にはこの距離は無限であってもよい。訓練者の位置が移動すると、パノラマ画像において視野V1に含まれる部分が変化する。これに伴って、表示部16の表示が変更される。 In the example shown in FIG. 4, in the initial state, for example, a portion included in the field of view V1 when the trainee faces the moving direction D1 at the position P0 is extracted and displayed from the panorama image included in the moving image. Here, 80 degrees to the left and right are used as the angle indicating the size of the field of view. In this case, the visual field V1 has one end forming an angle of 80 degrees clockwise in FIG. 4 and the other end forming an angle of 80 degrees counterclockwise in FIG. range between In FIG. 4, the distance in the depth direction of the field of view V1 is indicated by the radius of the arc, but in reality this distance may be infinite. When the position of the trainee moves, the portion included in the field of view V1 in the panorama image changes. Along with this, the display on the display unit 16 is changed.

ステップS12では、センサ部18において、訓練者のコンテンツの視聴中の行動として頭部の動きが検出されたか否かが判定される。訓練者が頭を動かしていない場合、訓練者の頭部の動きが検出されないため、ステップS12の判定がNOになる。この場合、ステップS12の処理が繰り返される。一方、例えば図4に示すように、訓練者が頭部を図4中の反時計回りにα度回転させると、センサ部18において「反時計回り」という回転方向と「α度」という回転角度とが検出される。この場合、ステップS12の判定がYESになり、ステップS13に進む。 In step S12, it is determined whether or not the sensor unit 18 has detected movement of the head as the action of the trainee during viewing of the content. If the trainee does not move his/her head, no movement of the trainee's head is detected, so the determination in step S12 is NO. In this case, the process of step S12 is repeated. On the other hand, as shown in FIG. 4, for example, when the trainee rotates the head counterclockwise in FIG. is detected. In this case, the determination in step S12 becomes YES, and the process proceeds to step S13.

ステップS13では、特定部101において、ステップS12において検出された頭部の動きに基づいて、訓練者の視野が特定される。図4に示すように、訓練者が頭部を図4中の反時計回りにα度回転させた場合、基準位置P1を中心に視野V1が反時計回りにα度回転移動される。そして、回転移動後の視野V2が特定される。 In step S13, the identification unit 101 identifies the visual field of the trainee based on the movement of the head detected in step S12. As shown in FIG. 4, when the trainee rotates the head counterclockwise in FIG. 4 by α degrees, the visual field V1 is rotated counterclockwise by α degrees around the reference position P1. Then, the field of view V2 after rotational movement is identified.

ステップS14では、ステップS13において特定された視野に応じて、動画のカメラ視点の方向が変更される。図4に示すように、訓練者が頭部を図4中の反時計回りにα度回転させた場合、動画のカメラ視点の方向が視野V1に対応する方向から視野V2に対応する方向に変更される。このようにカメラ視点の方向が変更されると、動画に含まれるパノラマ画像から、回転移動後の視野V2に対応する部分が抽出されて表示される。 In step S14, the direction of the camera viewpoint of the moving image is changed according to the field of view specified in step S13. As shown in FIG. 4, when the trainee rotates the head counterclockwise by α degrees in FIG. 4, the direction of the video camera viewpoint changes from the direction corresponding to the visual field V1 to the direction corresponding to the visual field V2. be done. When the direction of the camera viewpoint is changed in this way, a portion corresponding to the field of view V2 after rotational movement is extracted from the panorama image included in the moving image and displayed.

ステップS15では、動画が終了したか否かが判定される。動画が最後まで再生されていない場合、ステップS15の判定がNOになり、処理はステップS12に戻る。一方、例えば動画が最後まで再生された場合には、ステップS15の判定がYESになり、処理が終了する。 In step S15, it is determined whether or not the moving image has ended. If the moving image has not been reproduced to the end, the determination in step S15 is NO, and the process returns to step S12. On the other hand, for example, when the moving image has been reproduced to the end, the determination in step S15 becomes YES, and the process ends.

2.2.周囲確認の評価処理
図6は、表示装置10により実行される周囲確認の評価処理の一例を示すフローチャートである。この評価処理は、例えば動画が再生されると開始される。
2.2. Evaluation Processing of Surrounding Confirmation FIG. 6 is a flowchart showing an example of evaluation processing of surrounding confirmation executed by the display device 10 . This evaluation process is started, for example, when a moving image is reproduced.

ステップS21では、訓練者が仮想空間内を移動しているか否かが判定される。例えば仮想空間において訓練者の位置が変化していない場合には、ステップS21の判定がNOになる。この場合、ステップS21の処理が繰り返される。一方、動画において訓練者の位置が変化している場合には、ステップS21の判定がYESになる。この場合、処理はステップS22に進む。 In step S21, it is determined whether or not the trainee is moving within the virtual space. For example, if the position of the trainee has not changed in the virtual space, the determination in step S21 is NO. In this case, the process of step S21 is repeated. On the other hand, if the position of the trainee has changed in the moving image, the determination in step S21 is YES. In this case, the process proceeds to step S22.

ステップS22では、訓練者の移動方向D1からの視線方向D2の変化量に基づいて、警戒指標値を算出する。図4に示す例において、移動方向D1は、例えば訓練者の現在位置から巡回経路R上の次の位置に向かう方向である。視線方向D2は、例えば訓練者の現在位置から視野の中心に向かう方向である。移動方向D1からの視線方向D2の変化量には、移動方向D1と視線方向D2とが成す角度αが用いられる。そして、周囲確認を行ったか否かを判定する基準である第1の閾値、および、周囲確認を広範に行ったか否かを判定する基準である第2の閾値と角度αとの関係から警戒指標値を算出する。ここでは、第1の閾値が30度であり、第2の閾値が45度であるものとする。角度αが第1の閾値である30度より大きく第2の閾値である45度未満である場合には、周囲確認を行っているとして警戒指標値に1点が加算される。一方、角度αが第2の閾値である45度以上である場合には、広範に周囲確認を行っているとして警戒指標値に2点が加算される。なお、角度αが30度以下である場合には、周囲確認を行っていないとして警戒指標値は加算されない。このように、警戒指標値は、訓練者の移動方向D1からの視線方向D2の変化量が多い程、増加する。 In step S22, a caution index value is calculated based on the amount of change in the line-of-sight direction D2 from the movement direction D1 of the trainee. In the example shown in FIG. 4, the movement direction D1 is the direction from the trainee's current position to the next position on the patrol route R, for example. The line-of-sight direction D2 is, for example, the direction from the trainee's current position toward the center of the visual field. The angle α formed by the movement direction D1 and the line-of-sight direction D2 is used as the amount of change in the line-of-sight direction D2 from the movement direction D1. Then, the first threshold, which is the criterion for determining whether or not the surroundings have been confirmed, and the second threshold, which is the criterion for determining whether the surroundings have been extensively confirmed, and the relationship between the angle α and the warning index Calculate the value. Here, it is assumed that the first threshold is 30 degrees and the second threshold is 45 degrees. If the angle α is greater than the first threshold of 30 degrees and less than the second threshold of 45 degrees, one point is added to the warning index value assuming that the surroundings are being checked. On the other hand, when the angle α is equal to or greater than the second threshold value of 45 degrees, 2 points are added to the caution index value assuming that the surroundings are widely checked. When the angle α is 30 degrees or less, the warning index value is not added because the surroundings are not being checked. Thus, the caution index value increases as the amount of change in the line-of-sight direction D2 from the movement direction D1 of the trainee increases.

ステップS23では、ステップS22において算出された警戒指標値がストレージ13に記憶される。 At step S<b>23 , the warning index value calculated at step S<b>22 is stored in the storage 13 .

ステップS24では、上述したステップS15と同様に、動画が終了したか否かが判定される。動画が最後まで再生されていない場合、ステップS24の判定がNOになり、処理はステップS21に戻る。このようにして、動画が再生されている間、訓練者が移動中に周囲を確認する行動を行う度に、ストレージ13に記憶された注目指標値が加算される。一方、例えば動画が最後まで再生された場合には、ステップS24の判定がYESになり、ステップS25に進む。 In step S24, similarly to step S15 described above, it is determined whether or not the moving image has ended. If the moving image has not been reproduced to the end, the determination in step S24 is NO, and the process returns to step S21. In this way, the attention index value stored in the storage 13 is added every time the trainee checks the surroundings while moving while the moving image is being played. On the other hand, for example, when the moving image has been reproduced to the end, the determination in step S24 becomes YES, and the process proceeds to step S25.

ステップS25では、出力部104において、ストレージ13に記憶された警戒指標値が出力される。例えば訓練者のID(identification)とともに警戒指標値が出力部104から管理装置20に送信される。 In step S25, the warning index value stored in the storage 13 is output by the output unit 104. FIG. For example, the alert index value is transmitted from the output unit 104 to the management device 20 together with the ID (identification) of the trainee.

2.3.対象確認の評価処理
図7は、表示装置10により実行される対象確認の評価処理の一例を示すフローチャートである。この評価処理は、例えば動画が再生されると開始される。
2.3. Evaluation Processing for Object Confirmation FIG. 7 is a flowchart showing an example of evaluation processing for object confirmation executed by the display device 10 . This evaluation process is started, for example, when a moving image is reproduced.

ステップS31では、訓練者の現在位置から一定範囲内に注目対象が存在するか否かが判定される。この一定範囲は、例えば訓練者が周囲を見回すことにより注目対象を見ることができるような距離の範囲である。図4に示す例において、訓練者の現在位置から一定範囲内に、灰皿41、消火栓ランプ42、非常口43、AED44、及び不審物45のいずれも存在しない場合には、ステップS31の判定がNOになる。この場合、ステップS31の処理を繰り返す。一方、例えば訓練者の現在位置が位置P1である場合には、位置P1から一定範囲内にAED44が存在する。この場合、ステップS31の判定がYESになり、処理はステップS32に進む。 In step S31, it is determined whether or not the attention target exists within a certain range from the current position of the trainee. This certain range is, for example, a range of distances in which the trainee can see the object of interest by looking around. In the example shown in FIG. 4, when none of the ashtray 41, the fire hydrant lamp 42, the emergency exit 43, the AED 44, and the suspicious object 45 exists within a certain range from the trainee's current position, the determination in step S31 is NO. Become. In this case, the process of step S31 is repeated. On the other hand, for example, when the trainee's current position is position P1, AED 44 exists within a certain range from position P1. In this case, the determination in step S31 is YES, and the process proceeds to step S32.

ステップS32では、訓練者の現在位置から一定範囲内にある注目対象の位置が、注目位置に設定される。図4に示す例において、例えば訓練者の現在位置が位置P1である場合には、AED44の位置が注目位置に設定される。 In step S32, the position of the attention target within a certain range from the trainee's current position is set as the attention position. In the example shown in FIG. 4, for example, when the trainee's current position is position P1, the position of AED 44 is set as the target position.

ステップS33では、測定部102において、訓練者の現在位置から注目位置までの距離が測定される。図4に示す例において、例えば訓練者の現在位置が位置P1である場合には、この位置P1からAED44の位置までの距離L1が測定される。この距離は、訓練者の位置が変化する度に測定される。例えば訓練者が位置P2に移動すると、この位置P2からAED44の位置までの距離L2が測定される。 In step S33, the measurement unit 102 measures the distance from the trainee's current position to the target position. In the example shown in FIG. 4, for example, if the trainee's current position is position P1, the distance L1 from this position P1 to the position of the AED 44 is measured. This distance is measured each time the trainee's position changes. For example, when the trainee moves to position P2, the distance L2 from this position P2 to the position of AED 44 is measured.

ステップS34では、ステップS33において測定された距離と、訓練者の視線位置と注目位置との重なりの有無と、訓練者の視線位置と注目位置とが重なった状態が継続している時間とに基づいて、注目指標値が算出される。ここでは、所定距離が2m以内であり、所定範囲が1から5秒であるものとする。 In step S34, based on the distance measured in step S33, the presence or absence of overlap between the line-of-sight position of the trainee and the position of attention, and the time during which the line-of-sight position of the trainee and the position of attention continue to overlap. Then, the attention index value is calculated. Here, it is assumed that the predetermined distance is within 2 m and the predetermined range is 1 to 5 seconds.

図8は、表示部16に表示される動画50の一例を示す図である。上述したように、動画50は、訓練者の視野に含まれる部分を表す。図8に示す例では、視線位置E1は、訓練者の視野の中心である。上述した表示処理において説明したように、訓練者が頭部の向きを変えることにより、仮想空間において訓練者の視野に含まれる部分が変化し、動画50のカメラ視点の方向も変化する。 FIG. 8 is a diagram showing an example of a moving image 50 displayed on the display unit 16. As shown in FIG. As mentioned above, the animation 50 represents the portion included in the trainee's field of view. In the example shown in FIG. 8, the line-of-sight position E1 is the center of the trainee's visual field. As described in the above display processing, when the trainee changes the orientation of the head, the part included in the trainee's visual field in the virtual space changes, and the direction of the camera viewpoint of the moving image 50 also changes.

図8(a)は、訓練者が位置P1に移動したときに、表示部16に表示される動画50の一例を示す図である。図8(a)に示す例では、訓練者の視野には、注目対象であるAED44が含まれる。しかし、訓練者の視線位置E1とAED44の領域とが重なっていない。この場合、注目指標値は加算されない。 FIG. 8(a) is a diagram showing an example of a moving image 50 displayed on the display unit 16 when the trainee moves to the position P1. In the example shown in FIG. 8A, the trainee's field of view includes the AED 44, which is the target of attention. However, the line-of-sight position E1 of the trainee and the area of the AED 44 do not overlap. In this case, the attention index value is not added.

図8(b)は、訓練者が位置P1に移動したときに、表示部16に表示される動画50の別の例を示す図である。図8(b)に示す例では、訓練者の視野には、注目対象であるAED44が含まれる。また、訓練者の視線位置E1とAED44の領域とは重なっている。しかし、図4に示す訓練者の位置P1からAED44までの距離L1は4mであり、所定距離である2mより大きい。この場合、注目指標値は加算されない。 FIG. 8(b) is a diagram showing another example of the moving image 50 displayed on the display unit 16 when the trainee moves to the position P1. In the example shown in FIG. 8(b), the trainee's visual field includes the AED 44, which is the target of attention. Further, the line-of-sight position E1 of the trainee and the area of the AED 44 overlap. However, the distance L1 from the trainee's position P1 to the AED 44 shown in FIG. 4 is 4 m, which is greater than the predetermined distance of 2 m. In this case, the attention index value is not added.

図8(c)は、訓練者が位置P2に移動したときに、表示部16に表示される動画50の一例を示す図である。図8(c)に示す例では、訓練者の視野には、注目対象であるAED44が含まれる。また、視線位置E1とAED44の領域とは重なっている。さらに、図4に示す訓練者の位置P2からAED44までの距離L2は1mであり、所定距離の2m以内である。そして、視線位置E1とAED44の領域とが重なった状態が継続している時間は3秒であり、所定範囲である1から5秒に含まれる。この場合、注目指標値に2点が加算される。 FIG. 8(c) is a diagram showing an example of the moving image 50 displayed on the display unit 16 when the trainee moves to the position P2. In the example shown in FIG. 8(c), the trainee's visual field includes the AED 44, which is the target of attention. Also, the line-of-sight position E1 and the area of the AED 44 overlap. Furthermore, the distance L2 from the trainee's position P2 to the AED 44 shown in FIG. 4 is 1 m, which is within 2 m of the predetermined distance. The time during which the line-of-sight position E1 and the area of the AED 44 continue to overlap is 3 seconds, which is included in the predetermined range of 1 to 5 seconds. In this case, 2 points are added to the attention index value.

ステップS35では、ステップS34において算出された注目指標値がストレージ13に記憶される。 At step S<b>35 , the attention index value calculated at step S<b>34 is stored in the storage 13 .

ステップS36では、上述したステップS15と同様に、動画が終了したか否かが判定される。動画が最後まで再生されていない場合、ステップS36の判定がNOになり、処理はステップS31に戻る。このようにして、動画が再生されている間、訓練者が各注目対象の状態を確認する行動を行う度に、ストレージ13に記憶された注目指標値が加算される。そして、動画が最後まで再生された場合には、ステップS36の判定がYESになり、ステップS37に進む。 In step S36, similarly to step S15 described above, it is determined whether or not the moving image has ended. If the moving image has not been played to the end, the determination in step S36 is NO, and the process returns to step S31. In this way, the attention index value stored in the storage 13 is incremented each time the trainee performs an action to check the state of each attention target while the moving image is being played. Then, when the moving image has been reproduced to the end, the determination in step S36 becomes YES, and the process proceeds to step S37.

ステップS37では、出力部104において、ストレージ13に記憶された注目指標値が出力される。例えば訓練者のIDと上述した警戒指標値とともに注目指標値が出力部104から管理装置20に送信されてもよい。管理装置20は、これらのID、注目指標値、及び警戒指標値を受信すると、例えば訓練者毎に警戒指標値及び注目指標値を表示する。このとき、警戒指標値及び注目指標値とともに、注目指標値と警戒指標値との合計が表示されてもよい。 In step S<b>37 , the output unit 104 outputs the attention index value stored in the storage 13 . For example, the attention index value may be transmitted from the output unit 104 to the management device 20 together with the trainee's ID and the warning index value described above. When receiving these IDs, attention index values, and caution index values, the management device 20 displays the caution index values and attention index values for each trainee, for example. At this time, the sum of the attention index value and the caution index value may be displayed together with the caution index value and the attention index value.

なお、上述した実施形態では、「センサ部18」、「ストレージ13」、「動画データ」、「注目指標値」、「警戒指標値」が、それぞれ本発明に係る「検出部」、「記憶部」、「視野画像」、「指標値」、「他の指標値」として用いられている。 In the above-described embodiment, the "sensor unit 18", the "storage unit 13", the "moving image data", the "attention index value", and the "warning index value" correspond to the "detection unit" and the "storage unit" according to the present invention, respectively. ”, “visual field image”, “index value”, and “other index value”.

上述した実施形態によれば、対象の状態を確認する訓練者の行動に応じて注目指標値が算出されるため、仮想空間において行われる訓練において、対象の状態を確認する訓練者の行動を評価することができる。また、注目指標値が出力されるため、例えば訓練者の教官が対象の状態を確認する訓練者の行動の習熟度を客観的に把握することができる。また、訓練者の視線位置と注目対象の位置とが重なり、且つ、訓練者の位置から注目対象の位置までの距離が所定距離以内である場合、注目指標値が加算されるため、注目対象の状態を適切な距離から確認した訓練者を高く評価することができる。さらに、訓練者の視線位置と注目対象の位置とが重なり、且つ、訓練者の位置と注目対象の位置と重なった状態が継続している時間が所定範囲内である場合、注目指標値が加算されるため、注目対象の状態を適切な時間をかけて確認した訓練者を高く評価することができる。さらに、注目指標値に加えて警戒指標値が算出されるため、対象の状態を確認する訓練者の行動だけでなく、仮想空間の移動中に周囲を確認する訓練者の行動も評価することができる。 According to the above-described embodiment, the attention index value is calculated according to the behavior of the trainee who confirms the state of the target. can do. In addition, since the attention index value is output, for example, the instructor of the trainee can objectively grasp the proficiency level of the trainee's behavior for confirming the target state. Further, when the line-of-sight position of the trainee overlaps the position of the target of interest, and the distance from the position of the trainee to the position of the target of interest is within a predetermined distance, the attention index value is added. A trainee who confirms the condition from an appropriate distance can be highly evaluated. Furthermore, if the trainee's line-of-sight position and the position of the target of attention overlap and the time for which the trainee's position and the position of the target of attention continue to overlap is within a predetermined range, the attention index value is added. Therefore, it is possible to highly evaluate the trainee who has spent an appropriate amount of time confirming the state of the object of interest. Furthermore, since the warning index value is calculated in addition to the attention index value, it is possible to evaluate not only the behavior of the trainee who checks the state of the target, but also the behavior of the trainee who checks the surroundings while moving in the virtual space. can.

3.変形例
本発明は上述した実施形態に限定されない。上述した実施形態に対し、種々の変形がなされてもよい。また、以下の変形例が組み合わせて実施されてもよい。
3. Modifications The present invention is not limited to the embodiments described above. Various modifications may be made to the embodiments described above. Moreover, the following modifications may be combined and implemented.

上述した実施形態において、仮想空間に含まれる各対象に対して優先度が定められてもよい。ここでは、図4に示す例において、AED44には優先度「低」が、不審物45には優先度「高」が予め定められているものとする。なお、この優先度は、固定であってもよいし、対象の状況によって変化してもよい。例えば灰皿41の優先度として「低」が定められている場合であっても、灰皿41から煙が出ているときは、優先度が「高」になってもよい。算出部103は、複数の注目対象に対してそれぞれ定められた優先度と、訓練者の視線位置と複数の注目対象のそれぞれの位置とが重なった順番とに基づいて、注目指標値の増加量に重み付けを行ってもよい。注目指標値の増加量に重み付けを行う方法としては、例えば注目指標値に通常加算される値に対して重み係数(>1)を用いて重み付けを行ってもよい。これにより、通常の場合に比べて、指標値の増加幅が大きくなる。 In the embodiments described above, a priority may be set for each object included in the virtual space. Here, in the example shown in FIG. 4, it is assumed that the AED 44 is given a "low" priority and the suspicious object 45 is given a "high" priority. Note that this priority may be fixed or may change depending on the situation of the object. For example, even if "low" is set as the priority of the ashtray 41, the priority may become "high" when the ashtray 41 emits smoke. The calculation unit 103 calculates the amount of increase in the attention index value based on the priority determined for each of the plurality of attention targets and the order in which the line-of-sight position of the trainee overlaps with each of the plurality of attention targets. may be weighted. As a method of weighting the amount of increase in the index value of interest, for example, a value that is normally added to the index value of interest may be weighted using a weighting factor (>1). As a result, the increment of the index value becomes larger than in the normal case.

図9は、この変形例において、訓練者が図4に示す位置P3に移動したときに、表示部16に表示される動画50の一例を示す図である。訓練者が位置P3において移動方向を向いている場合、動画50には、AED44及び不審物45が両方とも現れる。図9に示す例では、訓練者が頭の向きを変えることにより、優先度が「高」の不審物45の領域と視線位置E1とが重なった後に、優先度が「低」のAED44の領域と視線位置E1とが重なっている。すなわち、視線位置E1と複数の注目対象のそれぞれの領域とが、注目対象の優先度が高い順番に重なっている。また、図4に示す訓練者の位置P3からAED44までの距離L3と、訓練者の位置P3から不審物45までの距離L4とは、いずれも所定距離以内である。さらに、視線位置E1とAED44の領域とが重なった状態が継続している時間と、視線位置E1と不審物45の領域とが重なった状態が継続している時間とは、いずれも所定範囲内である。この場合、視線位置E1と不審物45の領域、視線位置E1とAED44の領域とが重なったときに、注目指標値に通常加算される2点+2点=4点に対して、重み係数である1.5を用いて重み付けが行われる。これにより、4点×1.5=6点が注目指標値に加算される。この変形例によれば、優先度に応じた順番で複数の注目対象の状態を確認すると、注目指標値に加算される点数が増えるため、このような順番で複数の注目対象の状態を確認した訓練者を他の訓練者よりも高く評価することができる。 FIG. 9 is a diagram showing an example of a moving image 50 displayed on the display unit 16 when the trainee moves to the position P3 shown in FIG. 4 in this modified example. When the trainee faces the movement direction at position P3, both AED 44 and suspicious object 45 appear in moving image 50 . In the example shown in FIG. 9, when the trainee turns his or her head, the area of the AED 44 with "low" priority overlaps with the area of the suspicious object 45 with "high" priority and the line-of-sight position E1. and the line-of-sight position E1 overlap. That is, the line-of-sight position E1 and the regions of the plurality of attention targets overlap in order of priority of the attention targets. Also, the distance L3 from the trainee's position P3 to the AED 44 and the distance L4 from the trainee's position P3 to the suspicious object 45 shown in FIG. 4 are both within a predetermined distance. Furthermore, the time during which the line-of-sight position E1 and the area of the AED 44 continue to overlap and the time during which the line-of-sight position E1 and the area of the suspicious object 45 continue to overlap are both within a predetermined range. is. In this case, when the line-of-sight position E1 overlaps the area of the suspicious object 45 and the line-of-sight position E1 overlaps the area of the AED 44, the weighting factor is 2 points + 2 points = 4 points that are normally added to the attention index value. Weighting is performed using 1.5. As a result, 4 points×1.5=6 points are added to the target index value. According to this modification, if the states of a plurality of attention targets are checked in order according to the priority, the points added to the attention index value will increase. Trainees can be rated higher than other trainees.

上述した実施形態において、所定距離は注目対象の種別に応じて異なってもよい。これは、注目対象の種別によって注目対象の状態を視認し得る距離が異なる場合があるためである。例えば注目対象の中には遠くからでもその状態を視認し得るものがある場合がある。この場合、ストレージ13には、図10に示すような対応テーブル131が記憶される。対応テーブル131には、対象の種別と、所定距離とが対応付けて記憶される。例えば、注目対象が非常口43である場合、対応テーブル131において非常口43の種別と対応付けて記憶された所定距離「5m以内」が用いられる。一方、注目対象が不審物45である場合、対応テーブル131において不審物45の種別と対応付けて記憶された所定距離「2m以内」が用いられる。この場合、注目対象が変わると、変更後の注目対象に対応する所定距離が選択され、選択された所定距離が用いられる。すなわち、所定距離は、注目対象の種別によって切り替えて用いられる。この変形例によれば、注目対象の種別に応じた距離から注目対象の状態を確認した訓練者を高く評価することができる。 In the above-described embodiments, the predetermined distance may differ according to the type of target of interest. This is because the distance at which the state of the target of interest can be visually recognized may differ depending on the type of the target of interest. For example, there may be objects of interest whose state can be visually recognized even from a distance. In this case, the storage 13 stores a correspondence table 131 as shown in FIG. The correspondence table 131 stores target types and predetermined distances in association with each other. For example, when the object of interest is the emergency exit 43, the predetermined distance "within 5 m" stored in association with the type of the emergency exit 43 in the correspondence table 131 is used. On the other hand, when the object of interest is the suspicious object 45, the predetermined distance “within 2 m” stored in association with the type of the suspicious object 45 in the correspondence table 131 is used. In this case, when the target of interest changes, a predetermined distance corresponding to the changed target of interest is selected, and the selected predetermined distance is used. That is, the predetermined distance is switched and used depending on the type of target of interest. According to this modification, it is possible to highly evaluate the trainee who has confirmed the state of the target from the distance corresponding to the type of the target.

上述した実施形態において、所定範囲は注目対象の種別に応じて異なってもよい。これは、注目対象の種別によって注目対象の状態を視認するのに必要な時間が異なる場合があるためである。この場合、ストレージ13には、図11に示すような対応テーブル132が記憶される。対応テーブル132には、対象の種別と、所定範囲とが対応付けて記憶される。例えば、注目対象が灰皿41である場合、対応テーブル132において灰皿41の種別と対応付けて記憶された所定範囲「2から4秒」が用いられる。一方、注目対象が不審物45である場合、対応テーブル132において不審物45の種別と対応付けて記憶された所定範囲「3から5秒」が用いられる。この場合、注目対象が変わると、変更後の注目対象に対応する所定範囲が選択され、選択された所定範囲が用いられる。すなわち、所定範囲は、注目対象の種別によって切り替えて用いられる。また、この場合、訓練者の視線位置と注目対象の位置とが重なった状態が継続している時間が所定範囲より大きい場合には、この時間が所定範囲内であるときよりも小さい値が注目指標値に加算されてもよい。例えば、訓練者の視線位置E1と灰皿41の領域とが重なった状態が継続している時間が2から4秒以内である場合には、灰皿41の状況の確認が適切に行われているとして注目指標値に2点が加算される一方、この時間が4秒より大きい場合には、灰皿41の状況の確認は行われているが、手間取っているとして注目指標値に1点が加算されてもよい。また、この時間が2秒より小さい場合には、灰皿41の状況の確認が十分に行われていないとして注目指標値が加算されなくてもよい。 In the above-described embodiments, the predetermined range may differ according to the type of target of interest. This is because the time required to visually recognize the state of the target of interest may differ depending on the type of the target of interest. In this case, the storage 13 stores a correspondence table 132 as shown in FIG. The correspondence table 132 stores target types and predetermined ranges in association with each other. For example, when the object of interest is the ashtray 41, the predetermined range "2 to 4 seconds" stored in association with the type of the ashtray 41 in the correspondence table 132 is used. On the other hand, when the object of interest is the suspicious object 45, the predetermined range “3 to 5 seconds” stored in association with the type of the suspicious object 45 in the correspondence table 132 is used. In this case, when the target of interest changes, a predetermined range corresponding to the changed target of interest is selected, and the selected predetermined range is used. That is, the predetermined range is switched according to the type of target of interest. Further, in this case, if the time period during which the line-of-sight position of the trainee and the position of the target of attention continue to overlap is longer than the predetermined range, a smaller value than when this time period is within the predetermined range is the attention point. May be added to the index value. For example, when the trainee's line-of-sight position E1 and the area of the ashtray 41 continue to overlap for 2 to 4 seconds, it is assumed that the status of the ashtray 41 has been properly checked. While 2 points are added to the attention index value, if this time is longer than 4 seconds, 1 point is added to the attention index value because the status of the ashtray 41 has been checked but it is taking time. good too. Also, if this time is shorter than 2 seconds, it is considered that the status of the ashtray 41 has not been sufficiently checked, and the attention index value does not need to be added.

上述した実施形態において、注目対象の種別によって注目対象の状態を確認するときに注目対象を見る方向が定められていてもよい。例えば、灰皿41は、鉛直方向から確認した方が、煙草の火が消えているかを確認し易い。この場合、灰皿41の状態を確認する方向として、鉛直方向が定められてもよい。この場合、訓練者の視線位置と灰皿41の領域とが重なり、且つ、訓練者の視線方向が鉛直方向に沿っている場合には、注目指標値が加算されてもよい。すなわち、訓練者の視線位置と灰皿41の領域とが重なっても、訓練者の視線方向が鉛直方向以外の方向である場合には、訓練者の視線方向が鉛直方向の場合よりも小さい値が加算され、又は注目指標値が加算されなくてもよい。この視線方向には、例えば訓練者の目の位置から視野の中心に向かう方向が用いられてもよい。 In the above-described embodiment, the direction in which the target of interest is viewed when checking the state of the target of interest may be determined depending on the type of the target of interest. For example, if the ashtray 41 is viewed vertically, it is easier to check whether the cigarette is extinguished. In this case, the vertical direction may be determined as the direction for checking the state of the ashtray 41 . In this case, when the line-of-sight position of the trainee overlaps the area of the ashtray 41 and the line-of-sight direction of the trainee is along the vertical direction, the attention index value may be added. That is, even if the line-of-sight position of the trainee overlaps with the area of the ashtray 41, when the line-of-sight direction of the trainee is in a direction other than the vertical direction, the value is smaller than when the line-of-sight direction of the trainee is in the vertical direction. It may be added, or the attention index value may not be added. For this line-of-sight direction, for example, a direction from the position of the trainee's eyes toward the center of the visual field may be used.

上述した実施形態において、訓練者の位置と注目対象の位置との間に障害物がある場合には、訓練者の視線位置と注目対象の位置とが重なる場合であっても、注目指標値が加算されなくてもよい。この障害物としては、例えば仮想空間に含まれる柱や壁等の物体であってもよいし、仮想空間に含まれる人間を模した動体であってもよい。また、訓練者の移動経路と物体の位置又は動体の移動経路とが予め定められている場合には、動画の再生時刻によって、訓練者の位置と注目対象の位置の間に障害物があることが分かる。この場合、訓練者の位置と注目対象の位置との間に障害物がある期間は、訓練者の視線位置と注目対象の位置とが重なる場合であっても、注目指標値が加算されなくてもよい。 In the above-described embodiment, when there is an obstacle between the position of the trainee and the position of the target of attention, the attention index value is It does not have to be added. The obstacle may be, for example, an object such as a pillar or a wall included in the virtual space, or a moving object that simulates a human being included in the virtual space. In addition, when the movement route of the trainee and the position of the object or the movement route of the moving object are predetermined, it is possible that there is an obstacle between the position of the trainee and the position of the target of attention depending on the playback time of the video. I understand. In this case, when there is an obstacle between the position of the trainee and the position of the target of attention, the attention index value is not added even when the line-of-sight position of the trainee overlaps the position of the target of attention. good too.

上述した実施形態において、注目対象の状態を確認する熟練者の行動を機械学習し、その結果を用いて注目指標値が算出されてもよい。この場合、熟練者が表示装置10を装着し、仮想空間において注目対象の状態を確認する行動を行う。熟練者は、1人であってもよいし、複数人であってもよい。続いて、各注目対象の状態を確認するときの熟練者の視線位置と、その注目対象の位置との関係を示す入力データを機械学習することにより、注目対象の状態を確認するときの視線位置と注目対象の位置との模範の位置関係を示す模範データが生成される。この模範データは、ストレージ13に記憶される。訓練者が仮想空間において訓練を行うと、訓練者の視線位置と注目対象の位置との位置関係と、ストレージ13に記憶された模範データが示す模範の位置関係との類似度が算出される。この類似度とは、似ている度合いを示す値をいう。この類似度が高い程、注目指標値が増加してもよい。なお、この変形例では、本発明にかかる「記憶部」として、ストレージ13が用いられている。この変形例によれば、注目対象の状態を確認するために、熟練者に近い行動を行った訓練者をより高く評価することができる。 In the above-described embodiment, machine learning may be performed on the behavior of an expert who confirms the state of the target of interest, and the attention index value may be calculated using the result. In this case, a skilled person wears the display device 10 and performs an action to confirm the state of the attention target in the virtual space. The expert may be one person or may be multiple persons. Subsequently, machine learning is performed on the input data indicating the relationship between the line-of-sight position of the expert when checking the state of each target of interest and the position of the target of interest, thereby obtaining the position of the line-of-sight when checking the state of the target of interest. exemplar data indicating the positional relationship between the exemplar and the position of the target of interest is generated. This model data is stored in the storage 13 . When the trainee performs training in the virtual space, the degree of similarity between the positional relationship between the line-of-sight position of the trainee and the position of the attention target and the positional relationship of the model indicated by the model data stored in the storage 13 is calculated. This degree of similarity is a value indicating the degree of similarity. The attention index value may increase as the degree of similarity increases. In addition, in this modified example, the storage 13 is used as the "storage unit" according to the present invention. According to this modification, it is possible to evaluate a trainee who behaves like a skilled trainee in order to confirm the state of the target.

上述した実施形態では、訓練者の視線位置と注目対象の位置とが重なった場合には、注目指標値が加算されていたが、この加算とともに又はこの加算に代えて、訓練者の視線位置と注目対象の位置とが重ならなかった場合には、注目指標値が減算されてもよい。例えば、視線位置E1とAED44の領域とが重ならなかった場合には、注目指標値から2点減算されてもよい。 In the above-described embodiment, when the line-of-sight position of the trainee and the position of the target of interest overlap, the attention index value is added. If the target position does not overlap, the target index value may be subtracted. For example, when the line-of-sight position E1 and the area of the AED 44 do not overlap, 2 points may be subtracted from the attention index value.

上述した実施形態において、注目指標値又は警戒指標値に重み付けが行われてもよい。例えば注目指標値を重視して評価したい場合には、注目指標値に対して重み係数(>1)を用いて重み付けが行われてもよい。 In the above-described embodiments, the attention index value or caution index value may be weighted. For example, if the attention index value is to be emphasized in the evaluation, the attention index value may be weighted using a weighting factor (>1).

上述した実施形態において、訓練者の位置から注目対象の位置までの距離に関する条件、又は訓練者の視線位置と注目対象の位置とが重なった状態が継続している時間に関する条件は、必ずしも用いられなくてもよい。例えば訓練者の視線位置と注目対象の位置とが重なると、この距離及び時間に拘らず、注目指標値が加算されてもよい。また、訓練者の視線位置と注目対象の位置とが重なり、且つ、訓練者の位置から注目対象の位置までの距離が所定距離以内である場合には、この時間に拘らず、注目指標値が加算されてもよい。さらに、訓練者の視線位置と注目対象の位置とが重なり、且つ、訓練者の視線位置と注目対象の位置とが重なった状態が継続している時間が所定範囲内である場合には、この距離に拘らず、注目指標値が加算されてもよい。 In the above-described embodiments, the condition regarding the distance from the position of the trainee to the position of the target of attention, or the condition regarding the time during which the line-of-sight position of the trainee and the position of the target of attention continue to overlap is not necessarily used. It doesn't have to be. For example, when the line-of-sight position of the trainee overlaps with the position of the target of attention, the attention index value may be added regardless of the distance and time. Further, when the line-of-sight position of the trainee and the position of the target of attention overlap and the distance from the position of the trainee to the position of the target of attention is within a predetermined distance, regardless of this time, the attention index value is may be added. Further, when the position of the line of sight of the trainee and the position of the target of attention overlap and the time during which the position of the line of sight of the trainee and the position of the target of attention continues to overlap is within a predetermined range, this The attention index value may be added regardless of the distance.

上述した実施形態において、警戒指標値は、訓練者の視線方向が移動方向から複数回変化したことに応じて得られる複数の変化量により視線方向が偏っていることが示される場合には、複数の変化量のうち少なくとも1つが反映されなくてもよい。例えば、この場合には、警戒指標値が加算されなくてもよい。また、警戒指標値は、訓練者の移動方向からの視線方向の変化量が第1の閾値(例えば30度)より大きい状態が第1の所定時間(例えば10秒)以上継続した場合には、減少してもよい。さらに、警戒指標値は、訓練者の移動方向からの視線方向の変化量が第1の閾値以下である状態が第2の所定時間(例えば30秒)以上継続した場合には、減少してもよい。さらに、仮想空間において監視すべき事象が発生する場合、警戒指標値は、その事象が発生したとき、訓練者の位置から事象が発生した他の位置へと向かう方向である注目方向と視線方向との差が所定量(例えば15度)以下にならない場合には、減少してもよい。さらに、仮想空間において特定の作業が行われる場合、訓練者の移動方向からの視線方向の変化量が第1の閾値より大きい状態となる期間に含まれる1の時刻と、特定の作業が行われる他の時刻との関係に応じて、警戒指標値の増加量に重み付けが行われてもよい。また、訓練者の移動方向からの視線方向の変化量は、これらの方向が成す角度に限定されず、移動方向上の1の点と視線方向上の他の点とを結んだ線の長さであってもよい。 In the above-described embodiment, the alert index value is set to a plurality of may not be reflected. For example, in this case, the alert index value may not be added. In addition, when the amount of change in the line-of-sight direction from the moving direction of the trainee continues for a first predetermined time (for example, 10 seconds) or longer, the alert index value is may decrease. Furthermore, the warning index value may decrease if the state in which the amount of change in the line-of-sight direction from the movement direction of the trainee is equal to or less than the first threshold continues for a second predetermined time (eg, 30 seconds) or longer. good. Furthermore, when an event to be monitored occurs in the virtual space, the warning index value is the attention direction and the line-of-sight direction, which are the directions from the position of the trainee to another position where the event occurred when the event occurred. may be decreased if the difference is not less than a predetermined amount (eg, 15 degrees). Furthermore, when a specific work is performed in the virtual space, one time included in the period in which the amount of change in the line-of-sight direction from the moving direction of the trainee is greater than the first threshold, and the specific work is performed. The amount of increase in the alert index value may be weighted according to the relationship with other times. Also, the amount of change in the line-of-sight direction from the movement direction of the trainee is not limited to the angle formed by these directions, but is the length of the line connecting one point on the movement direction and another point on the line-of-sight direction. may be

上述した実施形態において、注目対象の位置とは、注目対象がある所をいう。注目対象の位置は、注目対象全体の領域であってもよいし、注目対象の一部の領域であってもよいし、注目対象の領域に含まれる点であってもよい。また、注目指標値が加算される視線位置と注目対象の位置との関係は、これらの位置が重なった状態に限定されない。例えば、注目対象の位置から一定範囲内に視線位置が移動した場合には、注目指標値が加算されてもよい。 In the above-described embodiments, the position of the target of interest refers to where the target of interest is. The position of the target of attention may be the entire area of the target of attention, a partial area of the target of attention, or a point included in the area of the target of attention. Also, the relationship between the line-of-sight position to which the attention index value is added and the position of the attention target is not limited to a state in which these positions overlap. For example, when the line-of-sight position moves within a certain range from the position of the target of interest, the attention index value may be added.

上述した実施形態において、訓練者の視線位置は、視野の中心に限定されない。例えば表示装置10は、周知のアイトラッキング技術を用いて訓練者の視線を検出し、検出した視線の先の位置を視線位置として用いてもよい。これにより訓練者が頭部の向きを変えずに視線を変えて対象に注意を払う行動についても評価の対象となり、より実践的な訓練が行える。 In the embodiments described above, the trainee's line-of-sight position is not limited to the center of the visual field. For example, the display device 10 may detect the line of sight of the trainee using a well-known eye tracking technique, and use the detected position ahead of the line of sight as the position of the line of sight. As a result, the trainee's behavior of paying attention to the target by changing the line of sight without changing the direction of the head is also evaluated, and more practical training can be performed.

上述した実施形態において、周知のモーションキャプチャ技術を用いて訓練者の動作を検出してもよい。この場合、訓練者は、歩く動作を行うことにより、仮想空間内を移動してもよい。すなわち、訓練者の歩く動作に応じて、仮想空間における訓練者の位置が変化してもよい。他の例において、操作部15を用いた操作により、仮想空間内の訓練者の位置が変化してもよい。 In the embodiments described above, well-known motion capture techniques may be used to detect the trainee's movements. In this case, the trainee may move in the virtual space by performing a walking motion. That is, the trainee's position in the virtual space may change according to the trainee's walking motion. In another example, an operation using the operation unit 15 may change the position of the trainee in the virtual space.

上述した実施形態において、表示部16は、画像を投影する装置であってもよい。例えば表示部16には、プロジェクター等の投射部及び画像が表示される表示面が用いられてもよいし、網膜に直接画像を投射する投射部が用いられてもよい。また、表示装置10は、ヘッドマウント型のウェアラブル端末に限定されない。例えば表示装置10は、眼鏡型のウェアラブル端末であってもよい。 In the embodiments described above, the display unit 16 may be a device that projects an image. For example, the display unit 16 may use a projection unit such as a projector and a display surface on which an image is displayed, or may use a projection unit that directly projects an image onto the retina. Moreover, the display device 10 is not limited to a head-mounted wearable terminal. For example, the display device 10 may be a glasses-type wearable terminal.

上述した実施形態において、動画データは管理装置20から表示装置10に送信されてもよい。この場合、例えば管理装置20からインターネット等の広域ネットワークを介して互いに異なる場所で使用される複数の表示装置10に動画データが配信されてもよい。 In the above-described embodiments, moving image data may be transmitted from the management device 20 to the display device 10 . In this case, for example, moving image data may be distributed from the management device 20 to a plurality of display devices 10 used in different locations via a wide area network such as the Internet.

上述した実施形態において、動画のコンテンツは、巡回業務の訓練に用いられるものに限定されない。動画のコンテンツは、訓練者が対象の状態を確認する行動の訓練に用いられるものであれば、どのようなコンテンツでもよい。 In the above-described embodiments, the content of the video is not limited to that used for patrol work training. The content of the video may be any content as long as it is used for the training of the action for the trainee to confirm the state of the object.

上述した実施形態において、管理装置20は必ずしも設けられなくてもよい。例えば表示装置10が単体で用いられてもよい。この場合、注目指標値及び警戒指標値は、例えば表示部16に表示されてもよい。 In the embodiments described above, the management device 20 may not necessarily be provided. For example, the display device 10 may be used alone. In this case, the attention index value and the warning index value may be displayed on the display unit 16, for example.

上述した実施形態において、訓練システム1は、VRを利用した訓練だけでなく、AR(Augmented Reality)やMR(Mixed Reality)を利用した訓練に用いられてもよい。 In the above-described embodiment, the training system 1 may be used not only for training using VR, but also for training using AR (Augmented Reality) or MR (Mixed Reality).

上述した実施形態において、訓練システム1において行われる処理のステップは、上述した実施形態で説明した例に限定されない。この処理のステップは、矛盾のない限り、入れ替えられてもよい。本発明は訓練システム1において行われる処理のステップを備える方法として提供されてもよい。 In the above-described embodiments, the steps of processing performed in the training system 1 are not limited to the examples described in the above-described embodiments. The steps of this process may be interchanged unless inconsistent. The invention may be provided as a method comprising steps of processing performed in the training system 1 .

本発明は、表示装置10又は管理装置20において実行されるプログラムとして提供されてもよい。このプログラムは、インターネットなどの通信回線を介してダウンロードされてもよい。また、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。 The present invention may be provided as a program executed by the display device 10 or the management device 20. FIG. This program may be downloaded via a communication line such as the Internet. In addition, this program is provided in a state recorded on computer-readable recording media such as magnetic recording media (magnetic tapes, magnetic discs, etc.), optical recording media (optical discs, etc.), magneto-optical recording media, semiconductor memories, etc. may

1:訓練システム、10:表示装置、11:プロセッサ、12:メモリ、13:ストレージ、14:通信部、15:操作部、16:表示部、17:音出力部、18:センサ部、101:特定部、102:測定部、103:算出部、104:出力部 1: training system, 10: display device, 11: processor, 12: memory, 13: storage, 14: communication unit, 15: operation unit, 16: display unit, 17: sound output unit, 18: sensor unit, 101: Identification unit, 102: measurement unit, 103: calculation unit, 104: output unit

Claims (10)

仮想空間における訓練者の行動を評価する訓練システムであって、
前記仮想空間における前記訓練者の位置からの視野画像を記憶する記憶部と、
実空間における前記訓練者の視野方向を検出する検出部と、
前記仮想空間における前記訓練者の位置と前記視野方向とに基づいて、前記仮想空間における前記訓練者の視野を特定する特定部と、
前記視野画像のうち前記視野に含まれる部分を表示する表示部と、
前記視野に含まれる視線位置と前記仮想空間に含まれる対象の位置との位置関係、及び前記仮想空間内を移動する前記訓練者の位置から前記対象の位置までの距離に基づいて、前記対象の状態を確認する前記訓練者の行動を評価する評価部
を備える訓練システム。
A training system that evaluates a trainee's behavior in a virtual space,
a storage unit that stores a visual field image from the position of the trainee in the virtual space;
a detection unit that detects the visual field direction of the trainee in real space;
an identifying unit that identifies the visual field of the trainee in the virtual space based on the position and the visual field direction of the trainee in the virtual space;
a display unit that displays a portion included in the field of view in the field of view image;
Based on the positional relationship between the line-of-sight position included in the field of view and the position of the target included in the virtual space , and the distance from the position of the trainee moving in the virtual space to the position of the target, and an evaluator that evaluates the trainee's actions to ascertain conditions.
前記評価部は、前記訓練者の行動の評価として指標値を算出し、前記視線位置と前記対象の位置とが重なった場合には、前記指標値を増加させる
請求項1に記載の訓練システム。
The training system according to claim 1, wherein the evaluation unit calculates an index value as an evaluation of the behavior of the trainee, and increases the index value when the line-of-sight position and the target position overlap.
評価部は、前記視線位置と前記対象の位置とが重なり、且つ、そのときの前記仮想空間における前記訓練者の位置から前記対象の位置までの距離が所定距離以内である場合には、前記指標値を増加させる
請求項2に記載の訓練システム。
When the line- of -sight position and the position of the target overlap and the distance from the position of the trainee in the virtual space at that time to the position of the target is within a predetermined distance, 3. The training system of claim 2, wherein the index value is increased.
前記対象の種別によって、前記所定距離が異なる
請求項3に記載の訓練システム。
The training system according to claim 3, wherein the predetermined distance differs depending on the type of the target.
前記評価部は、前記視線位置と前記対象の位置とが重なり、且つ、前記視線位置と前記対象の位置とが重なった状態が継続している時間が所定範囲内である場合には、前記指標値を増加させる
請求項2から4のいずれか1項に記載の訓練システム。
When the line-of-sight position and the position of the object overlap and the time period during which the line-of-sight position and the position of the object overlap is within a predetermined range, the evaluation unit determines whether the index 5. A training system according to any one of claims 2 to 4, which increases the value.
前記対象の種別によって、前記所定範囲が異なる
請求項5に記載の訓練システム。
The training system according to claim 5, wherein the predetermined range differs depending on the type of the object.
前記仮想空間は、複数の対象を含み、
前記評価部は、前記複数の対象に対してそれぞれ定められた優先度と、前記視線位置と前記複数の対象のそれぞれの位置とが重なった順番とに基づいて、前記指標値の増加量に重み付けを行う
請求項から6のいずれか1項に記載の訓練システム。
The virtual space includes a plurality of objects,
The evaluation unit weights the amount of increase in the index value based on the priority determined for each of the plurality of targets and the order in which the line-of-sight position overlaps the position of each of the plurality of targets. 7. The training system according to any one of claims 2-6 .
評価部は、さらに、前記訓練者の位置の移動方向からの前記視野に含まれる視線方向の変化量に基づいて、前記訓練者の周囲を確認する行動を評価す
請求項1から7のいずれか1項に記載の訓練システム。
The evaluation unit further evaluates the behavior of checking the surroundings of the trainee based on the amount of change in the line-of-sight direction included in the visual field from the movement direction of the position of the trainee. 8. Training system according to any one of clause 7.
前記仮想空間において熟練者が行った前記対象の状態を確認する行動に基づいて生成された、前記対象の状態を確認するときの視線位置と前記対象の位置との模範の位置関係を示すデータを記憶する記憶部をさらに備え、
前記評価部は、前記位置関係と前記模範の位置関係との類似度に基づいて、前記訓練者の行動を評価する
請求項1から8のいずれか1項に記載の訓練システム。
Data indicating a model positional relationship between a line-of-sight position and a position of the object when confirming the state of the object, which is generated based on actions performed by an expert to confirm the condition of the object in the virtual space. further comprising a storage unit for storing
The training system according to any one of claims 1 to 8, wherein the evaluation unit evaluates the behavior of the trainee based on the degree of similarity between the positional relationship and the positional relationship of the model.
仮想空間における訓練者の行動を評価する訓練システムに含まれるコンピュータに、
実空間における前記訓練者の視野方向を検出するステップと、
前記仮想空間における前記訓練者の位置と前記視野方向とに基づいて、前記仮想空間における前記訓練者の視野を特定するステップと、
記憶部に記憶された視野画像であって前記仮想空間における前記訓練者の位置からの前記視野画像のうち前記視野に含まれる部分を表示するステップと、
前記視野に含まれる視線位置と前記仮想空間に含まれる対象の位置との位置関係、及び前記仮想空間内を移動する前記訓練者の位置から前記対象の位置までの距離に基づいて、前記対象の状態を確認する前記訓練者の行動を評価するステップと
を実行させるためのプログラム。
A computer included in a training system that evaluates the behavior of a trainee in a virtual space,
detecting the trainee's viewing direction in real space;
identifying a visual field of the trainee in the virtual space based on the position and the visual field direction of the trainee in the virtual space;
a step of displaying a portion included in the field of view of the field of view image stored in a storage unit and viewed from the position of the trainee in the virtual space;
Based on the positional relationship between the line-of-sight position included in the field of view and the position of the target included in the virtual space , and the distance from the position of the trainee moving in the virtual space to the position of the target, a step of evaluating the behavior of the trainee to confirm the condition;
JP2018182698A 2018-09-27 2018-09-27 training system and program Active JP7220043B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018182698A JP7220043B2 (en) 2018-09-27 2018-09-27 training system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182698A JP7220043B2 (en) 2018-09-27 2018-09-27 training system and program

Publications (2)

Publication Number Publication Date
JP2020052290A JP2020052290A (en) 2020-04-02
JP7220043B2 true JP7220043B2 (en) 2023-02-09

Family

ID=69996987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182698A Active JP7220043B2 (en) 2018-09-27 2018-09-27 training system and program

Country Status (1)

Country Link
JP (1) JP7220043B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023162525A (en) * 2022-04-27 2023-11-09 日本電気株式会社 Simulation device, simulation method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7222387B2 (en) 2020-10-13 2023-02-15 横河電機株式会社 Apparatus, method and program
KR102807920B1 (en) * 2022-09-27 2025-05-16 연세대학교 산학협력단 Medical simulation apparatus for training and evaluation of healthcare workers and method for controlling the same

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004051059A (en) 2002-07-24 2004-02-19 Nissan Motor Co Ltd Driver future situation prediction device
JP2007133692A (en) 2005-11-10 2007-05-31 Toyota Motor Corp Driving behavior evaluation device
JP2009282704A (en) 2008-05-21 2009-12-03 Denso Corp Information provision system for vehicle
JP2015116376A (en) 2013-12-19 2015-06-25 株式会社デンソー State estimation apparatus and state estimation program
US20160027336A1 (en) 2012-04-23 2016-01-28 The Boeing Company Methods for Evaluating Human Performance in Aviation
JP2016511446A (en) 2013-03-11 2016-04-14 リンカーン グローバル,インコーポレイテッド Import and analysis of external data using virtual reality welding system
JP2016080752A (en) 2014-10-10 2016-05-16 学校法人早稲田大学 Medical practice training suitability evaluation device
JP2017009717A (en) 2015-06-19 2017-01-12 国立大学法人秋田大学 Bicycle driving simulator
JP2017033126A (en) 2015-07-30 2017-02-09 いすゞ自動車株式会社 Safe driving promotion device and safe driving promotion method
JP2019135505A (en) 2018-02-05 2019-08-15 公益財団法人鉄道総合技術研究所 Program and train operation simulator
JP2019204012A (en) 2018-05-24 2019-11-28 東邦瓦斯株式会社 Skill level determination system and skill level determination program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141095A (en) * 1993-11-17 1995-06-02 Matsushita Electric Ind Co Ltd Training equipment

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004051059A (en) 2002-07-24 2004-02-19 Nissan Motor Co Ltd Driver future situation prediction device
JP2007133692A (en) 2005-11-10 2007-05-31 Toyota Motor Corp Driving behavior evaluation device
JP2009282704A (en) 2008-05-21 2009-12-03 Denso Corp Information provision system for vehicle
US20160027336A1 (en) 2012-04-23 2016-01-28 The Boeing Company Methods for Evaluating Human Performance in Aviation
JP2016511446A (en) 2013-03-11 2016-04-14 リンカーン グローバル,インコーポレイテッド Import and analysis of external data using virtual reality welding system
JP2015116376A (en) 2013-12-19 2015-06-25 株式会社デンソー State estimation apparatus and state estimation program
JP2016080752A (en) 2014-10-10 2016-05-16 学校法人早稲田大学 Medical practice training suitability evaluation device
JP2017009717A (en) 2015-06-19 2017-01-12 国立大学法人秋田大学 Bicycle driving simulator
JP2017033126A (en) 2015-07-30 2017-02-09 いすゞ自動車株式会社 Safe driving promotion device and safe driving promotion method
JP2019135505A (en) 2018-02-05 2019-08-15 公益財団法人鉄道総合技術研究所 Program and train operation simulator
JP2019204012A (en) 2018-05-24 2019-11-28 東邦瓦斯株式会社 Skill level determination system and skill level determination program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023162525A (en) * 2022-04-27 2023-11-09 日本電気株式会社 Simulation device, simulation method, and program

Also Published As

Publication number Publication date
JP2020052290A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP7220043B2 (en) training system and program
JP5580855B2 (en) Obstacle avoidance device and obstacle avoidance method
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
JP7322713B2 (en) Information processing device, information processing method, and program
WO2006137072A2 (en) Wide area security system and method
CN102686371A (en) Danger presentation device,danger presentation system,danger presentation method, and program
KR101906002B1 (en) Multi sides booth system for virtual reality and the thereof
JP3715219B2 (en) Virtual field training device
US20230237921A1 (en) Mixed Reality Content Generation
US10582190B2 (en) Virtual training system
JP2025061520A (en) Information processing device, user guide presentation method, and head-mounted display
US11314082B2 (en) Motion signal generation
CN110320994B (en) Early warning method of augmented reality glasses based on game field
JP2001084375A (en) Operation verification system and non-contact manipulation system
KR20210127860A (en) Virtual Reality (VR) Martial Arts Training System
JP6522092B1 (en) Display system and display method
JP6904723B2 (en) Monitoring system
JP7220042B2 (en) training system and program
JP7000397B2 (en) Virtual reality control system
WO2021215246A1 (en) Image processing device, image processing method, and program
JP7768221B2 (en) Information processing device, information processing method, and program
JP2018116684A (en) Communication method through virtual space, program causing computer to execute method, and information processing device to execute program
WO2012026681A9 (en) Virtual reality martial arts system using a network, and method for controlling same
CN108898779A (en) A kind of fire alarm method and system
US20190108614A1 (en) Adaptation of presentation speed

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7220043

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150