JP7220043B2 - training system and program - Google Patents
training system and program Download PDFInfo
- Publication number
- JP7220043B2 JP7220043B2 JP2018182698A JP2018182698A JP7220043B2 JP 7220043 B2 JP7220043 B2 JP 7220043B2 JP 2018182698 A JP2018182698 A JP 2018182698A JP 2018182698 A JP2018182698 A JP 2018182698A JP 7220043 B2 JP7220043 B2 JP 7220043B2
- Authority
- JP
- Japan
- Prior art keywords
- trainee
- virtual space
- target
- line
- index value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、仮想空間において訓練を行う技術に関する。 The present invention relates to a technique for training in virtual space.
VR(virtual reality)を利用して訓練を行う技術が知られている。例えば特許文献1には、自転車運転シミュレータにおいて、被験者が模擬自転車の運転を開始してから終了するまでの間に後方を確認した時間を、評価データとして算出することが記載されている。
Techniques for training using VR (virtual reality) are known. For example,
VRを利用して、仮想空間に含まれる対象(設備や不審物など)の状態を確認する訓練を行う場合がある。しかし、このような訓練において、状態が確認される対象は、必ずしも訓練者から見て特定の方向にあるわけではない。例えば訓練者が仮想空間内を移動する場合には、訓練者の移動に伴って、訓練者から見て対象がある方向も変化する。特許文献1に記載の技術では、特定の方向を確認した時間が評価データとして算出されるが、この評価データからは、特定の方向を確認したことしか認識できず、仮想空間に含まれる対象の状態を確認したかは認識できない。そのため、このような訓練者の行動を評価することができない。
本発明は、仮想空間において行われる訓練において、対象の状態を確認する訓練者の行動を評価することを目的とする。
In some cases, VR is used for training to check the state of objects (equipment, suspicious objects, etc.) included in the virtual space. However, in such training, the object whose condition is checked is not necessarily in a particular direction from the trainee's point of view. For example, when the trainee moves in the virtual space, the direction of the target as seen from the trainee changes as the trainee moves. In the technique described in
SUMMARY OF THE INVENTION An object of the present invention is to evaluate the behavior of a trainee who confirms the condition of an object in training performed in a virtual space.
本発明は、仮想空間における訓練者の行動を評価する訓練システムであって、前記仮想空間における前記訓練者の位置からの視野画像を記憶する記憶部と、実空間における前記訓練者の視野方向を検出する検出部と、前記仮想空間における前記訓練者の位置と前記視野方向とに基づいて、前記仮想空間における前記訓練者の視野を特定する特定部と、前記視野画像のうち前記視野に含まれる部分を表示する表示部と、前記視野に含まれる視線位置と前記仮想空間に含まれる対象の位置との位置関係に基づいて、前記対象の状態を確認する前記訓練者の行動を評価する指標値を算出する算出部とを備える訓練システム訓練システムを提供する。 The present invention is a training system for evaluating a trainee's behavior in a virtual space, comprising a storage unit that stores a visual field image from the position of the trainee in the virtual space, and a visual field direction of the trainee in the real space. a detecting unit that detects; a specifying unit that specifies a field of view of the trainee in the virtual space based on the position of the trainee in the virtual space and the direction of the field of view; an index value for evaluating the behavior of the trainee who confirms the state of the target based on the positional relationship between the display unit that displays the portion and the position of the line of sight included in the visual field and the position of the target included in the virtual space. A training system training system comprising a calculation unit for calculating
前記算出部は、前記視線位置と前記対象の位置とが重なった場合には、前記指標値を増加させてもよい。 The calculation unit may increase the index value when the line-of-sight position and the target position overlap.
前記訓練者の位置は、前記仮想空間内を移動し、前記算出部は、前記視線位置と前記対象の位置とが重なり、且つ、そのときの前記仮想空間における前記訓練者の位置から前記対象の位置までの距離が所定距離以内である場合には、前記指標値を増加させてもよい。 The position of the trainee moves in the virtual space, and the calculation unit calculates the position of the target from the position of the trainee in the virtual space at that time when the line-of-sight position and the position of the target overlap. The index value may be increased when the distance to the position is within a predetermined distance.
前記対象の種別によって、前記所定距離が異なってもよい。 The predetermined distance may differ depending on the type of the target.
前記算出部は、前記視線位置と前記対象の位置とが重なり、且つ、前記視線位置と前記対象の位置とが重なった状態が継続している時間が所定範囲内である場合には、前記指標値を増加させてもよい。 When the line-of-sight position and the position of the target overlap and the time period during which the line-of-sight position and the position of the target continue to overlap is within a predetermined range, the calculation unit calculates the index You can increase the value.
前記対象の種別によって、前記所定範囲が異なってもよい。 The predetermined range may differ depending on the type of the target.
前記仮想空間は、複数の対象を含み、前記算出部は、前記複数の対象に対してそれぞれ定められた優先度と、前記視線位置と前記複数の対象のそれぞれの位置とが重なった順番とに基づいて、前記指標値の増加量に重み付けを行ってもよい。 The virtual space includes a plurality of objects, and the calculation unit calculates the order in which the priority determined for each of the plurality of objects and the order in which the line-of-sight position and the position of each of the plurality of objects overlap. Based on this, the amount of increase in the index value may be weighted.
前記訓練者の位置は、前記仮想空間内を移動し、前記算出部は、前記訓練者の位置の移動方向からの前記視野に含まれる視線方向の変化量に基づいて、前記訓練者の周囲を確認する行動を評価する他の指標値を算出してもよい。 The position of the trainee moves in the virtual space, and the calculation unit moves around the trainee based on the amount of change in the line-of-sight direction included in the visual field from the movement direction of the position of the trainee. Other index values for evaluating behavior to be confirmed may be calculated.
前記訓練システムは、前記仮想空間において熟練者が行った前記対象の状態を確認する行動に基づいて生成された、前記対象の状態を確認するときの視線位置と前記対象の位置との模範の位置関係を示すデータを記憶する記憶部をさらに備え、前記算出部は、前記位置関係と前記模範の位置関係との類似度に基づいて、前記指標値を算出してもよい。 The training system provides a model position of a line-of-sight position and a position of the object when confirming the condition of the object, which are generated based on an action of confirming the condition of the object performed by an expert in the virtual space. A storage unit that stores data indicating a relationship may be further provided, and the calculation unit may calculate the index value based on a degree of similarity between the positional relationship and the model positional relationship.
また、本発明は、仮想空間における訓練者の行動を評価する訓練システムに含まれるコンピュータに、実空間における前記訓練者の視野方向を検出するステップと、前記仮想空間における前記訓練者の位置と前記視野方向とに基づいて、前記仮想空間における前記訓練者の視野を特定するステップと、記憶部に記憶された視野画像であって前記仮想空間における前記訓練者の位置からの前記視野画像のうち前記視野に含まれる部分を表示するステップと、前記視野に含まれる視線位置と前記仮想空間に含まれる対象の位置との位置関係に基づいて、前記対象の状態を確認する前記訓練者の行動を評価する指標値を算出するステップとを実行させるためのプログラムを提供する。 Further, the present invention provides a computer included in a training system for evaluating the behavior of a trainee in a virtual space, which includes a step of detecting the line-of-sight direction of the trainee in the real space, the position of the trainee in the virtual space and the specifying the visual field of the trainee in the virtual space based on the direction of the visual field; Evaluating the behavior of the trainee confirming the state of the target based on the step of displaying a portion included in the field of view, and the positional relationship between the line-of-sight position included in the field of view and the position of the target included in the virtual space. and a step of calculating an index value to be used.
本発明によれば、仮想空間において行われる訓練において、対象の状態を確認する訓練者の行動を評価することができる。 Advantageous Effects of Invention According to the present invention, it is possible to evaluate the behavior of a trainee who confirms the condition of a target during training performed in virtual space.
1.構成
図1は、本実施形態に係る訓練システム1の構成の一例を示す図である。訓練システム1は、VRを利用して、警備、災害対処、救助等といった作業現場において注意を向けるべき対象(不審物や負傷者など)の存在が想定され、対象の状態に十分に注意を払うことが求められる作業に関する各種の訓練を行うために用いられる。訓練システム1は、仮想空間における訓練者の行動を評価する。この「訓練」とは、一定の目標に到達させるための教育活動をいう。訓練では、必ずしも実際に行動をする必要はない。訓練には、研修や学習も含まれる。訓練システム1は、複数の表示装置10と、管理装置20とを備える。複数の表示装置10と管理装置20とは、通信回線30を介して接続されている。通信回線30は、これらの装置間の通信を伝送する。通信回線30には、例えばLAN(Local Area Network)等のプライベートネットワークが用いられてもよい。
1. Configuration FIG. 1 is a diagram showing an example of the configuration of a
図2は、表示装置10のハードウェア構成の一例を示す図である。表示装置10は、訓練者の視界を模擬した画像を表示することで仮想空間を提供するとともに、訓練者のコンテンツの視聴中の行動(以下、単に行動ということもある)を記録して評価する。なお、このコンテンツには、例えば画像と音声とが含まれる。表示装置10は、訓練者の頭部に装着される。表示装置10には、例えばヘッドマウント型のウェアラブル端末が用いられてもよい。表示装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信部14と、操作部15と、表示部16と、音出力部17と、センサ部18とを備える。これらの構成は、バス19を介して接続されている。
FIG. 2 is a diagram showing an example of the hardware configuration of the
プロセッサ11は、プログラムをメモリ12に読み出して実行することにより、各種の処理を実行する。プロセッサ11には、例えばCPU(Central Processing Unit)が用いられてもよい。メモリ12は、プロセッサ11により実行されるプログラムを記憶する。メモリ12には、例えばROM(Read Only Memory)又はRAM(Random Access Memory)が用いられてもよい。ストレージ13は、各種のデータ及びプログラムを記憶する。ストレージ13には、例えばフラッシュメモリが用いられてもよい。通信部14は、通信回線30に接続され、通信回線30を介してデータ通信を行う。操作部15は、各種の情報の入力に用いられる。操作部15には、例えば操作キーが用いられてもよい。表示部16は、各種の情報を表示する。表示部16には、例えば液晶ディスプレイが用いられてもよい。音出力部17は、音声信号を音に変換して出力する。音出力部17には、例えばスピーカが用いられてもよい。
The
センサ部18は、実空間における座標系にて訓練者の頭部の動きを検出する。この動きには、頭部の向きが含まれる。本実施形態では、実空間における訓練者の頭部の向きを実空間における訓練者の視野方向として検出する。センサ部18には、例えばジャイロスコープ、加速度センサ、及び地磁気センサが含まれてもよい。ジャイロスコープは、訓練者の頭部の角度又は角速度を計測する。加速度センサは、訓練者の頭部の加速度を計測する。地磁気センサは、訓練者の頭部の方位を計測する。
The
表示部16では、センサ部18で検出された頭部の向きに基づいて特定される訓練者の視野に対応する仮想空間の画像を表示する。すなわち、実空間において訓練者が頭部を左右に旋回させることで、訓練者は仮想空間全体を視認することが可能となる。
The
また、ストレージ13には、撮像装置(図示せず)を用いて予め撮影された動画を示す動画データが仮想空間における座標系に関連付けられた情報として予め記憶される。本実施形態においては、仮想空間における訓練者の位置は時間毎に予め定められており、時間の経過に伴って変化するものとしているため、この動画は、仮想空間において時刻毎に予め設定された位置における訓練者からの視界を模したもの、すなわち仮想空間における訓練者の各位置から見える範囲の動画である。この動画は、フレームと呼ばれる複数のパノラマ画像により構成される。パノラマ画像は、人間の視野よりも広い画角を有する。パノラマ画像の画角は、例えば360度であってもよい。動画は、例えば広角レンズを備える単一のビデオカメラを用いて撮影されてもよいし、互いに異なる方向を撮影する複数のビデオカメラを用いて撮影された動画を組み合わせることにより生成されてもよい。また、全天球カメラなどを用いて、上下左右全方位の360度のパノラマ画像から動画を構成することで、より現実空間に近い状況で訓練を行うようにしてもよい。
In addition, the
また、仮想空間を構成するパノラマ画像において特定方向として0度の方向を設定することにより、パノラマ画像における-180度~180度を規定する。なお、本実施形態では、特定方向として後述の訓練者の位置P0における移動方向D1を用いることとする。 In addition, by setting the direction of 0 degrees as the specific direction in the panoramic image forming the virtual space, the range of -180 degrees to 180 degrees in the panoramic image is defined. In the present embodiment, a moving direction D1 at the trainee's position P0, which will be described later, is used as the specific direction.
なお、表示装置10は、訓練者の頭部に装着される筐体と、筐体に取り付けられるスマートフォンとにより構成されてもよい。この場合、スマートフォンは、上述したプロセッサ11と、メモリ12と、ストレージ13と、通信部14と、操作部15と、表示部16と、音出力部17と、センサ部18とを備える。スマートフォンは、筐体が訓練者の頭部に装着されたときに訓練者から表示部16が見えるような姿勢で、筐体に取り付けられる。
Note that the
図1に戻り、管理装置20は、各表示装置10から訓練者の評価結果を収集して出力する。管理装置20には、例えば汎用のコンピュータが用いられてもよい。管理装置20は、上述したプロセッサ11と、メモリ12と、ストレージ13と、通信部14と、操作部15と、表示部16と同様の構成を備えていてもよい。
Returning to FIG. 1 , the
図3は、表示装置10の機能構成の一例を示す図である。表示装置10は、特定部101と、測定部102と、算出部103と、出力部104として機能する。これらの機能は、メモリ12に記憶されたプログラムと、このプログラムを実行するプロセッサ11との協働により、プロセッサ11が演算を行い又は通信部14による通信を制御することにより実現される。
FIG. 3 is a diagram showing an example of the functional configuration of the
特定部101は、仮想空間における訓練者の位置と、センサ部18が検出した実空間における訓練者の視野方向とに基づいて、仮想空間における訓練者の視野を特定する。以下、視野の特定方法の一例について説明する。動画の再生が開始されたときの実空間における訓練者の頭部の向きをパノラマ画像における特定方向として、訓練者の頭部の向き(実空間における座標系)とパノラマ画像における方向(仮想空間における座標系)とを対応付ける。そして、仮想空間における特定方向から時計回りに所定角度(例えば80度)を成す一端と反時計回りに所定角度(例えば80度)を成す他端との間の範囲を仮想空間における訓練者の視野として特定する。すなわち、動画の再生が開始されたときの視野は-80度~80度の範囲となり、この視野に対応するパノラマ画像の一部(-80度~80度)が表示部16に表示される。以降は、センサ部18で検出された訓練者の頭部の向きの変化に応じて仮想空間における訓練者の現在の視野を特定する。例えば、-80度~80度の範囲を視野として特定している場合において、センサ部18において訓練者の頭部の向きが反時計回り方向に20度変化したことが検出されると、特定部101はこの検出結果に基づいて、視野全体を反時計回り方向に20度変化させた-60度~100度の範囲を訓練者の現在の視野として特定する。視野の大きさには、例えば一般的な人の視野の大きさが用いられてもよい。
The identifying
測定部102は、仮想空間における訓練者の現在位置から仮想空間に含まれる対象の位置までの距離を測定する。対象とは、状態を確認すべき対象をいう。対象は、物体であってもよいし、事象であってもよい。例えば仮想空間において巡回警備の訓練が行われる場合、対象は、巡回警備において監視すべき施設の設備や物品、非常時に用いられる設備、又は異常な物体若しくは事象であってもよい。距離の測定には、例えば仮想空間における訓練者の位置を示す座標と対象の位置を示す座標とが用いられてもよい。また、本実施形態のように仮想空間における訓練者の位置及び対象の位置が予め設定されている場合、仮想空間における訓練者の現在位置から仮想空間に含まれる対象の位置までの距離を予め記憶するようにしてもよい。
The
算出部103は、特定部101が特定した視野に含まれる視線位置と仮想空間に含まれる対象の位置との位置関係に基づいて、対象の状態を確認する訓練者の行動を評価する注目指標値を算出する。この視線位置とは、視線の注がれるところをいう。本実施形態では、視線位置には、訓練者の視野の中心を用いる。なお、後述するようにアイトラッキング等を用いることにより、訓練者の視線位置をより正確に特定してもよい。この注目指標値は、例えば対象の状態を確認する訓練者の行動の習熟度を示す値である。注目指標値には、例えば数字が用いられてもよい。この場合、注目指標値が大きい程、評価が高いことを示してもよい。ただし、注目指標値は、必ずしも数字に限定されない。例えば注目指標値は、文字や記号により表現されてもよい。
The
注目指標値は、例えば訓練者の視線位置と対象の位置とが重なった場合には、増加してもよい。なお、この「重なった」状態には、完全に一致する状態だけではなく、部分的に重なった状態が含まれてもよい。また、注目指標値は、訓練者の視線位置と対象の位置とが重なり、且つ、測定部102が測定した距離が所定距離以内である場合には増加してもよい。すなわち、注目指標値は、訓練者の視線位置と対象の位置とが重なっていても、測定部102が測定した距離が所定距離外である場合には、増加しなくてもよい。この所定距離は、例えば訓練者が対象の状態を視認し得るような距離が用いられてもよい。例えば対象に近づかないと対象の状態を視認できない場合には、対象に近づいたとみなせる距離の範囲が所定距離として用いられてもよい。さらに、注目指標値は、訓練者の視線位置と対象の位置とが重なり、且つ、それらの位置が重なった状態が継続している時間が所定範囲内である場合には、増加してもよい。すなわち、注目指標値は、訓練者の視線位置と対象の位置とが重なった場合でも、それらの位置が重なった状態が継続している時間が所定範囲外である場合には、増加しなくてもよい。重なった状態が継続している時間は、例えばタイマを用いて計測されてもよい。この所定範囲は、例えば訓練者が対象の状態を視認するのに必要な時間の範囲が用いられてもよい。例えばある程度の時間継続して対象を見ないと対象の状態を視認できない場合には、その時間が所定範囲として用いられてもよい。
The attention index value may increase, for example, when the line-of-sight position of the trainee and the position of the target overlap. Note that this “overlapping” state may include not only a completely matching state but also a partially overlapping state. Also, the attention index value may be increased when the line-of-sight position of the trainee overlaps with the target position and the distance measured by the
また、算出部103は、注目指標値に加えて、訓練者の位置の移動方向からの視線方向の変化量に基づいて、訓練者の周囲を確認する行動を評価する警戒指標値を算出してもよい。この警戒指標値は、例えば訓練者の周囲を確認する行動の習熟度を示す値である。警戒指標値には、例えば数字が用いられてもよい。この場合、警戒指標値が大きい程、評価が高いことを示してもよい。ただし、上述した注目指標値と同様に、警戒指標値は、必ずしも数字に限定されない。訓練者の位置の移動方向とは、仮想空間において訓練者の位置が移動する方向をいう。すなわち、移動方向は、訓練者の進行方向である。この移動方向には、訓練者の現在の位置から次の位置へと向かう方向が用いられてもよい。なお、以下の説明では、「訓練者の位置の移動」を単に「訓練者の移動」という場合がある。訓練者の視線方向は、例えば仮想空間における訓練者の位置から訓練者の視野の中心に向かう方向である。訓練者の移動方向からの視線方向の変化量には、例えば移動方向と視線方向とが成す角度が用いられてもよい。警戒指標値は、例えばこの変化量が大きい程、増加してもよい。
In addition to the attention index value, the
出力部104は、算出部103が算出した注目指標値を出力する。この注目指標値の出力は、例えば管理装置20に送信することにより実現されてもよい。注目指標値を出力するタイミングは、例えば動画が終了した後であってもよい。また、注目指標値とともに警戒指標値が出力されてもよい。
The
2.動作
図4は、仮想空間の一例を示す平面図である。この仮想空間では、巡回エリア40を巡回する業務の訓練が行われる。巡回エリア40には、灰皿41と、消火栓ランプ42と、非常口43と、AED44と、不審物45とが含まれる。これらは、いずれも巡回中に状態を確認すべき対象である。例えば灰皿41は、煙草の火が消えているかについて確認されるべきである。消火栓ランプ42は、点灯しているかについて確認されるべきである。非常口43は、その前に塞ぐようなものが置かれていないか及び誘導灯の点灯について確認されるべきである。AED44は、持ち出されていないか及びバッテリランプの点灯について確認されるべきである。不審物45は、その存在の有無について確認されるべきである。巡回エリア40においては、巡回経路Rが予め設定されている。仮想空間において、訓練者は巡回経路Rに沿って移動しながら巡回する業務を行う。訓練者の位置は、時間毎に予め設定されており、時間の経過に伴って巡回経路Rに沿って移動していく。
2. Operation FIG. 4 is a plan view showing an example of the virtual space. In this virtual space, work training for patrolling the
2.1.表示処理
図5は、表示装置10により実行される表示処理の一例を示すフローチャートである。この表示処理は、例えば表示装置10に表示の開始を指示する信号が入力されたときに開始される。この信号は、例えば操作部15を用いた操作により入力されてもよいし、管理装置20から送信されてもよい。
2.1. Display Processing FIG. 5 is a flowchart showing an example of display processing executed by the
ステップS11では、表示部16において、ストレージ13に記憶された動画データに基づいて、動画の再生が開始される。具体的には、動画データが示す動画に含まれる各パノラマ画像から訓練者の視野の範囲に対応する画角部分が抽出され、表示部16に順番に表示される。この動画は、巡回経路R上を移動する訓練者の視界を模している。そのため、動画では、巡回経路Rに沿ってカメラ視点の位置が自動的に移動していく。
In step S<b>11 , reproduction of moving images is started on the
図4に示す例では、初期状態においては、例えば動画に含まれるパノラマ画像から、訓練者が位置P0において移動方向D1を向いたときの視野V1に含まれる部分が抽出されて表示される。ここでは、視野の大きさを示す角度として左右80度を用いるものとする。この場合、視野V1は、移動方向D1に向かう視線に対して、図4中の時計回りに80度の角度を成す一端と、図4中の反時計回りに80度の角度を成す他端との間の範囲となる。なお、図4では、視野V1の奥行方向の距離が円弧の半径で示されているが、実際にはこの距離は無限であってもよい。訓練者の位置が移動すると、パノラマ画像において視野V1に含まれる部分が変化する。これに伴って、表示部16の表示が変更される。
In the example shown in FIG. 4, in the initial state, for example, a portion included in the field of view V1 when the trainee faces the moving direction D1 at the position P0 is extracted and displayed from the panorama image included in the moving image. Here, 80 degrees to the left and right are used as the angle indicating the size of the field of view. In this case, the visual field V1 has one end forming an angle of 80 degrees clockwise in FIG. 4 and the other end forming an angle of 80 degrees counterclockwise in FIG. range between In FIG. 4, the distance in the depth direction of the field of view V1 is indicated by the radius of the arc, but in reality this distance may be infinite. When the position of the trainee moves, the portion included in the field of view V1 in the panorama image changes. Along with this, the display on the
ステップS12では、センサ部18において、訓練者のコンテンツの視聴中の行動として頭部の動きが検出されたか否かが判定される。訓練者が頭を動かしていない場合、訓練者の頭部の動きが検出されないため、ステップS12の判定がNOになる。この場合、ステップS12の処理が繰り返される。一方、例えば図4に示すように、訓練者が頭部を図4中の反時計回りにα度回転させると、センサ部18において「反時計回り」という回転方向と「α度」という回転角度とが検出される。この場合、ステップS12の判定がYESになり、ステップS13に進む。
In step S12, it is determined whether or not the
ステップS13では、特定部101において、ステップS12において検出された頭部の動きに基づいて、訓練者の視野が特定される。図4に示すように、訓練者が頭部を図4中の反時計回りにα度回転させた場合、基準位置P1を中心に視野V1が反時計回りにα度回転移動される。そして、回転移動後の視野V2が特定される。
In step S13, the
ステップS14では、ステップS13において特定された視野に応じて、動画のカメラ視点の方向が変更される。図4に示すように、訓練者が頭部を図4中の反時計回りにα度回転させた場合、動画のカメラ視点の方向が視野V1に対応する方向から視野V2に対応する方向に変更される。このようにカメラ視点の方向が変更されると、動画に含まれるパノラマ画像から、回転移動後の視野V2に対応する部分が抽出されて表示される。 In step S14, the direction of the camera viewpoint of the moving image is changed according to the field of view specified in step S13. As shown in FIG. 4, when the trainee rotates the head counterclockwise by α degrees in FIG. 4, the direction of the video camera viewpoint changes from the direction corresponding to the visual field V1 to the direction corresponding to the visual field V2. be done. When the direction of the camera viewpoint is changed in this way, a portion corresponding to the field of view V2 after rotational movement is extracted from the panorama image included in the moving image and displayed.
ステップS15では、動画が終了したか否かが判定される。動画が最後まで再生されていない場合、ステップS15の判定がNOになり、処理はステップS12に戻る。一方、例えば動画が最後まで再生された場合には、ステップS15の判定がYESになり、処理が終了する。 In step S15, it is determined whether or not the moving image has ended. If the moving image has not been reproduced to the end, the determination in step S15 is NO, and the process returns to step S12. On the other hand, for example, when the moving image has been reproduced to the end, the determination in step S15 becomes YES, and the process ends.
2.2.周囲確認の評価処理
図6は、表示装置10により実行される周囲確認の評価処理の一例を示すフローチャートである。この評価処理は、例えば動画が再生されると開始される。
2.2. Evaluation Processing of Surrounding Confirmation FIG. 6 is a flowchart showing an example of evaluation processing of surrounding confirmation executed by the
ステップS21では、訓練者が仮想空間内を移動しているか否かが判定される。例えば仮想空間において訓練者の位置が変化していない場合には、ステップS21の判定がNOになる。この場合、ステップS21の処理が繰り返される。一方、動画において訓練者の位置が変化している場合には、ステップS21の判定がYESになる。この場合、処理はステップS22に進む。 In step S21, it is determined whether or not the trainee is moving within the virtual space. For example, if the position of the trainee has not changed in the virtual space, the determination in step S21 is NO. In this case, the process of step S21 is repeated. On the other hand, if the position of the trainee has changed in the moving image, the determination in step S21 is YES. In this case, the process proceeds to step S22.
ステップS22では、訓練者の移動方向D1からの視線方向D2の変化量に基づいて、警戒指標値を算出する。図4に示す例において、移動方向D1は、例えば訓練者の現在位置から巡回経路R上の次の位置に向かう方向である。視線方向D2は、例えば訓練者の現在位置から視野の中心に向かう方向である。移動方向D1からの視線方向D2の変化量には、移動方向D1と視線方向D2とが成す角度αが用いられる。そして、周囲確認を行ったか否かを判定する基準である第1の閾値、および、周囲確認を広範に行ったか否かを判定する基準である第2の閾値と角度αとの関係から警戒指標値を算出する。ここでは、第1の閾値が30度であり、第2の閾値が45度であるものとする。角度αが第1の閾値である30度より大きく第2の閾値である45度未満である場合には、周囲確認を行っているとして警戒指標値に1点が加算される。一方、角度αが第2の閾値である45度以上である場合には、広範に周囲確認を行っているとして警戒指標値に2点が加算される。なお、角度αが30度以下である場合には、周囲確認を行っていないとして警戒指標値は加算されない。このように、警戒指標値は、訓練者の移動方向D1からの視線方向D2の変化量が多い程、増加する。 In step S22, a caution index value is calculated based on the amount of change in the line-of-sight direction D2 from the movement direction D1 of the trainee. In the example shown in FIG. 4, the movement direction D1 is the direction from the trainee's current position to the next position on the patrol route R, for example. The line-of-sight direction D2 is, for example, the direction from the trainee's current position toward the center of the visual field. The angle α formed by the movement direction D1 and the line-of-sight direction D2 is used as the amount of change in the line-of-sight direction D2 from the movement direction D1. Then, the first threshold, which is the criterion for determining whether or not the surroundings have been confirmed, and the second threshold, which is the criterion for determining whether the surroundings have been extensively confirmed, and the relationship between the angle α and the warning index Calculate the value. Here, it is assumed that the first threshold is 30 degrees and the second threshold is 45 degrees. If the angle α is greater than the first threshold of 30 degrees and less than the second threshold of 45 degrees, one point is added to the warning index value assuming that the surroundings are being checked. On the other hand, when the angle α is equal to or greater than the second threshold value of 45 degrees, 2 points are added to the caution index value assuming that the surroundings are widely checked. When the angle α is 30 degrees or less, the warning index value is not added because the surroundings are not being checked. Thus, the caution index value increases as the amount of change in the line-of-sight direction D2 from the movement direction D1 of the trainee increases.
ステップS23では、ステップS22において算出された警戒指標値がストレージ13に記憶される。
At step S<b>23 , the warning index value calculated at step S<b>22 is stored in the
ステップS24では、上述したステップS15と同様に、動画が終了したか否かが判定される。動画が最後まで再生されていない場合、ステップS24の判定がNOになり、処理はステップS21に戻る。このようにして、動画が再生されている間、訓練者が移動中に周囲を確認する行動を行う度に、ストレージ13に記憶された注目指標値が加算される。一方、例えば動画が最後まで再生された場合には、ステップS24の判定がYESになり、ステップS25に進む。
In step S24, similarly to step S15 described above, it is determined whether or not the moving image has ended. If the moving image has not been reproduced to the end, the determination in step S24 is NO, and the process returns to step S21. In this way, the attention index value stored in the
ステップS25では、出力部104において、ストレージ13に記憶された警戒指標値が出力される。例えば訓練者のID(identification)とともに警戒指標値が出力部104から管理装置20に送信される。
In step S25, the warning index value stored in the
2.3.対象確認の評価処理
図7は、表示装置10により実行される対象確認の評価処理の一例を示すフローチャートである。この評価処理は、例えば動画が再生されると開始される。
2.3. Evaluation Processing for Object Confirmation FIG. 7 is a flowchart showing an example of evaluation processing for object confirmation executed by the
ステップS31では、訓練者の現在位置から一定範囲内に注目対象が存在するか否かが判定される。この一定範囲は、例えば訓練者が周囲を見回すことにより注目対象を見ることができるような距離の範囲である。図4に示す例において、訓練者の現在位置から一定範囲内に、灰皿41、消火栓ランプ42、非常口43、AED44、及び不審物45のいずれも存在しない場合には、ステップS31の判定がNOになる。この場合、ステップS31の処理を繰り返す。一方、例えば訓練者の現在位置が位置P1である場合には、位置P1から一定範囲内にAED44が存在する。この場合、ステップS31の判定がYESになり、処理はステップS32に進む。
In step S31, it is determined whether or not the attention target exists within a certain range from the current position of the trainee. This certain range is, for example, a range of distances in which the trainee can see the object of interest by looking around. In the example shown in FIG. 4, when none of the
ステップS32では、訓練者の現在位置から一定範囲内にある注目対象の位置が、注目位置に設定される。図4に示す例において、例えば訓練者の現在位置が位置P1である場合には、AED44の位置が注目位置に設定される。
In step S32, the position of the attention target within a certain range from the trainee's current position is set as the attention position. In the example shown in FIG. 4, for example, when the trainee's current position is position P1, the position of
ステップS33では、測定部102において、訓練者の現在位置から注目位置までの距離が測定される。図4に示す例において、例えば訓練者の現在位置が位置P1である場合には、この位置P1からAED44の位置までの距離L1が測定される。この距離は、訓練者の位置が変化する度に測定される。例えば訓練者が位置P2に移動すると、この位置P2からAED44の位置までの距離L2が測定される。
In step S33, the
ステップS34では、ステップS33において測定された距離と、訓練者の視線位置と注目位置との重なりの有無と、訓練者の視線位置と注目位置とが重なった状態が継続している時間とに基づいて、注目指標値が算出される。ここでは、所定距離が2m以内であり、所定範囲が1から5秒であるものとする。 In step S34, based on the distance measured in step S33, the presence or absence of overlap between the line-of-sight position of the trainee and the position of attention, and the time during which the line-of-sight position of the trainee and the position of attention continue to overlap. Then, the attention index value is calculated. Here, it is assumed that the predetermined distance is within 2 m and the predetermined range is 1 to 5 seconds.
図8は、表示部16に表示される動画50の一例を示す図である。上述したように、動画50は、訓練者の視野に含まれる部分を表す。図8に示す例では、視線位置E1は、訓練者の視野の中心である。上述した表示処理において説明したように、訓練者が頭部の向きを変えることにより、仮想空間において訓練者の視野に含まれる部分が変化し、動画50のカメラ視点の方向も変化する。
FIG. 8 is a diagram showing an example of a moving
図8(a)は、訓練者が位置P1に移動したときに、表示部16に表示される動画50の一例を示す図である。図8(a)に示す例では、訓練者の視野には、注目対象であるAED44が含まれる。しかし、訓練者の視線位置E1とAED44の領域とが重なっていない。この場合、注目指標値は加算されない。
FIG. 8(a) is a diagram showing an example of a moving
図8(b)は、訓練者が位置P1に移動したときに、表示部16に表示される動画50の別の例を示す図である。図8(b)に示す例では、訓練者の視野には、注目対象であるAED44が含まれる。また、訓練者の視線位置E1とAED44の領域とは重なっている。しかし、図4に示す訓練者の位置P1からAED44までの距離L1は4mであり、所定距離である2mより大きい。この場合、注目指標値は加算されない。
FIG. 8(b) is a diagram showing another example of the moving
図8(c)は、訓練者が位置P2に移動したときに、表示部16に表示される動画50の一例を示す図である。図8(c)に示す例では、訓練者の視野には、注目対象であるAED44が含まれる。また、視線位置E1とAED44の領域とは重なっている。さらに、図4に示す訓練者の位置P2からAED44までの距離L2は1mであり、所定距離の2m以内である。そして、視線位置E1とAED44の領域とが重なった状態が継続している時間は3秒であり、所定範囲である1から5秒に含まれる。この場合、注目指標値に2点が加算される。
FIG. 8(c) is a diagram showing an example of the moving
ステップS35では、ステップS34において算出された注目指標値がストレージ13に記憶される。
At step S<b>35 , the attention index value calculated at step S<b>34 is stored in the
ステップS36では、上述したステップS15と同様に、動画が終了したか否かが判定される。動画が最後まで再生されていない場合、ステップS36の判定がNOになり、処理はステップS31に戻る。このようにして、動画が再生されている間、訓練者が各注目対象の状態を確認する行動を行う度に、ストレージ13に記憶された注目指標値が加算される。そして、動画が最後まで再生された場合には、ステップS36の判定がYESになり、ステップS37に進む。
In step S36, similarly to step S15 described above, it is determined whether or not the moving image has ended. If the moving image has not been played to the end, the determination in step S36 is NO, and the process returns to step S31. In this way, the attention index value stored in the
ステップS37では、出力部104において、ストレージ13に記憶された注目指標値が出力される。例えば訓練者のIDと上述した警戒指標値とともに注目指標値が出力部104から管理装置20に送信されてもよい。管理装置20は、これらのID、注目指標値、及び警戒指標値を受信すると、例えば訓練者毎に警戒指標値及び注目指標値を表示する。このとき、警戒指標値及び注目指標値とともに、注目指標値と警戒指標値との合計が表示されてもよい。
In step S<b>37 , the
なお、上述した実施形態では、「センサ部18」、「ストレージ13」、「動画データ」、「注目指標値」、「警戒指標値」が、それぞれ本発明に係る「検出部」、「記憶部」、「視野画像」、「指標値」、「他の指標値」として用いられている。
In the above-described embodiment, the "
上述した実施形態によれば、対象の状態を確認する訓練者の行動に応じて注目指標値が算出されるため、仮想空間において行われる訓練において、対象の状態を確認する訓練者の行動を評価することができる。また、注目指標値が出力されるため、例えば訓練者の教官が対象の状態を確認する訓練者の行動の習熟度を客観的に把握することができる。また、訓練者の視線位置と注目対象の位置とが重なり、且つ、訓練者の位置から注目対象の位置までの距離が所定距離以内である場合、注目指標値が加算されるため、注目対象の状態を適切な距離から確認した訓練者を高く評価することができる。さらに、訓練者の視線位置と注目対象の位置とが重なり、且つ、訓練者の位置と注目対象の位置と重なった状態が継続している時間が所定範囲内である場合、注目指標値が加算されるため、注目対象の状態を適切な時間をかけて確認した訓練者を高く評価することができる。さらに、注目指標値に加えて警戒指標値が算出されるため、対象の状態を確認する訓練者の行動だけでなく、仮想空間の移動中に周囲を確認する訓練者の行動も評価することができる。 According to the above-described embodiment, the attention index value is calculated according to the behavior of the trainee who confirms the state of the target. can do. In addition, since the attention index value is output, for example, the instructor of the trainee can objectively grasp the proficiency level of the trainee's behavior for confirming the target state. Further, when the line-of-sight position of the trainee overlaps the position of the target of interest, and the distance from the position of the trainee to the position of the target of interest is within a predetermined distance, the attention index value is added. A trainee who confirms the condition from an appropriate distance can be highly evaluated. Furthermore, if the trainee's line-of-sight position and the position of the target of attention overlap and the time for which the trainee's position and the position of the target of attention continue to overlap is within a predetermined range, the attention index value is added. Therefore, it is possible to highly evaluate the trainee who has spent an appropriate amount of time confirming the state of the object of interest. Furthermore, since the warning index value is calculated in addition to the attention index value, it is possible to evaluate not only the behavior of the trainee who checks the state of the target, but also the behavior of the trainee who checks the surroundings while moving in the virtual space. can.
3.変形例
本発明は上述した実施形態に限定されない。上述した実施形態に対し、種々の変形がなされてもよい。また、以下の変形例が組み合わせて実施されてもよい。
3. Modifications The present invention is not limited to the embodiments described above. Various modifications may be made to the embodiments described above. Moreover, the following modifications may be combined and implemented.
上述した実施形態において、仮想空間に含まれる各対象に対して優先度が定められてもよい。ここでは、図4に示す例において、AED44には優先度「低」が、不審物45には優先度「高」が予め定められているものとする。なお、この優先度は、固定であってもよいし、対象の状況によって変化してもよい。例えば灰皿41の優先度として「低」が定められている場合であっても、灰皿41から煙が出ているときは、優先度が「高」になってもよい。算出部103は、複数の注目対象に対してそれぞれ定められた優先度と、訓練者の視線位置と複数の注目対象のそれぞれの位置とが重なった順番とに基づいて、注目指標値の増加量に重み付けを行ってもよい。注目指標値の増加量に重み付けを行う方法としては、例えば注目指標値に通常加算される値に対して重み係数(>1)を用いて重み付けを行ってもよい。これにより、通常の場合に比べて、指標値の増加幅が大きくなる。
In the embodiments described above, a priority may be set for each object included in the virtual space. Here, in the example shown in FIG. 4, it is assumed that the
図9は、この変形例において、訓練者が図4に示す位置P3に移動したときに、表示部16に表示される動画50の一例を示す図である。訓練者が位置P3において移動方向を向いている場合、動画50には、AED44及び不審物45が両方とも現れる。図9に示す例では、訓練者が頭の向きを変えることにより、優先度が「高」の不審物45の領域と視線位置E1とが重なった後に、優先度が「低」のAED44の領域と視線位置E1とが重なっている。すなわち、視線位置E1と複数の注目対象のそれぞれの領域とが、注目対象の優先度が高い順番に重なっている。また、図4に示す訓練者の位置P3からAED44までの距離L3と、訓練者の位置P3から不審物45までの距離L4とは、いずれも所定距離以内である。さらに、視線位置E1とAED44の領域とが重なった状態が継続している時間と、視線位置E1と不審物45の領域とが重なった状態が継続している時間とは、いずれも所定範囲内である。この場合、視線位置E1と不審物45の領域、視線位置E1とAED44の領域とが重なったときに、注目指標値に通常加算される2点+2点=4点に対して、重み係数である1.5を用いて重み付けが行われる。これにより、4点×1.5=6点が注目指標値に加算される。この変形例によれば、優先度に応じた順番で複数の注目対象の状態を確認すると、注目指標値に加算される点数が増えるため、このような順番で複数の注目対象の状態を確認した訓練者を他の訓練者よりも高く評価することができる。
FIG. 9 is a diagram showing an example of a moving
上述した実施形態において、所定距離は注目対象の種別に応じて異なってもよい。これは、注目対象の種別によって注目対象の状態を視認し得る距離が異なる場合があるためである。例えば注目対象の中には遠くからでもその状態を視認し得るものがある場合がある。この場合、ストレージ13には、図10に示すような対応テーブル131が記憶される。対応テーブル131には、対象の種別と、所定距離とが対応付けて記憶される。例えば、注目対象が非常口43である場合、対応テーブル131において非常口43の種別と対応付けて記憶された所定距離「5m以内」が用いられる。一方、注目対象が不審物45である場合、対応テーブル131において不審物45の種別と対応付けて記憶された所定距離「2m以内」が用いられる。この場合、注目対象が変わると、変更後の注目対象に対応する所定距離が選択され、選択された所定距離が用いられる。すなわち、所定距離は、注目対象の種別によって切り替えて用いられる。この変形例によれば、注目対象の種別に応じた距離から注目対象の状態を確認した訓練者を高く評価することができる。
In the above-described embodiments, the predetermined distance may differ according to the type of target of interest. This is because the distance at which the state of the target of interest can be visually recognized may differ depending on the type of the target of interest. For example, there may be objects of interest whose state can be visually recognized even from a distance. In this case, the
上述した実施形態において、所定範囲は注目対象の種別に応じて異なってもよい。これは、注目対象の種別によって注目対象の状態を視認するのに必要な時間が異なる場合があるためである。この場合、ストレージ13には、図11に示すような対応テーブル132が記憶される。対応テーブル132には、対象の種別と、所定範囲とが対応付けて記憶される。例えば、注目対象が灰皿41である場合、対応テーブル132において灰皿41の種別と対応付けて記憶された所定範囲「2から4秒」が用いられる。一方、注目対象が不審物45である場合、対応テーブル132において不審物45の種別と対応付けて記憶された所定範囲「3から5秒」が用いられる。この場合、注目対象が変わると、変更後の注目対象に対応する所定範囲が選択され、選択された所定範囲が用いられる。すなわち、所定範囲は、注目対象の種別によって切り替えて用いられる。また、この場合、訓練者の視線位置と注目対象の位置とが重なった状態が継続している時間が所定範囲より大きい場合には、この時間が所定範囲内であるときよりも小さい値が注目指標値に加算されてもよい。例えば、訓練者の視線位置E1と灰皿41の領域とが重なった状態が継続している時間が2から4秒以内である場合には、灰皿41の状況の確認が適切に行われているとして注目指標値に2点が加算される一方、この時間が4秒より大きい場合には、灰皿41の状況の確認は行われているが、手間取っているとして注目指標値に1点が加算されてもよい。また、この時間が2秒より小さい場合には、灰皿41の状況の確認が十分に行われていないとして注目指標値が加算されなくてもよい。
In the above-described embodiments, the predetermined range may differ according to the type of target of interest. This is because the time required to visually recognize the state of the target of interest may differ depending on the type of the target of interest. In this case, the
上述した実施形態において、注目対象の種別によって注目対象の状態を確認するときに注目対象を見る方向が定められていてもよい。例えば、灰皿41は、鉛直方向から確認した方が、煙草の火が消えているかを確認し易い。この場合、灰皿41の状態を確認する方向として、鉛直方向が定められてもよい。この場合、訓練者の視線位置と灰皿41の領域とが重なり、且つ、訓練者の視線方向が鉛直方向に沿っている場合には、注目指標値が加算されてもよい。すなわち、訓練者の視線位置と灰皿41の領域とが重なっても、訓練者の視線方向が鉛直方向以外の方向である場合には、訓練者の視線方向が鉛直方向の場合よりも小さい値が加算され、又は注目指標値が加算されなくてもよい。この視線方向には、例えば訓練者の目の位置から視野の中心に向かう方向が用いられてもよい。
In the above-described embodiment, the direction in which the target of interest is viewed when checking the state of the target of interest may be determined depending on the type of the target of interest. For example, if the
上述した実施形態において、訓練者の位置と注目対象の位置との間に障害物がある場合には、訓練者の視線位置と注目対象の位置とが重なる場合であっても、注目指標値が加算されなくてもよい。この障害物としては、例えば仮想空間に含まれる柱や壁等の物体であってもよいし、仮想空間に含まれる人間を模した動体であってもよい。また、訓練者の移動経路と物体の位置又は動体の移動経路とが予め定められている場合には、動画の再生時刻によって、訓練者の位置と注目対象の位置の間に障害物があることが分かる。この場合、訓練者の位置と注目対象の位置との間に障害物がある期間は、訓練者の視線位置と注目対象の位置とが重なる場合であっても、注目指標値が加算されなくてもよい。 In the above-described embodiment, when there is an obstacle between the position of the trainee and the position of the target of attention, the attention index value is It does not have to be added. The obstacle may be, for example, an object such as a pillar or a wall included in the virtual space, or a moving object that simulates a human being included in the virtual space. In addition, when the movement route of the trainee and the position of the object or the movement route of the moving object are predetermined, it is possible that there is an obstacle between the position of the trainee and the position of the target of attention depending on the playback time of the video. I understand. In this case, when there is an obstacle between the position of the trainee and the position of the target of attention, the attention index value is not added even when the line-of-sight position of the trainee overlaps the position of the target of attention. good too.
上述した実施形態において、注目対象の状態を確認する熟練者の行動を機械学習し、その結果を用いて注目指標値が算出されてもよい。この場合、熟練者が表示装置10を装着し、仮想空間において注目対象の状態を確認する行動を行う。熟練者は、1人であってもよいし、複数人であってもよい。続いて、各注目対象の状態を確認するときの熟練者の視線位置と、その注目対象の位置との関係を示す入力データを機械学習することにより、注目対象の状態を確認するときの視線位置と注目対象の位置との模範の位置関係を示す模範データが生成される。この模範データは、ストレージ13に記憶される。訓練者が仮想空間において訓練を行うと、訓練者の視線位置と注目対象の位置との位置関係と、ストレージ13に記憶された模範データが示す模範の位置関係との類似度が算出される。この類似度とは、似ている度合いを示す値をいう。この類似度が高い程、注目指標値が増加してもよい。なお、この変形例では、本発明にかかる「記憶部」として、ストレージ13が用いられている。この変形例によれば、注目対象の状態を確認するために、熟練者に近い行動を行った訓練者をより高く評価することができる。
In the above-described embodiment, machine learning may be performed on the behavior of an expert who confirms the state of the target of interest, and the attention index value may be calculated using the result. In this case, a skilled person wears the
上述した実施形態では、訓練者の視線位置と注目対象の位置とが重なった場合には、注目指標値が加算されていたが、この加算とともに又はこの加算に代えて、訓練者の視線位置と注目対象の位置とが重ならなかった場合には、注目指標値が減算されてもよい。例えば、視線位置E1とAED44の領域とが重ならなかった場合には、注目指標値から2点減算されてもよい。
In the above-described embodiment, when the line-of-sight position of the trainee and the position of the target of interest overlap, the attention index value is added. If the target position does not overlap, the target index value may be subtracted. For example, when the line-of-sight position E1 and the area of the
上述した実施形態において、注目指標値又は警戒指標値に重み付けが行われてもよい。例えば注目指標値を重視して評価したい場合には、注目指標値に対して重み係数(>1)を用いて重み付けが行われてもよい。 In the above-described embodiments, the attention index value or caution index value may be weighted. For example, if the attention index value is to be emphasized in the evaluation, the attention index value may be weighted using a weighting factor (>1).
上述した実施形態において、訓練者の位置から注目対象の位置までの距離に関する条件、又は訓練者の視線位置と注目対象の位置とが重なった状態が継続している時間に関する条件は、必ずしも用いられなくてもよい。例えば訓練者の視線位置と注目対象の位置とが重なると、この距離及び時間に拘らず、注目指標値が加算されてもよい。また、訓練者の視線位置と注目対象の位置とが重なり、且つ、訓練者の位置から注目対象の位置までの距離が所定距離以内である場合には、この時間に拘らず、注目指標値が加算されてもよい。さらに、訓練者の視線位置と注目対象の位置とが重なり、且つ、訓練者の視線位置と注目対象の位置とが重なった状態が継続している時間が所定範囲内である場合には、この距離に拘らず、注目指標値が加算されてもよい。 In the above-described embodiments, the condition regarding the distance from the position of the trainee to the position of the target of attention, or the condition regarding the time during which the line-of-sight position of the trainee and the position of the target of attention continue to overlap is not necessarily used. It doesn't have to be. For example, when the line-of-sight position of the trainee overlaps with the position of the target of attention, the attention index value may be added regardless of the distance and time. Further, when the line-of-sight position of the trainee and the position of the target of attention overlap and the distance from the position of the trainee to the position of the target of attention is within a predetermined distance, regardless of this time, the attention index value is may be added. Further, when the position of the line of sight of the trainee and the position of the target of attention overlap and the time during which the position of the line of sight of the trainee and the position of the target of attention continues to overlap is within a predetermined range, this The attention index value may be added regardless of the distance.
上述した実施形態において、警戒指標値は、訓練者の視線方向が移動方向から複数回変化したことに応じて得られる複数の変化量により視線方向が偏っていることが示される場合には、複数の変化量のうち少なくとも1つが反映されなくてもよい。例えば、この場合には、警戒指標値が加算されなくてもよい。また、警戒指標値は、訓練者の移動方向からの視線方向の変化量が第1の閾値(例えば30度)より大きい状態が第1の所定時間(例えば10秒)以上継続した場合には、減少してもよい。さらに、警戒指標値は、訓練者の移動方向からの視線方向の変化量が第1の閾値以下である状態が第2の所定時間(例えば30秒)以上継続した場合には、減少してもよい。さらに、仮想空間において監視すべき事象が発生する場合、警戒指標値は、その事象が発生したとき、訓練者の位置から事象が発生した他の位置へと向かう方向である注目方向と視線方向との差が所定量(例えば15度)以下にならない場合には、減少してもよい。さらに、仮想空間において特定の作業が行われる場合、訓練者の移動方向からの視線方向の変化量が第1の閾値より大きい状態となる期間に含まれる1の時刻と、特定の作業が行われる他の時刻との関係に応じて、警戒指標値の増加量に重み付けが行われてもよい。また、訓練者の移動方向からの視線方向の変化量は、これらの方向が成す角度に限定されず、移動方向上の1の点と視線方向上の他の点とを結んだ線の長さであってもよい。 In the above-described embodiment, the alert index value is set to a plurality of may not be reflected. For example, in this case, the alert index value may not be added. In addition, when the amount of change in the line-of-sight direction from the moving direction of the trainee continues for a first predetermined time (for example, 10 seconds) or longer, the alert index value is may decrease. Furthermore, the warning index value may decrease if the state in which the amount of change in the line-of-sight direction from the movement direction of the trainee is equal to or less than the first threshold continues for a second predetermined time (eg, 30 seconds) or longer. good. Furthermore, when an event to be monitored occurs in the virtual space, the warning index value is the attention direction and the line-of-sight direction, which are the directions from the position of the trainee to another position where the event occurred when the event occurred. may be decreased if the difference is not less than a predetermined amount (eg, 15 degrees). Furthermore, when a specific work is performed in the virtual space, one time included in the period in which the amount of change in the line-of-sight direction from the moving direction of the trainee is greater than the first threshold, and the specific work is performed. The amount of increase in the alert index value may be weighted according to the relationship with other times. Also, the amount of change in the line-of-sight direction from the movement direction of the trainee is not limited to the angle formed by these directions, but is the length of the line connecting one point on the movement direction and another point on the line-of-sight direction. may be
上述した実施形態において、注目対象の位置とは、注目対象がある所をいう。注目対象の位置は、注目対象全体の領域であってもよいし、注目対象の一部の領域であってもよいし、注目対象の領域に含まれる点であってもよい。また、注目指標値が加算される視線位置と注目対象の位置との関係は、これらの位置が重なった状態に限定されない。例えば、注目対象の位置から一定範囲内に視線位置が移動した場合には、注目指標値が加算されてもよい。 In the above-described embodiments, the position of the target of interest refers to where the target of interest is. The position of the target of attention may be the entire area of the target of attention, a partial area of the target of attention, or a point included in the area of the target of attention. Also, the relationship between the line-of-sight position to which the attention index value is added and the position of the attention target is not limited to a state in which these positions overlap. For example, when the line-of-sight position moves within a certain range from the position of the target of interest, the attention index value may be added.
上述した実施形態において、訓練者の視線位置は、視野の中心に限定されない。例えば表示装置10は、周知のアイトラッキング技術を用いて訓練者の視線を検出し、検出した視線の先の位置を視線位置として用いてもよい。これにより訓練者が頭部の向きを変えずに視線を変えて対象に注意を払う行動についても評価の対象となり、より実践的な訓練が行える。
In the embodiments described above, the trainee's line-of-sight position is not limited to the center of the visual field. For example, the
上述した実施形態において、周知のモーションキャプチャ技術を用いて訓練者の動作を検出してもよい。この場合、訓練者は、歩く動作を行うことにより、仮想空間内を移動してもよい。すなわち、訓練者の歩く動作に応じて、仮想空間における訓練者の位置が変化してもよい。他の例において、操作部15を用いた操作により、仮想空間内の訓練者の位置が変化してもよい。
In the embodiments described above, well-known motion capture techniques may be used to detect the trainee's movements. In this case, the trainee may move in the virtual space by performing a walking motion. That is, the trainee's position in the virtual space may change according to the trainee's walking motion. In another example, an operation using the
上述した実施形態において、表示部16は、画像を投影する装置であってもよい。例えば表示部16には、プロジェクター等の投射部及び画像が表示される表示面が用いられてもよいし、網膜に直接画像を投射する投射部が用いられてもよい。また、表示装置10は、ヘッドマウント型のウェアラブル端末に限定されない。例えば表示装置10は、眼鏡型のウェアラブル端末であってもよい。
In the embodiments described above, the
上述した実施形態において、動画データは管理装置20から表示装置10に送信されてもよい。この場合、例えば管理装置20からインターネット等の広域ネットワークを介して互いに異なる場所で使用される複数の表示装置10に動画データが配信されてもよい。
In the above-described embodiments, moving image data may be transmitted from the
上述した実施形態において、動画のコンテンツは、巡回業務の訓練に用いられるものに限定されない。動画のコンテンツは、訓練者が対象の状態を確認する行動の訓練に用いられるものであれば、どのようなコンテンツでもよい。 In the above-described embodiments, the content of the video is not limited to that used for patrol work training. The content of the video may be any content as long as it is used for the training of the action for the trainee to confirm the state of the object.
上述した実施形態において、管理装置20は必ずしも設けられなくてもよい。例えば表示装置10が単体で用いられてもよい。この場合、注目指標値及び警戒指標値は、例えば表示部16に表示されてもよい。
In the embodiments described above, the
上述した実施形態において、訓練システム1は、VRを利用した訓練だけでなく、AR(Augmented Reality)やMR(Mixed Reality)を利用した訓練に用いられてもよい。
In the above-described embodiment, the
上述した実施形態において、訓練システム1において行われる処理のステップは、上述した実施形態で説明した例に限定されない。この処理のステップは、矛盾のない限り、入れ替えられてもよい。本発明は訓練システム1において行われる処理のステップを備える方法として提供されてもよい。
In the above-described embodiments, the steps of processing performed in the
本発明は、表示装置10又は管理装置20において実行されるプログラムとして提供されてもよい。このプログラムは、インターネットなどの通信回線を介してダウンロードされてもよい。また、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどの、コンピュータが読取可能な記録媒体に記録した状態で提供されてもよい。
The present invention may be provided as a program executed by the
1:訓練システム、10:表示装置、11:プロセッサ、12:メモリ、13:ストレージ、14:通信部、15:操作部、16:表示部、17:音出力部、18:センサ部、101:特定部、102:測定部、103:算出部、104:出力部 1: training system, 10: display device, 11: processor, 12: memory, 13: storage, 14: communication unit, 15: operation unit, 16: display unit, 17: sound output unit, 18: sensor unit, 101: Identification unit, 102: measurement unit, 103: calculation unit, 104: output unit
Claims (10)
前記仮想空間における前記訓練者の位置からの視野画像を記憶する記憶部と、
実空間における前記訓練者の視野方向を検出する検出部と、
前記仮想空間における前記訓練者の位置と前記視野方向とに基づいて、前記仮想空間における前記訓練者の視野を特定する特定部と、
前記視野画像のうち前記視野に含まれる部分を表示する表示部と、
前記視野に含まれる視線位置と前記仮想空間に含まれる対象の位置との位置関係、及び前記仮想空間内を移動する前記訓練者の位置から前記対象の位置までの距離に基づいて、前記対象の状態を確認する前記訓練者の行動を評価する評価部と
を備える訓練システム。 A training system that evaluates a trainee's behavior in a virtual space,
a storage unit that stores a visual field image from the position of the trainee in the virtual space;
a detection unit that detects the visual field direction of the trainee in real space;
an identifying unit that identifies the visual field of the trainee in the virtual space based on the position and the visual field direction of the trainee in the virtual space;
a display unit that displays a portion included in the field of view in the field of view image;
Based on the positional relationship between the line-of-sight position included in the field of view and the position of the target included in the virtual space , and the distance from the position of the trainee moving in the virtual space to the position of the target, and an evaluator that evaluates the trainee's actions to ascertain conditions.
請求項1に記載の訓練システム。 The training system according to claim 1, wherein the evaluation unit calculates an index value as an evaluation of the behavior of the trainee, and increases the index value when the line-of-sight position and the target position overlap.
請求項2に記載の訓練システム。 When the line- of -sight position and the position of the target overlap and the distance from the position of the trainee in the virtual space at that time to the position of the target is within a predetermined distance, 3. The training system of claim 2, wherein the index value is increased.
請求項3に記載の訓練システム。 The training system according to claim 3, wherein the predetermined distance differs depending on the type of the target.
請求項2から4のいずれか1項に記載の訓練システム。 When the line-of-sight position and the position of the object overlap and the time period during which the line-of-sight position and the position of the object overlap is within a predetermined range, the evaluation unit determines whether the index 5. A training system according to any one of claims 2 to 4, which increases the value.
請求項5に記載の訓練システム。 The training system according to claim 5, wherein the predetermined range differs depending on the type of the object.
前記評価部は、前記複数の対象に対してそれぞれ定められた優先度と、前記視線位置と前記複数の対象のそれぞれの位置とが重なった順番とに基づいて、前記指標値の増加量に重み付けを行う
請求項2から6のいずれか1項に記載の訓練システム。 The virtual space includes a plurality of objects,
The evaluation unit weights the amount of increase in the index value based on the priority determined for each of the plurality of targets and the order in which the line-of-sight position overlaps the position of each of the plurality of targets. 7. The training system according to any one of claims 2-6 .
請求項1から7のいずれか1項に記載の訓練システム。 The evaluation unit further evaluates the behavior of checking the surroundings of the trainee based on the amount of change in the line-of-sight direction included in the visual field from the movement direction of the position of the trainee. 8. Training system according to any one of clause 7.
前記評価部は、前記位置関係と前記模範の位置関係との類似度に基づいて、前記訓練者の行動を評価する
請求項1から8のいずれか1項に記載の訓練システム。 Data indicating a model positional relationship between a line-of-sight position and a position of the object when confirming the state of the object, which is generated based on actions performed by an expert to confirm the condition of the object in the virtual space. further comprising a storage unit for storing
The training system according to any one of claims 1 to 8, wherein the evaluation unit evaluates the behavior of the trainee based on the degree of similarity between the positional relationship and the positional relationship of the model.
実空間における前記訓練者の視野方向を検出するステップと、
前記仮想空間における前記訓練者の位置と前記視野方向とに基づいて、前記仮想空間における前記訓練者の視野を特定するステップと、
記憶部に記憶された視野画像であって前記仮想空間における前記訓練者の位置からの前記視野画像のうち前記視野に含まれる部分を表示するステップと、
前記視野に含まれる視線位置と前記仮想空間に含まれる対象の位置との位置関係、及び前記仮想空間内を移動する前記訓練者の位置から前記対象の位置までの距離に基づいて、前記対象の状態を確認する前記訓練者の行動を評価するステップと
を実行させるためのプログラム。 A computer included in a training system that evaluates the behavior of a trainee in a virtual space,
detecting the trainee's viewing direction in real space;
identifying a visual field of the trainee in the virtual space based on the position and the visual field direction of the trainee in the virtual space;
a step of displaying a portion included in the field of view of the field of view image stored in a storage unit and viewed from the position of the trainee in the virtual space;
Based on the positional relationship between the line-of-sight position included in the field of view and the position of the target included in the virtual space , and the distance from the position of the trainee moving in the virtual space to the position of the target, a step of evaluating the behavior of the trainee to confirm the condition;
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018182698A JP7220043B2 (en) | 2018-09-27 | 2018-09-27 | training system and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018182698A JP7220043B2 (en) | 2018-09-27 | 2018-09-27 | training system and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020052290A JP2020052290A (en) | 2020-04-02 |
| JP7220043B2 true JP7220043B2 (en) | 2023-02-09 |
Family
ID=69996987
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018182698A Active JP7220043B2 (en) | 2018-09-27 | 2018-09-27 | training system and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7220043B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023162525A (en) * | 2022-04-27 | 2023-11-09 | 日本電気株式会社 | Simulation device, simulation method, and program |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7222387B2 (en) | 2020-10-13 | 2023-02-15 | 横河電機株式会社 | Apparatus, method and program |
| KR102807920B1 (en) * | 2022-09-27 | 2025-05-16 | 연세대학교 산학협력단 | Medical simulation apparatus for training and evaluation of healthcare workers and method for controlling the same |
Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004051059A (en) | 2002-07-24 | 2004-02-19 | Nissan Motor Co Ltd | Driver future situation prediction device |
| JP2007133692A (en) | 2005-11-10 | 2007-05-31 | Toyota Motor Corp | Driving behavior evaluation device |
| JP2009282704A (en) | 2008-05-21 | 2009-12-03 | Denso Corp | Information provision system for vehicle |
| JP2015116376A (en) | 2013-12-19 | 2015-06-25 | 株式会社デンソー | State estimation apparatus and state estimation program |
| US20160027336A1 (en) | 2012-04-23 | 2016-01-28 | The Boeing Company | Methods for Evaluating Human Performance in Aviation |
| JP2016511446A (en) | 2013-03-11 | 2016-04-14 | リンカーン グローバル,インコーポレイテッド | Import and analysis of external data using virtual reality welding system |
| JP2016080752A (en) | 2014-10-10 | 2016-05-16 | 学校法人早稲田大学 | Medical practice training suitability evaluation device |
| JP2017009717A (en) | 2015-06-19 | 2017-01-12 | 国立大学法人秋田大学 | Bicycle driving simulator |
| JP2017033126A (en) | 2015-07-30 | 2017-02-09 | いすゞ自動車株式会社 | Safe driving promotion device and safe driving promotion method |
| JP2019135505A (en) | 2018-02-05 | 2019-08-15 | 公益財団法人鉄道総合技術研究所 | Program and train operation simulator |
| JP2019204012A (en) | 2018-05-24 | 2019-11-28 | 東邦瓦斯株式会社 | Skill level determination system and skill level determination program |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07141095A (en) * | 1993-11-17 | 1995-06-02 | Matsushita Electric Ind Co Ltd | Training equipment |
-
2018
- 2018-09-27 JP JP2018182698A patent/JP7220043B2/en active Active
Patent Citations (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004051059A (en) | 2002-07-24 | 2004-02-19 | Nissan Motor Co Ltd | Driver future situation prediction device |
| JP2007133692A (en) | 2005-11-10 | 2007-05-31 | Toyota Motor Corp | Driving behavior evaluation device |
| JP2009282704A (en) | 2008-05-21 | 2009-12-03 | Denso Corp | Information provision system for vehicle |
| US20160027336A1 (en) | 2012-04-23 | 2016-01-28 | The Boeing Company | Methods for Evaluating Human Performance in Aviation |
| JP2016511446A (en) | 2013-03-11 | 2016-04-14 | リンカーン グローバル,インコーポレイテッド | Import and analysis of external data using virtual reality welding system |
| JP2015116376A (en) | 2013-12-19 | 2015-06-25 | 株式会社デンソー | State estimation apparatus and state estimation program |
| JP2016080752A (en) | 2014-10-10 | 2016-05-16 | 学校法人早稲田大学 | Medical practice training suitability evaluation device |
| JP2017009717A (en) | 2015-06-19 | 2017-01-12 | 国立大学法人秋田大学 | Bicycle driving simulator |
| JP2017033126A (en) | 2015-07-30 | 2017-02-09 | いすゞ自動車株式会社 | Safe driving promotion device and safe driving promotion method |
| JP2019135505A (en) | 2018-02-05 | 2019-08-15 | 公益財団法人鉄道総合技術研究所 | Program and train operation simulator |
| JP2019204012A (en) | 2018-05-24 | 2019-11-28 | 東邦瓦斯株式会社 | Skill level determination system and skill level determination program |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023162525A (en) * | 2022-04-27 | 2023-11-09 | 日本電気株式会社 | Simulation device, simulation method, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2020052290A (en) | 2020-04-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7220043B2 (en) | training system and program | |
| JP5580855B2 (en) | Obstacle avoidance device and obstacle avoidance method | |
| JP6340017B2 (en) | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time | |
| JP7322713B2 (en) | Information processing device, information processing method, and program | |
| WO2006137072A2 (en) | Wide area security system and method | |
| CN102686371A (en) | Danger presentation device,danger presentation system,danger presentation method, and program | |
| KR101906002B1 (en) | Multi sides booth system for virtual reality and the thereof | |
| JP3715219B2 (en) | Virtual field training device | |
| US20230237921A1 (en) | Mixed Reality Content Generation | |
| US10582190B2 (en) | Virtual training system | |
| JP2025061520A (en) | Information processing device, user guide presentation method, and head-mounted display | |
| US11314082B2 (en) | Motion signal generation | |
| CN110320994B (en) | Early warning method of augmented reality glasses based on game field | |
| JP2001084375A (en) | Operation verification system and non-contact manipulation system | |
| KR20210127860A (en) | Virtual Reality (VR) Martial Arts Training System | |
| JP6522092B1 (en) | Display system and display method | |
| JP6904723B2 (en) | Monitoring system | |
| JP7220042B2 (en) | training system and program | |
| JP7000397B2 (en) | Virtual reality control system | |
| WO2021215246A1 (en) | Image processing device, image processing method, and program | |
| JP7768221B2 (en) | Information processing device, information processing method, and program | |
| JP2018116684A (en) | Communication method through virtual space, program causing computer to execute method, and information processing device to execute program | |
| WO2012026681A9 (en) | Virtual reality martial arts system using a network, and method for controlling same | |
| CN108898779A (en) | A kind of fire alarm method and system | |
| US20190108614A1 (en) | Adaptation of presentation speed |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210830 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220624 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220916 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230130 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7220043 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |