JP2017062565A - Support apparatus and support method - Google Patents
Support apparatus and support method Download PDFInfo
- Publication number
- JP2017062565A JP2017062565A JP2015186649A JP2015186649A JP2017062565A JP 2017062565 A JP2017062565 A JP 2017062565A JP 2015186649 A JP2015186649 A JP 2015186649A JP 2015186649 A JP2015186649 A JP 2015186649A JP 2017062565 A JP2017062565 A JP 2017062565A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- support
- line
- brain activity
- movement amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】高精度に操作機器をサポートすることが可能なサポート装置及びサポート方法を提供する。【解決手段】運転者の脳活動を解析する脳活動解析部12と、運転者の視線を解析する視線解析部11と、脳活動解析部12で解析された運転者の脳活動、視線解析部11で解析さた運転者の視線移動量、及び、運転行動データベース25に記憶されている運転者の過去の運転行動に基づいて、運転者の操作意図を検出する運転意図検出部13とを備える。更に、運転意図検出部13で、運転者の操作意図が有ることが検出された際に、この運転行動についてのサポート指令を出力する環境判断制御部27を有する。このような構成により、車両等の操作機器をサポートすることが可能となる。【選択図】 図1A support device and a support method capable of supporting an operating device with high accuracy are provided. A brain activity analysis unit for analyzing a driver's brain activity, a gaze analysis unit for analyzing a driver's gaze, and a driver's brain activity and gaze analysis unit analyzed by the brain activity analysis unit. And a driving intention detection unit 13 that detects the driver's operation intention based on the driver's line-of-sight movement amount analyzed in 11 and the driver's past driving behavior stored in the driving behavior database 25. . Furthermore, when the driving intention detection unit 13 detects that the driver has an operation intention, the driving intention detection unit 13 includes an environment determination control unit 27 that outputs a support command for the driving behavior. With such a configuration, it is possible to support an operating device such as a vehicle. [Selection] Figure 1
Description
本発明は、車両やゲーム機、工場設備等の操作機器の操作をサポートするサポート装置、及びサポート方法に関する。 The present invention relates to a support device and a support method for supporting operation of an operation device such as a vehicle, a game machine, or factory equipment.
車両運転者の運転操作をサポートするサポート装置として、例えば特許文献1に記載されたものが知られている。該特許文献1には、車両がカーブ路に進入する際に、この車両の運転者の過去の運転傾向に基づいて、危険となり得る領域を検出することで、適切な危険判断を行うことが開示されている。 As a support device that supports the driving operation of a vehicle driver, for example, one described in Patent Document 1 is known. The patent document 1 discloses that when a vehicle enters a curved road, an appropriate risk judgment is made by detecting a region that can be dangerous based on the past driving tendency of the driver of the vehicle. Has been.
しかしながら、上述した特許文献1に開示された従来例は、車両の走行履歴に基づいてカーブ路の危険判断を行うので、高精度に操作環境の認識をサポートできないという問題があった。 However, the conventional example disclosed in Patent Document 1 described above has a problem that it cannot support recognition of the operating environment with high accuracy because it makes a risk judgment on a curved road based on the travel history of the vehicle.
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、高精度に操作環境の認識をサポートすることが可能なサポート装置及びサポート方法を提供することにある。 The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a support device and a support method capable of supporting recognition of an operation environment with high accuracy. There is.
上記目的を達成するため、本発明に係るサポート装置の一態様は、対象者の脳活動を解析する脳活動解析部と、対象者の視線を解析する視線解析部を備える。また、対象者の脳活動、対象者の視線移動量、及び、対象者の過去の操作行動に基づいて、対象者の操作意図を検出する操作意図検出部を備える。更に、操作意図検出部で、対象者に操作意図が有ることが検出された際に、操作行動についてのサポート指令を出力するサポート制御部を備える。 In order to achieve the above object, an aspect of the support device according to the present invention includes a brain activity analysis unit that analyzes a subject's brain activity and a gaze analysis unit that analyzes the subject's gaze. In addition, an operation intention detection unit that detects an operation intention of the subject based on the subject's brain activity, the subject's line-of-sight movement amount, and the subject's past operation behavior is provided. Furthermore, the operation intention detection unit includes a support control unit that outputs a support command for an operation action when it is detected that the subject has an operation intention.
また、本発明に係るサポート方法の一態様は、対象者の脳活動を解析する工程と、対象者の視線を解析する工程と、対象者の脳活動、対象者の視線移動量、及び、対象者の過去の操作行動に基づいて、対象者の操作意図を検出する。更に、対象者に操作意図が有ることが検出された際に、操作行動についてのサポート指令を出力する。 Also, one aspect of the support method according to the present invention includes a step of analyzing a subject's brain activity, a step of analyzing the subject's gaze, a subject's brain activity, a gaze movement amount of the subject, and a subject The operation intention of the target person is detected based on the past operation behavior of the person. Further, when it is detected that the subject has an operation intention, a support command for the operation action is output.
本発明によれば、対象者の脳活動、及び視線移動量に基づいて対象者の操作意図を検出するので、高精度に操作環境の認識をサポートすることが可能となる。 According to the present invention, since the operation intention of the subject is detected based on the subject's brain activity and the amount of eye movement, it is possible to support recognition of the operation environment with high accuracy.
以下、本発明の実施形態を図面に基づいて説明する。図1は、本発明の実施形態に係るサポート装置、及びその周辺機器の構成を示すブロック図である。本実施形態では、操作機器として車両を例に挙げ、該車両を運転する運転者(対象者)の運転操作をサポートする場合について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of a support device and peripheral devices according to an embodiment of the present invention. In the present embodiment, a vehicle is taken as an example of the operation device, and a case where a driving operation of a driver (target person) driving the vehicle is supported will be described.
図1に示すように、サポート装置100は、視線解析部11と、脳活動解析部12と、運転意図検出部13、及び環境判断制御部27(サポート制御部)を備えている。
As shown in FIG. 1, the
なお、サポート装置100は、例えば中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶手段からなる一体型のコンピュータとして構成することができる。
Note that the
視線解析部11は、視線移動検出部21、及び視線移動量データベース22(視線移動量記憶部)に接続されている。また、脳活動解析部12は、脳活動検出部23、及び脳活動データベース24(脳活動データ記憶部)に接続され、運転意図検出部13は、周囲環境検出部26、及び運転行動データベース25(操作行動データ記憶部)に接続されている。
The line-of-
視線移動検出部21は、運転者の眼球の動作を検出し、該運転者の視線移動を検出する。例えば、車両の適所に配設されたカメラで運転者の眼球を撮像し、撮像して得られた画像から眼球の動的な情報を取得する。そして、所定時間での眼球の動きに基づいて、運転者の視線移動量(所定時間当たりの視線移動量)を検出し、この視線移動量のデータを視線解析部11に出力する。また、この視線移動量のデータは、視線移動量データベース22に出力される。
The line-of-sight
視線移動量データベース22は、車両の運転者毎に視線移動量を記憶する。具体的には、視線移動検出部21で検出された運転者の視線移動量(これを、Snとする)を取得し、取得した視線移動量のデータを累積的に記憶する。
The line-of-sight movement amount
視線解析部11は、視線移動検出部21で検出される視線移動量と、この運転者の過去の視線移動量から、視線移動量の平均値(視線移動量平均値)を演算し、この平均値と、検出された視線移動量との差分から、運転者の視線が大きく移動しているか否かを判断する。
The line-of-
脳活動検出部23は、運転者の脳波を検出する。具体的には、運転者の頭部に専用のプローブを装着し、該プローブで検出される脳波を取得する。そして、取得した脳波から、視覚処理深度(Visual Processing Depth;以下、VPnで示す)を求める。「視覚処理深度」とは、運転者の視野に存在する物体や状況を認識している度合いを定量的に示す数値であり、脳波に基づき運転者の脳内の視覚野の働きを検出することにより、認識することができる。なお、本実施形態では、脳活動の一例として「脳波」より得られる「視覚処理深度」を例に挙げて説明するが、例えば「NIRS」等を用いて脳活動を検出することも可能である。
The brain
脳活動データベース24は、運転者の脳波に関するデータを累積的に記憶する。即ち、脳活動検出部23で検出された視覚処理深度に関するデータを累積的に記憶する。
The
脳活動解析部12は、脳活動データベース24に記憶されている、各運転者の視覚処理深度の平均値(視覚処理平均値)を演算する。そして、脳活動検出部23にてある運転者についての視覚処理深度のデータが取得された場合には、このデータと、この運転者についての視覚処理深度の平均値との差分を求める。そして、この差分に基づいてこの運転者の視覚処理深度の大小を判断する。
The brain
運転行動データベース25は、各運転者の過去の運転行動データ(操作行動データ)を累積的に記憶する。例えば、ある運転者が頻繁に利用する走行路を走行しているときに、どの位置で車線変更したか、或いは、どの交差点で右折、左折したか、等の運転行動データを記憶する。
The
周囲環境検出部26は、車両周囲の周囲環境を検出する。具体的には、車両に設置されたカメラ(図示省略)で撮像された車外画像に基づき、車両の近傍を走行する他車両、及びその他の障害物を検出する。そして、周囲環境に関する情報を取得し、周囲環境データとして運転意図検出部13に出力する。
The ambient
運転意図検出部13は、運転者の視線移動量、視覚処理深度、運転者の過去の運転行動、及び周囲環境、の各データに基づいて、この運転者の注意度合(これを、A1とする)を演算し、この注意度合A1に基づいて、運転者の操作意図を検出する。換言すれば、運転者が将来にどのような行動をとるかを予測する。そして、操作意図に関するデータを環境判断制御部27に出力する。
The driving
環境判断制御部27は、運転意図検出部13にて、運転者の運転行動に対するサポート処理を実行する際に、後段のサポート機器にサポート指令を出力する。例えば、運転者が車線変更をすることが運転意図検出部13で検出された場合、即ち、運転行動についての操作意図が有ることが検出された場合には、図示省略の画像表示部(サポート機器)に、車両の周囲画像を表示させるための指令を出力する。即ち、操作行動についてのサポート指令を出力する。
The environment
以下、本実施形態に係るサポート装置100の具体的な処理手順を、図2に示すフローチャートを参照して説明する。いま、車両が図3に示すように、片側二車線の走行路X1の右車線を走行しており、数秒後に左側の車線に車線変更する場合について説明する。
Hereinafter, a specific processing procedure of the
初めに、図2のステップS11において、運転意図検出部13は、運転者の視線移動量Snを取得する。その後、ステップS12において、この運転者の視線移動量の平均値Sb(視線移動量平均値)との差分「Sn−Sb」(第2差分)を演算する。
First, in step S11 of FIG. 2, the driving
運転者が車線変更する場合には、実際に車線変更する直前に、左右を注意深く見渡すようになる。即ち、視線移動検出部21で検出される視線移動量Snが大きくなる。従って、視線移動量Snと、視線移動量データベース22に記憶されている、この運転者の視線移動量の平均値Sbとの差分「Sn−Sb」が大きくなる。
When the driver changes lanes, he / she carefully looks to the left and right just before actually changing lanes. That is, the line-of-sight movement amount Sn detected by the line-of-sight
次いで、ステップS13において、運転意図検出部13は、視覚処理深度VPnを取得する。その後、ステップS14において、この運転者の視覚処理深度の平均値VPb(視覚処理平均値)との差分「VPn−VPb」(第1差分)を演算する。車線変更時には、脳活動検出部23で検出される脳波から取得される視覚処理深度VPnが大きくなる。
Next, in step S13, the driving
上述したように、「視覚処理深度」とは、運転者の視野に含まれる物体や状況を認識している度合いを示している。つまり、運転者の視線が任意の物体にあるからといって、この物体を注視しているとは限らない。視野内の物体や状況を漫然として見ている場合(注視していない場合)には、視覚処理深度は小さい。反対に、視野内の物体や状況を集中して見ている場合には、視覚処理深度は大きい。車線変更の場合には、運転者は周囲に存在する他車両や障害物を注視しているので、視覚処理深度VPnは大きくなる。このため、視覚処理深度VPnと、視覚処理深度の平均値VPbとの差分「VPn−VPb」が大きくなる。 As described above, the “visual processing depth” indicates the degree of recognition of an object or situation included in the driver's visual field. In other words, just because the driver's line of sight is on an arbitrary object does not necessarily mean that the object is being watched. The visual processing depth is small when an object or situation in the field of view is viewed loosely (when not gazing). On the other hand, when an object or situation in the field of view is concentrated, the visual processing depth is large. In the case of a lane change, since the driver is gazing at other vehicles and obstacles existing around, the visual processing depth VPn is increased. For this reason, the difference “VPn−VPb” between the visual processing depth VPn and the average value VPb of the visual processing depth increases.
ステップS15において、運転意図検出部13は、上述した差分「Sn−Sb」と「VPn−VPb」の乗算値を注意度合A1として求める。即ち、下記の(1)式により、注意度合A1を演算する。
A1=(Sn−Sb)*(VPn−VPb) …(1)
In step S15, the driving
A1 = (Sn−Sb) * (VPn−VPb) (1)
そして、運転意図検出部13は、上記の(1)式で演算された注意度合A1と、後述の処理で設定される閾値Lth(所定閾値)とを比較し、注意度合A1が閾値Lthを上回った場合に、この旨を環境判断制御部27に出力する。該環境判断制御部27は、サポート処理を実行させるためのサポート指令信号を出力する。本実施形態では、サポート処理の一例として、運転者が車線変更(操作行動)すると推定された場合に、推定された時点よりも早い時点で、車線変更に必要な周囲画像を車載のディスプレイ(図示省略)等に拡大表示する。
Then, the driving
ステップS16〜S22では、運転者の行動履歴の有無、及び行動実行の可能性の判断結果に基づいて、上記の閾値Lthを適切な数値に設定する。ここでは、行動履歴として運転者が過去に車線変更したことがあるか否かの履歴を採用し、行動実行の可能性として、車両の周囲に存在する他車両の多寡を例に挙げて説明する。 In steps S16 to S22, the threshold value Lth is set to an appropriate value based on the presence / absence of the driver's action history and the determination result of the possibility of action execution. Here, the history of whether or not the driver has changed lanes in the past is adopted as the action history, and the possibility of action execution will be described by taking the number of other vehicles around the vehicle as an example. .
ステップS16において、運転意図検出部13は、行動履歴が有るか否かを判断する。この処理では、車両が現在走行している走行路において、過去に車線変更した履歴が有るか否かを判断する。この処理は、図1に示す運転行動データベース25に記憶されているデータに基づいて判断することができる。そして、履歴が有る場合にはステップS17に処理を進め、履歴が無い場合にはステップS18に処理を進める。
In step S16, the driving
ステップS17において、運転意図検出部13は、行動実行の可能性が有るか否かを判断する。具体的には、車両の周囲に多くの他車両が存在するか否かを判断し、他車両が少ない場合には、行動実行が可能である、即ち、車線変更が可能であると判断する。そして、行動実行が可能であると判断された場合には(ステップS17でYES)、ステップS20において、閾値Lthを第1閾値Lth1に設定する。一方、行動実行が可能でないと判断された場合には(ステップS17でNO)、ステップS19において、閾値Lthを第2閾値Lth2(但し、Lth2>Lth1)に設定する。
In step S <b> 17, the driving
一方、ステップS18において、運転意図検出部13は、行動実行の可能性が有るか否かを判断する。この処理は、前述したステップS17の処理と同様である。行動実行が可能であると判断された場合には(ステップS18でYES)、ステップS21において、閾値Lthを第3閾値Lth3に設定する。一方、行動実行が可能でないと判断された場合には(ステップS18でNO)、ステップS22において、閾値Lthを第4閾値Lth4に設定する。ここで、各閾値は、Lth4>Lth3>Lth2>Lth1なる関係を有する。
On the other hand, in step S18, the driving
上述したステップS16〜S22の処理をまとめると、下記(A)〜(D)に示す通りである。
(A)行動履歴が有り、且つ行動実行が可能である場合には、閾値Lthを最も低い数値である「Lth1」に設定する。過去に運転者がその地点で頻繁に車線変更しており、更に、周囲を走行する他車両が少ない場合には、運転者は現在の走行地点の近傍で車線変更する可能性が高いと判断されるので、閾値Lthを低い数値である第1閾値Lth1に設定する。つまり、車線変更の意図有りと判断され易くなるように、閾値Lthを設定する。
The processing of steps S16 to S22 described above is summarized as shown in the following (A) to (D).
(A) When there is an action history and action execution is possible, the threshold value Lth is set to “Lth1” which is the lowest numerical value. If the driver has frequently changed lanes at that point in the past, and there are few other vehicles traveling around, it is determined that the driver is likely to change lanes near the current driving point. Therefore, the threshold value Lth is set to the first threshold value Lth1, which is a low numerical value. That is, the threshold value Lth is set so that it is easy to determine that there is an intention to change lanes.
(B)行動履歴が有り、且つ行動実行が可能でない場合には、閾値Lthを二番目に低い数値である第2閾値Lth2に設定する。過去に運転者がその地点で頻繁に車線変更しており、更に、周囲に多くの他車両が走行している場合には、閾値Lthを第1閾値Lth1よりも高い第2閾値Lth2に設定する。 (B) When there is an action history and action execution is not possible, the threshold value Lth is set to the second threshold value Lth2, which is the second lowest numerical value. In the past, when the driver has frequently changed lanes at that point, and when many other vehicles are traveling around, the threshold Lth is set to the second threshold Lth2 higher than the first threshold Lth1. .
(C)行動履歴が無く、且つ行動実行が可能である場合には、閾値Lthを三番目に低い数値である第3閾値Lth3に設定する。過去に運転者がその地点で車線変更した履歴が無く、更に、周囲を走行する他車両が少ない場合には、閾値Lthを第2閾値Lth2よりも高い第3閾値Lth3に設定する。 (C) If there is no action history and action execution is possible, the threshold value Lth is set to the third threshold value Lth3, which is the third lowest value. If there is no history that the driver has changed lanes at that point in the past and there are few other vehicles traveling around, the threshold Lth is set to a third threshold Lth3 that is higher than the second threshold Lth2.
(D)行動履歴が無く、且つ行動実行が可能でない場合には、閾値Lthを最も高い数値である第4閾値Lth4に設定する。過去に運転者がその地点で車線変更した履歴が無く、更に、周囲を走行する他車両が多い場合には、運転者は現在の地点の近傍で車線変更する可能性は低いと判断される。従って、閾値Lthを第3閾値Lth3よりも高い第4閾値Lth4に設定する。 (D) If there is no action history and action execution is not possible, the threshold value Lth is set to the fourth threshold value Lth4 which is the highest numerical value. If there is no history that the driver has changed lanes at that point in the past, and there are many other vehicles traveling around, it is determined that the driver is unlikely to change lanes near the current point. Therefore, the threshold value Lth is set to a fourth threshold value Lth4 that is higher than the third threshold value Lth3.
このように、注意度合A1の大きさを判断するための閾値Lthを、運転者の行動履歴の有無、及び行動実行可能性に基づいて設定しているので、過去の運転行動、及び周囲環境に応じた適切な閾値Lthを設定することが可能となる。 Thus, since the threshold value Lth for judging the magnitude of the attention degree A1 is set based on the presence / absence of the driver's behavior history and the action feasibility, the past driving behavior and the surrounding environment An appropriate threshold value Lth can be set accordingly.
次いで、図2のステップS23において、運転意図検出部13は、上記の(1)式で演算された注意度合A1と、ステップS19〜S22の各処理で設定された閾値Lthとを比較する。そして、注意度合A1が閾値Lthを上回った場合には(ステップS23でYES)、ステップS24において、運転者は行動の意図(この例では、車線変更の意図)があるものと判断する。そして、行動の意図が有ると判断した場合には、環境判断制御部27に、その旨を示す情報を出力する。そして、ステップS25において、環境判断制御部27は、サポート指令信号を出力する。その結果、例えば車両の左右の映像を車内に搭載したディスプレイに拡大表示する、等のサポート処理が実行される。よって、運転者は、車両の左右の状況をより詳しく認識することができ、車線変更に役立てることができる。
Next, in step S23 of FIG. 2, the driving
ステップS26において、運転意図検出部13は、行動が完了したか否かを判断する。具体的には、車線変更が終了したか否かを判断する。この処理は、例えば、短期間のオドメトリを検出することにより、車両が道路上の仕切り線(白線等)を跨いだことを認識することにより、車線変更が終了したことを検出できる。また、GPSデータを用いることにより、車線変更の終了を検出することも可能である。
In step S26, the driving
そして、車線変更が完了した場合には、ステップS27において、サポート指令の出力を終了する。一方、ステップS23の処理で注意度合A1が閾値Lthを上回らない場合には、ステップS11からの処理を繰り返す。 If the lane change is completed, the output of the support command is terminated in step S27. On the other hand, if the attention level A1 does not exceed the threshold Lth in the process of step S23, the process from step S11 is repeated.
このように、本実施形態では、運転者の脳活動、及び、視線移動量に基づいて、運転者の注意度合A1を演算し、この注意度合A1が予め設定した閾値Lthを上回った際に、サポート処理を実行する。即ち、車線変更しようとする運転者は、周囲の状況を確認するので視線移動量Snが大きくなり、且つ、視覚処理深度VPnが大きくなっている。そして、これらに基づいて運転者が車線変更する前の好適なタイミングで、サポート処理を実行することが可能となる。この際、運転者は、何らの操作入力を行う必要がないので、運転者に煩わしさを感じさせることなくサポート処理を実行することができる。 As described above, in the present embodiment, the driver's attention level A1 is calculated based on the driver's brain activity and the amount of eye movement, and when the attention level A1 exceeds a preset threshold value Lth, Perform support processing. That is, since the driver who wants to change the lane confirms the surrounding situation, the line-of-sight movement amount Sn is large, and the visual processing depth VPn is large. And based on these, it becomes possible to perform a support process in the suitable timing before a driver | operator changes a lane. At this time, since the driver does not need to perform any operation input, the support process can be executed without making the driver feel bothered.
次に、サポート処理を実行するタイミングを設定する処理について説明する。上記の処理により、車線変更の意図が検出され、例えば、5秒後に車線変更動作が実行されると推定された場合には、推定された時刻よりも所定時間だけ前の時点(例えば、5秒前の時点)でサポート処理を実行することが可能である。しかし、サポート処理を必要とするタイミングは、運転者毎に異なる。例えば、運転者が初心者である場合には、早めのサポート処理を必要とし、運転者が熟練者である場合には、早めにサポート処理が実行されると却って煩わしさを感じてしまう。具体的には、車線変更のサポート処理として、車両の周囲画像を拡大してディスプレイ(図示省略)等に表示する処理を実行すると、熟練者にとってはこのような画像表示が早めに表示されると違和感を感じることがある。 Next, a process for setting the timing for executing the support process will be described. By the above processing, the intention of changing the lane is detected. For example, when it is estimated that the lane changing operation is executed after 5 seconds, a time point that is a predetermined time before the estimated time (for example, 5 seconds) Support processing can be executed at the previous time). However, the timing at which the support process is required is different for each driver. For example, if the driver is a beginner, early support processing is required, and if the driver is an expert, if the support processing is executed early, it will be bothersome. Specifically, when a process for enlarging a surrounding image of a vehicle and displaying it on a display (not shown) or the like is executed as support processing for changing lanes, such an image display is displayed early for a skilled person. You may feel uncomfortable.
本実施形態では、各運転者毎に車線を変更すると推定される時刻の、どの程度前の時点で視線移動が増大しているか測定し、この視線移動の度合いに基づいて、各運転者にとって違和感を感じることの無いサポート処理を実行するタイミングを設定する。そして、このデータを視線移動量データベース22に記憶する。以下、具体的に説明する。
In the present embodiment, it is measured how far before the estimated time when the lane is changed for each driver, and the movement of the line of sight increases. Based on the degree of the line of sight movement, each driver feels uncomfortable. Set the timing to execute the support process without feeling. Then, this data is stored in the line-of-sight
図4は、二人の運転者M1、M2に対して、視線移動量を測定したときの、視線移動の優位度を示すグラフである。図4(a)は運転者M1についての優位度データを示し、図4(b)は運転者M2についての優位度データを示している。図4(a)、(b)に示すグラフの縦軸は車線変更が実行される時刻を「0」としたときの、測定スタート時刻を示し、横軸は、測定終了時刻を示している。そして、図中に示す「+」印は優位度の大きさを示している。詳細には、「+」印の個数が多いほど優位度が高いことを示している。 FIG. 4 is a graph showing the dominance of line-of-sight movement when the line-of-sight movement amount is measured for two drivers M1 and M2. FIG. 4A shows the superiority data for the driver M1, and FIG. 4B shows the superiority data for the driver M2. 4A and 4B, the vertical axis indicates the measurement start time when the time when the lane change is executed is “0”, and the horizontal axis indicates the measurement end time. And the "+" mark shown in a figure has shown the magnitude | size of superiority. More specifically, the greater the number of “+” marks, the higher the superiority.
そして、図4(a)に示す運転者M1の場合には、車線変更を開始する時刻の6秒前から、車線変更実行後の2秒後までの時間帯(符号Q1参照)において、視線移動の優位度が高まっていることが理解される。即ち、この運転者M1にとっては、車線変更を実行すると推定される時刻の、6秒程度前の時点でサポート処理を実行し、車線変更を開始してから2秒後にサポート処理を終了するのが好適であると判断される。 In the case of the driver M1 shown in FIG. 4A, the line-of-sight movement is performed in a time period (see reference numeral Q1) from 6 seconds before the lane change start time to 2 seconds after the lane change execution. It is understood that the superiority of is increasing. That is, for the driver M1, the support process is executed about 6 seconds before the estimated time when the lane change is executed, and the support process is finished 2 seconds after the start of the lane change. It is determined that it is preferable.
一方、図4(b)に示す運転者M2の場合には、車線変更を開始する時刻の2秒前から、車線変更実行後の2秒後までの時間帯(符号Q2参照)において、視線移動の優位度が高まっていることが理解される。即ち、この運転者M2にとっては、車線変更を実行すると推定される時刻の、2秒程度前の時点でサポート処理を実行し、車線変更を開始してから2秒後にサポート処理を終了するのが好適であると判断される。 On the other hand, in the case of the driver M2 shown in FIG. 4B, the line-of-sight movement is performed in a time zone (see reference sign Q2) from 2 seconds before the lane change start time to 2 seconds after the lane change execution. It is understood that the superiority of is increasing. That is, for the driver M2, the support process is executed about 2 seconds before the time when the lane change is estimated to be executed, and the support process is finished 2 seconds after the lane change is started. It is determined that it is preferable.
本実施形態では、このデータを考慮して、サポート処理の開始時刻、及び終了時刻を設定する。こうすることにより、運転が未熟な初心者に対し早い時点でのサポート処理を行うことにより、運転者に安心感を与えることができる。また、熟練度の高い運転者には早い時点でサポート処理を実行することによる煩わしさを回避することができる。 In the present embodiment, the start time and end time of the support process are set in consideration of this data. By doing so, it is possible to give the driver a sense of security by performing support processing at an early point for a beginner who is immature in driving. Further, it is possible to avoid annoyance caused by executing the support process at an early point for a highly skilled driver.
上記の内容を図3を参照して説明する。図3に示す地点Z1〜Z6の領域L3は、運転者が過去に車線変更した地点を示している。そして、車両V1が走行路X1を走行しており、地点Z4にて車線変更すると推定された場合に、熟練度の高い運転者にとっては、車両V1が地点Z4よりも若干手前である地点Z3に達した時点で周囲画像を表示すれば良い。更に、地点Z4で車線変更を実行した後、地点Z5に達した時点で周囲画像の表示を終了させる。即ち、領域L2で周囲画像が表示されることになる。 The above contents will be described with reference to FIG. A region L3 of points Z1 to Z6 shown in FIG. 3 indicates points where the driver has changed lanes in the past. Then, when it is estimated that the vehicle V1 is traveling on the travel route X1 and the lane is changed at the point Z4, the vehicle V1 is located at a point Z3 slightly ahead of the point Z4 for a highly skilled driver. When it reaches, the surrounding image may be displayed. Further, after the lane change is executed at the point Z4, the display of the surrounding image is ended when the point Z5 is reached. That is, the surrounding image is displayed in the region L2.
また、運転者が初心者の場合には、地点Z3よりも手前の地点Z2にて周囲画像を表示する。即ち、領域L1で周囲画像が表示されることになる。この場合、実際に車線変更が実施される地点よりも長距離手前の時点で周囲画像が表示されるので、運転者に安心感を与えることができる。 When the driver is a beginner, the surrounding image is displayed at a point Z2 before the point Z3. That is, the surrounding image is displayed in the region L1. In this case, since the surrounding image is displayed at a point a long distance before the point where the lane change is actually performed, it is possible to give the driver a sense of security.
一方、本実施形態を採用しない従来の方法では、運転者の意図を検出しないので、例えば、過去の運転履歴に基づいて、サポート処理を実行することになる。このため、例えば、車線変更の履歴が領域L3であった場合には、車両V1が領域L3を走行している間に、周囲画像を表示することになる。従って、本実施形態を採用する場合では、不要な領域において周囲画像の表示が省略されるので、運転者に煩わしさを感じさせることが無くなる。 On the other hand, in the conventional method that does not employ this embodiment, the driver's intention is not detected, and therefore, for example, the support process is executed based on the past driving history. For this reason, for example, when the history of the lane change is the region L3, the surrounding image is displayed while the vehicle V1 is traveling in the region L3. Therefore, when the present embodiment is adopted, the display of the surrounding image is omitted in an unnecessary area, so that the driver does not feel bothered.
このようにして、本実施形態に係るサポート装置100では、運転者の脳活動、及び視線を解析し、これらの解析結果、及び、運転者の過去の操作行動に基づいて、運転者の操作意図、即ち、車線変更の意図を検出している。従って、車線変更が行われる前の時点で運転操作に関するサポート処理を実行することが可能となる。つまり、運転者が実際に車線変更の操作を行う前の時点で、車線変更するタイミングを推定し、車線変更操作が行われる前の時点で、周囲画像を拡大表示する等の処理を実行することができるので、運転者による車線変更の操作を容易に行うことができるように設定することが可能となる。
In this way, the
また、運転者の脳活動として、運転者の視覚処理深度を解析し、この解析結果に基づいて運転者による車線変更の意図を検出している。従って、運転者が周囲を注意深く認識している度合いに基づいて運転者による車線変更の意図を検出するので、より高精度な操作環境の認識のサポート処理を実行することが可能となる。 Further, as the driver's brain activity, the visual processing depth of the driver is analyzed, and the intention of the driver to change the lane is detected based on the analysis result. Therefore, since the driver's intention to change lanes is detected based on the degree of careful recognition of the surroundings, it is possible to execute a support process for recognition of the operating environment with higher accuracy.
更に、運転者の視覚処理深度の平均値である視覚処理平均値(VPb)を演算し、更に、この運転者について取得された視覚処理深度(VPn)と、視覚処理平均値(VPb)との差分である第1差分を演算し、この第1差分に基づいて、取得した視覚処理深度を解析している。従って、運転者の通常時における視覚処理深度との対比に基づく解析が可能となるので、より運転者個人の特質に適合した操作意図の検出が可能となる。 Furthermore, the visual processing average value (VPb) which is the average value of the visual processing depth of the driver is calculated, and further, the visual processing depth (VPn) acquired for the driver and the visual processing average value (VPb). A first difference that is a difference is calculated, and the acquired visual processing depth is analyzed based on the first difference. Therefore, the analysis based on the comparison with the visual processing depth of the driver at the normal time becomes possible, so that it is possible to detect the operation intention more suitable for the characteristics of the individual driver.
また、運転者の視線解析として、所定時間当たりの視線移動量を取得し、この視線移動量に基づいて、運転者による車線変更の意図を検出している。従って、運転者が視線移動しながら周囲を認識している度合いに基づいて運転者による車線変更の意図を検出するので、より高精度な操作環境の認識のサポート処理を実行することが可能となる。 Further, as the driver's line-of-sight analysis, a line-of-sight movement amount per predetermined time is acquired, and the intention of the driver to change the lane is detected based on the line-of-sight movement amount. Therefore, since the driver's intention to change lanes is detected based on the degree of recognition of the surroundings while moving the line of sight, it is possible to execute support processing for recognition of the operation environment with higher accuracy. .
更に、運転者の視線移動量平均値Sbを演算し、更に、この運転者について取得された視線移動量Snと、視線移動量平均値Sbとの差分である第2差分を演算し、この第2差分に基づいて、取得した視線移動量を解析している。従って、運転者の通常時における視線移動量との対比に基づく解析が可能となるので、より運転者個人の特質に適合した操作意図の検出が可能となる。 Further, the driver's eye movement amount average value Sb is calculated, and further, a second difference that is a difference between the eye movement amount Sn acquired for the driver and the eye movement amount average value Sb is calculated. Based on the two differences, the acquired eye movement amount is analyzed. Therefore, the analysis based on the comparison with the amount of movement of the driver's line of sight in the normal time becomes possible, so that it is possible to detect the operation intention more suitable for the characteristics of the individual driver.
また、上記した第1差分と第2差分を乗算して、運転者の注意度合A1を演算し、この注意度合A1が所定閾値を上回った場合に、サポート処理を実行する。従って、運転者がサポートを必要としているときに、適切にサポート処理を実行することが可能となる。 Also, the driver's attention level A1 is calculated by multiplying the first difference and the second difference, and the support process is executed when the attention level A1 exceeds a predetermined threshold value. Therefore, when the driver needs support, the support process can be appropriately executed.
更に、運転者の過去の操作行動を運転行動データベース25から取得し、この操作行動データに基づいて、所定閾値を変更している。従って、運転者の過去の操作行動に適合した所定閾値の設定が可能となり、サポート処理の実行の可否を高精度に決定することが可能となる。
Further, the driver's past operation behavior is acquired from the driving
また、周囲環境検出部26より、車両周囲の周囲環境データを取得し、この周囲環境データに基づいて、所定閾値を変更している。従って、周囲の環境、例えば、他車両の多寡に応じた所定閾値の設定が可能となり、サポート処理の実行の可否を高精度に決定することが可能となる。
In addition, ambient environment data around the vehicle is acquired from the ambient
更に、運転者の過去における操作行動データを取得できない場合で、注意度合A1が所定閾値Lthよりも大きい場合には、サポート指令を出力するので、サポートが必要なときに、サポート処理が実行されないという問題の発生を回避することができる。 Further, when the driver's past operation behavior data cannot be acquired and the attention degree A1 is larger than the predetermined threshold Lth, a support command is output, so that support processing is not executed when support is required. The occurrence of problems can be avoided.
また、運転者の過去の操作行動から、該運転者が必要とするサポート時間を演算している。そして、運転者が車線変更を開始すると推定される時点から、上記のサポート時間だけ前の時点で、サポート処理を開始する。その結果、運転者の運転技能に適したタイミングでサポート処理を実行することが可能となる。即ち、初心者には早めにサポート処理が実行されるので安心感を与えることができ、熟練者には不要なサポート処理を割愛することにより、煩わしさを感じさせることを防止できる。 Further, the support time required by the driver is calculated from the past operation behavior of the driver. Then, the support process is started at a time point before the above support time from the time point when the driver is assumed to start the lane change. As a result, the support process can be executed at a timing suitable for the driving skill of the driver. That is, since the support process is executed early for beginners, it is possible to give a sense of security, and by omitting unnecessary support processes for the skilled person, it is possible to prevent annoyance from being felt.
また、上述した実施形態では、操作行動として車両が車線変更する場合の動作を例に挙げて説明したが、例えば、車両が交差点を右折、左折する場合の動作についても採用することができる。具体的には、運転意図検出部13にて、運転者が次の交差点を左折すると推定される場合には、車両の左側の画像を拡大して表示することにより、運転者による左折操作をサポートすることができる。
In the above-described embodiment, the operation when the vehicle changes lanes as the operation behavior has been described as an example. However, for example, the operation when the vehicle turns right or left at the intersection can also be employed. Specifically, when it is estimated by the driving
即ち、車両を運転する運転者に対してサポート処理を実行するので、運転者が車線変更する場合、或いは、右折、左折する場合に、周囲画像が表示することができ周囲の視認性が向上し、運転操作を円滑に実行させることが可能となる。 That is, since the support process is executed for the driver who drives the vehicle, the surrounding image can be displayed when the driver changes lanes, or when the driver turns right or left, and the surrounding visibility is improved. The driving operation can be executed smoothly.
[変形例の説明]
上述した実施形態では、操作機器として、車両を例に挙げて説明した。しかし、本発明は、車両に限定されるものではなく、他の操作機器に適用することも可能である。具体的には、遊技者(対象者)がゲーム機を操作する場合や、工場の作業者が製造ラインで流れ作業を行う場合に適用することが可能である。
[Description of modification]
In the above-described embodiment, the vehicle has been described as an example of the operation device. However, the present invention is not limited to a vehicle, and can be applied to other operating devices. Specifically, the present invention can be applied when a player (target person) operates a game machine or when a factory worker performs a flow work on a production line.
例えば、ゲーム機の場合には、遊技者がゲーム機を操作してゲームを実行する場合、該遊技者の頭部に脳波検出用のプローブを装着する。更に、遊技者の眼球の動きをカメラ等を用いて検出する。そして、該遊技者がゲームを実行している際に、この遊技者の視線移動量、及び、視覚処理深度を検出する。そして、これらの情報から、遊技者がゲーム機を実行する際の難易度を認識することができる。例えば、視線の移動量が小さく、且つ視覚処理深度が小さい場合には、この遊技者は、ゲームの内容に難しさを感じていないものと推定される。 For example, in the case of a game machine, when a player operates the game machine to execute a game, a brain wave detection probe is attached to the player's head. Further, the movement of the player's eyeball is detected using a camera or the like. Then, when the player is playing the game, the player's line-of-sight movement amount and visual processing depth are detected. And from these information, the difficulty level at the time of a player performing a game machine can be recognized. For example, when the movement amount of the line of sight is small and the visual processing depth is small, it is estimated that the player does not feel difficulty in the content of the game.
このような場合には、この注意度合のデータをゲーム機側に送信し、ゲームの難易度を高めることも可能である。これとは反対に、遊技者の視線の移動量が大きく、且つ視覚処理深度が大きい場合には、この遊技者はゲームの内容に難しさを感じているものと推定できる。このような場合には、ゲームの難易度を低下させる。 In such a case, it is also possible to increase the difficulty level of the game by transmitting this attention degree data to the game machine side. On the other hand, if the movement amount of the player's line of sight is large and the visual processing depth is large, it can be estimated that the player feels difficulty in the content of the game. In such a case, the difficulty level of the game is reduced.
即ち、サポート制御部は、操作意図検出部にて、遊技者(対象者)による操作意図が有ることが検出された場合には、操作行動についてのサポート指令を出力する。更に、脳活動解析部で解析された脳活動、及び視線解析部で解析された視線移動量のうちの少なくとも一方に基づいて、ゲーム機の難易度を変更する。つまり、遊技者が現在ゲーム機を操作して実施しているゲームに感じる難易度が、難しいか或いは簡単であるかを、検出できるので、これに合わせてゲームの難易度を変更する。即ち、遊技者の遊技のレベルに合わせた難易度に設定することができる。その結果、遊技者に対して、ゲームを実行しようとする意欲を高めることができ、より楽しみながらゲームを実行させることが可能となる。 That is, the support control unit outputs a support command for an operation action when the operation intention detection unit detects that the player (target person) has an operation intention. Further, the difficulty level of the game machine is changed based on at least one of the brain activity analyzed by the brain activity analysis unit and the gaze movement amount analyzed by the gaze analysis unit. That is, since it is possible to detect whether the difficulty level felt by the game that the player is currently operating by operating the game machine is difficult or simple, the difficulty level of the game is changed accordingly. That is, the difficulty level can be set according to the player's game level. As a result, it is possible to increase the player's willingness to execute the game, and to execute the game while having more fun.
また、本発明に係るサポート装置では、物品を製造する製造装置で、物品の加工を操作する作業者(対象者)に対してサポート処理を実行することも可能である。作業者の視線移動量、及び視覚処理深度を検出し、これらの情報に基づいて、作業を実行する際の負担の大きさを認識できる。そして、作業者の視線移動量、及び視覚処理深度が大きい場合には、加工処理の速度が速いものと判断し、加工処理の速度を低下させることができる。反対に、作業者の視線移動量、及び視覚処理深度が小さい場合には、加工速度をより速い速度に変更する。 In the support device according to the present invention, it is also possible to execute support processing for an operator (target person) who operates the processing of the article by the manufacturing apparatus for manufacturing the article. It is possible to detect the movement amount of the worker's line of sight and the visual processing depth, and to recognize the magnitude of the burden when performing the work based on the information. And when an operator's eyes | visual_axis movement amount and visual processing depth are large, it judges that the speed of a processing process is quick and can reduce the speed of a processing process. On the other hand, when the movement amount of the operator's line of sight and the visual processing depth are small, the processing speed is changed to a higher speed.
即ち、サポート制御部は、操作意図検出部にて、対象者による操作意図が有ることが検出された場合には、操作行動についてのサポート指令を出力する。更に、脳活動解析部で解析された脳活動、及び視線解析部で解析された視線移動量のうちの少なくとも一方に基づいて、製造装置での物品の加工速度を変更する。 That is, the support control unit outputs a support command for the operation action when the operation intention detection unit detects that the operation intention by the subject is present. Further, the processing speed of the article in the manufacturing apparatus is changed based on at least one of the brain activity analyzed by the brain activity analysis unit and the gaze movement amount analyzed by the gaze analysis unit.
このように、作業者の視線移動量、視覚処理深度を測定することにより、該作業者による作業の容易性を認識することができるので、流れ作業の速度を変更することにより、より作業者の能力に適した流れ速度を設定でき、作業効率を向上させることが可能となる。 Thus, by measuring the worker's line-of-sight movement amount and visual processing depth, it is possible to recognize the ease of work by the worker, so by changing the speed of the flow work, It is possible to set a flow velocity suitable for the capacity and improve work efficiency.
以上、本発明のサポート装置、及びサポート方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。 The support device and the support method of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary configuration having the same function. Can be replaced.
11 視線解析部
12 脳活動解析部
13 運転意図検出部
21 視線移動検出部
22 視線移動量データベース
23 脳活動検出部
24 脳活動データベース
25 運転行動データベース
26 周囲環境検出部
27 環境判断制御部(サポート制御部)
100 サポート装置
DESCRIPTION OF
100 Support equipment
Claims (15)
前記対象者の脳活動を解析する脳活動解析部と、
前記対象者の視線を解析する視線解析部と、
前記脳活動解析部で解析された前記対象者の脳活動、前記視線解析部で解析された前記対象者の視線移動量、及び、前記対象者の過去の操作行動に基づいて、前記対象者の操作意図を検出する操作意図検出部と、
前記操作意図検出部で、前記対象者の操作意図が有ることが検出された際に、前記操作行動についてのサポート指令を出力するサポート制御部と、
を備えたことを特徴とするサポート装置。 In the support device that supports the operation of the operating device by the target person,
A brain activity analysis unit for analyzing the brain activity of the subject;
A line-of-sight analysis unit for analyzing the line of sight of the subject;
Based on the subject's brain activity analyzed by the brain activity analysis unit, the gaze movement amount of the subject analyzed by the gaze analysis unit, and past operation behavior of the subject, An operation intention detection unit for detecting an operation intention;
A support control unit that outputs a support command for the operation behavior when the operation intention detection unit detects that the target person has an operation intention;
A support device comprising:
を特徴とする請求項1に記載のサポート装置。 The brain activity analysis unit analyzes the visual processing depth of the target person based on the brain activity of the target person, and the operation intention detection unit determines the operation intention of the target person based on the analysis result of the visual processing depth. The support device according to claim 1, wherein the support device is detected.
前記脳活動解析部は、前記脳活動データ記憶部に記憶されているデータから前記対象者の視覚処理深度の平均値である視覚処理平均値を演算し、更に、この対象者の視覚処理深度が取得された際には、取得された視覚処理深度と、前記視覚処理平均値との差分である第1差分に基づいて、視覚処理深度を解析すること
を特徴とする請求項2に記載のサポート装置。 A brain activity data storage unit for storing data relating to the visual processing depth of the subject;
The brain activity analysis unit calculates a visual processing average value that is an average value of the visual processing depth of the subject from the data stored in the brain activity data storage unit, and further, the visual processing depth of the subject is calculated. The support according to claim 2, wherein when acquired, the visual processing depth is analyzed based on a first difference that is a difference between the acquired visual processing depth and the average value of the visual processing. apparatus.
を特徴とする請求項1〜3のいずれか1項に記載のサポート装置。 The gaze analysis unit acquires a gaze movement amount per predetermined time of the subject, and the operation intention detection unit detects the operation intention of the subject based on the gaze movement amount. The support apparatus of any one of 1-3.
前記視線解析部は、前記視線移動量記憶部に記憶されたデータから前記対象者の視線移動量の平均値である視線移動量平均値を演算し、更に、この対象者の視線移動量が取得された際には、取得された視線移動量と、前記視線移動量平均値との差分である第2差分に基づいて、前記対象者の視線を解析すること
を特徴とする請求項4に記載のサポート装置。 A visual line movement amount storage unit for storing the visual line movement amount of the subject,
The line-of-sight analysis unit calculates an average line-of-sight movement amount that is an average value of the line-of-sight movement amount of the subject from the data stored in the line-of-sight movement storage unit, and further obtains the amount of line-of-sight movement of the subject 5. The line of sight of the subject is analyzed based on a second difference that is a difference between the acquired line-of-sight movement amount and the average line-of-sight movement amount. Support device.
前記脳活動解析部は、前記脳活動データ記憶部に記憶されているデータから前記対象者の視覚処理深度の平均値である視覚処理平均値を演算し、更に、この対象者の視覚処理深度が取得された際には、取得された視覚処理深度と、前記視覚処理平均値との差分である第1差分を演算し、
且つ、
前記視線解析部は、前記視線移動量記憶部に記憶されたデータから前記対象者の視線移動量の平均値である視線移動量平均値を演算し、更に、この対象者の視線移動量が取得された際には、取得された視線移動量と、前記視線移動量平均値との差分である第2差分を演算し、
前記操作意図検出部は、前記第1差分と第2差分から得られる注意度合が、予め設定した所定閾値よりも大きい場合に、対象者による操作意図が有るものと判断すること
を特徴とする請求項1〜5のいずれか1項に記載のサポート装置。 A brain activity data storage unit that stores data related to the visual processing depth of the subject, and a gaze movement amount storage unit that stores the gaze movement amount of the subject,
The brain activity analysis unit calculates a visual processing average value that is an average value of the visual processing depth of the subject from the data stored in the brain activity data storage unit, and further, the visual processing depth of the subject is calculated. When acquired, a first difference that is a difference between the acquired visual processing depth and the average value of the visual processing is calculated,
and,
The line-of-sight analysis unit calculates an average line-of-sight movement amount that is an average value of the line-of-sight movement amount of the subject from the data stored in the line-of-sight movement storage unit, and further obtains the amount of line-of-sight movement of the subject When this is done, a second difference that is a difference between the acquired line-of-sight movement amount and the average line-of-sight movement amount is calculated,
The operation intention detection unit determines that there is an operation intention by a target person when a degree of attention obtained from the first difference and the second difference is larger than a predetermined threshold value set in advance. Item 6. The support device according to any one of Items 1 to 5.
を特徴とする請求項6に記載のサポート装置。 The support device according to claim 6, wherein the operation intention detection unit acquires operation behavior data of the subject in the past and changes the predetermined threshold based on the operation behavior data.
を特徴とする請求項6に記載のサポート装置。 The support device according to claim 6, wherein the operation intention detection unit acquires ambient environment data, and changes the predetermined threshold based on the ambient environment data.
を特徴とする請求項6〜8のいずれか1項に記載のサポート装置。 The said support control part outputs the said support instruction | indication, when the said operation degree data cannot be acquired in the past of the said subject and the said attention level is larger than the said predetermined threshold value. 9. The support device according to any one of 8 above.
前記操作意図検出部は、前記操作行動データ記憶部に記憶されている対象者の過去の操作行動に基づいて、該対象者が必要とするサポート時間を演算し、
前記サポート制御部は、対象者が操作を開始すると推定される時点から、前記サポート時間だけ前の時点で、前記サポート指令を出力すること
を特徴とする請求項1〜9のいずれか1項に記載のサポート装置。 An operation behavior data storage unit that stores past operation behavior of the subject is further provided,
The operation intention detection unit calculates a support time required by the subject based on the past operation behavior of the subject stored in the operation behavior data storage unit,
The said support control part outputs the said support instruction | indication in the time before the said support time from the time estimated that a subject person starts operation, The any one of Claims 1-9 characterized by the above-mentioned. The support device described.
前記サポート制御部は、前記操作意図検出部にて、前記対象者による操作意図が有ることが検出された場合には、操作行動についてのサポート指令を出力すると共に、
前記脳活動解析部で解析された脳活動、及び前記視線解析部で解析された視線移動量のうちの少なくとも一方に基づいて、前記ゲーム機の難易度を変更すること
を特徴とする請求項1〜10のいずれか1項に記載のサポート装置。 The operating device is a game machine,
The support control unit, when the operation intention detection unit detects that there is an operation intention by the subject, outputs a support command for the operation action,
The difficulty level of the game machine is changed based on at least one of the brain activity analyzed by the brain activity analysis unit and the gaze movement amount analyzed by the gaze analysis unit. The support device according to any one of 10 to 10.
前記サポート制御部は、前記操作意図検出部にて、前記対象者による操作意図が有ることが検出された場合には、操作行動についてのサポート指令を出力すると共に、
前記脳活動解析部で解析された脳活動、及び前記視線解析部で解析された視線移動量のうちの少なくとも一方に基づいて、製造装置での物品の加工速度を変更すること
を特徴とする請求項1〜10のいずれか1項に記載のサポート装置。 The operating device is a manufacturing apparatus that manufactures an article, and the target person is an operator who operates the processing of the article in the manufacturing apparatus,
The support control unit, when the operation intention detection unit detects that there is an operation intention by the subject, outputs a support command for the operation action,
The processing speed of the article in the manufacturing apparatus is changed based on at least one of the brain activity analyzed by the brain activity analysis unit and the line-of-sight movement amount analyzed by the line-of-sight analysis unit. Item 11. The support device according to any one of Items 1 to 10.
前記対象者の脳活動を解析する工程と、
前記対象者の視線を解析する工程と、
前記対象者の脳活動、前記対象者の視線移動量、及び、前記対象者の過去の操作行動に基づいて、前記対象者の操作意図を検出する工程と、
前記対象者の操作意図が有ることが検出された際に、前記操作行動についてのサポート指令を出力する工程と、
を備えたことを特徴とするサポート方法。 In the support method that supports the operation of the operation device by the target person,
Analyzing the brain activity of the subject;
Analyzing the line of sight of the subject;
Detecting the operation intention of the subject based on the brain activity of the subject, the amount of eye movement of the subject, and the past operation behavior of the subject;
A step of outputting a support command for the operation action when it is detected that the target person has an operation intention;
A support method characterized by comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015186649A JP6582799B2 (en) | 2015-09-24 | 2015-09-24 | Support apparatus and support method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015186649A JP6582799B2 (en) | 2015-09-24 | 2015-09-24 | Support apparatus and support method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017062565A true JP2017062565A (en) | 2017-03-30 |
| JP6582799B2 JP6582799B2 (en) | 2019-10-02 |
Family
ID=58428837
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015186649A Active JP6582799B2 (en) | 2015-09-24 | 2015-09-24 | Support apparatus and support method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6582799B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102053794B1 (en) * | 2018-08-09 | 2019-12-09 | 연세대학교원주산학협력단 | Apparatus and method for delivering driver's movement intention based on bio-signals |
| JP2023125182A (en) * | 2022-02-28 | 2023-09-07 | パイオニア株式会社 | Information processing device, information processing method, program and recording medium |
Citations (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0764709A (en) * | 1993-08-26 | 1995-03-10 | Olympus Optical Co Ltd | Instruction processor |
| JPH10108913A (en) * | 1996-08-09 | 1998-04-28 | Asahi Denshi Kenkyusho:Kk | Therapeutic point stimulating apparatus |
| JP2000131599A (en) * | 1998-10-26 | 2000-05-12 | Canon Inc | Apparatus and camera having gaze selection function |
| JP2002236096A (en) * | 2001-02-08 | 2002-08-23 | Hitachi Ltd | Optical topography device and data generation device |
| JP2002331849A (en) * | 2001-05-07 | 2002-11-19 | Nissan Motor Co Ltd | Driving behavior intention detection device |
| JP2004102769A (en) * | 2002-09-11 | 2004-04-02 | Mitsubishi Heavy Ind Ltd | Plant monitoring control device and plant monitoring control method |
| JP2005022810A (en) * | 2003-07-01 | 2005-01-27 | Toyobo Co Ltd | Roll drive control device |
| JP2005222325A (en) * | 2004-02-05 | 2005-08-18 | Toyota Motor Corp | Vehicle driving support device |
| JP2008068665A (en) * | 2006-09-12 | 2008-03-27 | Fujitsu Ten Ltd | Vehicle control apparatus and vehicle control method |
| JP2008120288A (en) * | 2006-11-14 | 2008-05-29 | Aisin Aw Co Ltd | Driving assistance device |
| JP2010019708A (en) * | 2008-07-11 | 2010-01-28 | Hitachi Ltd | On-board system |
| JP2011159217A (en) * | 2010-02-03 | 2011-08-18 | Fuji Heavy Ind Ltd | Confirmation action support device |
| JP2012053656A (en) * | 2010-09-01 | 2012-03-15 | National Institute Of Advanced Industrial & Technology | Communication support device and method |
| JP2012122447A (en) * | 2010-12-10 | 2012-06-28 | Toyota Motor Corp | Start control device |
| JP2014133080A (en) * | 2012-04-12 | 2014-07-24 | Canon Inc | Evaluation method, evaluation device, program, and recording medium |
| WO2015044851A2 (en) * | 2013-09-25 | 2015-04-02 | Mindmaze Sa | Physiological parameter measurement and feedback system |
| JP2015130160A (en) * | 2013-12-31 | 2015-07-16 | イマージョン コーポレーションImmersion Corporation | Systems and methods for controlling multiple displays with single controller and haptic enabled user interface |
-
2015
- 2015-09-24 JP JP2015186649A patent/JP6582799B2/en active Active
Patent Citations (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0764709A (en) * | 1993-08-26 | 1995-03-10 | Olympus Optical Co Ltd | Instruction processor |
| JPH10108913A (en) * | 1996-08-09 | 1998-04-28 | Asahi Denshi Kenkyusho:Kk | Therapeutic point stimulating apparatus |
| JP2000131599A (en) * | 1998-10-26 | 2000-05-12 | Canon Inc | Apparatus and camera having gaze selection function |
| JP2002236096A (en) * | 2001-02-08 | 2002-08-23 | Hitachi Ltd | Optical topography device and data generation device |
| JP2002331849A (en) * | 2001-05-07 | 2002-11-19 | Nissan Motor Co Ltd | Driving behavior intention detection device |
| JP2004102769A (en) * | 2002-09-11 | 2004-04-02 | Mitsubishi Heavy Ind Ltd | Plant monitoring control device and plant monitoring control method |
| JP2005022810A (en) * | 2003-07-01 | 2005-01-27 | Toyobo Co Ltd | Roll drive control device |
| JP2005222325A (en) * | 2004-02-05 | 2005-08-18 | Toyota Motor Corp | Vehicle driving support device |
| JP2008068665A (en) * | 2006-09-12 | 2008-03-27 | Fujitsu Ten Ltd | Vehicle control apparatus and vehicle control method |
| JP2008120288A (en) * | 2006-11-14 | 2008-05-29 | Aisin Aw Co Ltd | Driving assistance device |
| JP2010019708A (en) * | 2008-07-11 | 2010-01-28 | Hitachi Ltd | On-board system |
| JP2011159217A (en) * | 2010-02-03 | 2011-08-18 | Fuji Heavy Ind Ltd | Confirmation action support device |
| JP2012053656A (en) * | 2010-09-01 | 2012-03-15 | National Institute Of Advanced Industrial & Technology | Communication support device and method |
| JP2012122447A (en) * | 2010-12-10 | 2012-06-28 | Toyota Motor Corp | Start control device |
| JP2014133080A (en) * | 2012-04-12 | 2014-07-24 | Canon Inc | Evaluation method, evaluation device, program, and recording medium |
| WO2015044851A2 (en) * | 2013-09-25 | 2015-04-02 | Mindmaze Sa | Physiological parameter measurement and feedback system |
| JP2015130160A (en) * | 2013-12-31 | 2015-07-16 | イマージョン コーポレーションImmersion Corporation | Systems and methods for controlling multiple displays with single controller and haptic enabled user interface |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102053794B1 (en) * | 2018-08-09 | 2019-12-09 | 연세대학교원주산학협력단 | Apparatus and method for delivering driver's movement intention based on bio-signals |
| JP2023125182A (en) * | 2022-02-28 | 2023-09-07 | パイオニア株式会社 | Information processing device, information processing method, program and recording medium |
| JP7803742B2 (en) | 2022-02-28 | 2026-01-21 | パイオニア株式会社 | Information processing device, information processing method, program, and recording medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6582799B2 (en) | 2019-10-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6343808B2 (en) | Visual field calculation device and visual field calculation method | |
| JP6497915B2 (en) | Driving support system | |
| JP6291787B2 (en) | Vehicle display device | |
| JP6330411B2 (en) | Information presentation device and information presentation method | |
| US20240000354A1 (en) | Driving characteristic determination device, driving characteristic determination method, and recording medium | |
| JP6299323B2 (en) | Information presentation device and information presentation method | |
| JP7058800B2 (en) | Display control device, display control method, and display control program | |
| JP2013203103A (en) | Display device for vehicle, control method therefor, and program | |
| JP2019089512A (en) | Drive support device, and drive support method | |
| JP6776681B2 (en) | Driver status determination device and driver status determination program | |
| JP2017027180A (en) | Vehicle control device and vehicle control method | |
| JP2016215658A (en) | Automatic driving device and automatic driving system | |
| JP2015207163A (en) | State estimation device and state estimation program | |
| JP5644414B2 (en) | Awakening level determination device, awakening level determination method, and program | |
| JP2020024551A (en) | Driving consciousness estimation device | |
| JP2008079737A (en) | Concentration evaluation device and vehicle display device using the same | |
| JP2019064407A (en) | Driving support device and driving support method | |
| JP6582799B2 (en) | Support apparatus and support method | |
| JP6793473B2 (en) | Sideways state judgment device | |
| JP2017191367A (en) | Safe driving support device and safe driving support program | |
| JP6418342B1 (en) | Data processing apparatus, monitoring system, awakening system, data processing method, and data processing program | |
| JP2008094292A (en) | Vehicle display device and information display method | |
| JP6102733B2 (en) | Vehicle periphery monitoring device | |
| JP2011180394A (en) | Drive grading system | |
| JP6332838B2 (en) | Driving assistance device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180126 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181121 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190108 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190228 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190806 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190819 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6582799 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |