JP2018151693A - Driving support device and driving support method - Google Patents
Driving support device and driving support method Download PDFInfo
- Publication number
- JP2018151693A JP2018151693A JP2017045307A JP2017045307A JP2018151693A JP 2018151693 A JP2018151693 A JP 2018151693A JP 2017045307 A JP2017045307 A JP 2017045307A JP 2017045307 A JP2017045307 A JP 2017045307A JP 2018151693 A JP2018151693 A JP 2018151693A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- damage
- driver
- passenger
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Burglar Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】運転者の被害を最小限に抑えることができる運転支援装置および運転支援方法を提供すること。【解決手段】実施形態に係る運転支援装置は、検出部と、判定部と、情報生成部とを備える。検出部は、車両の室内の様子を撮像した撮像画像に基づいて車両の運転者に対する同乗者の行動を検出する。判定部は、検出部によって検出された行動が運転者に被害を及ぼす被害行動であるか否かを判定する。情報生成部は、判定部によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。【選択図】図2PROBLEM TO BE SOLVED: To provide a driving support device and a driving support method capable of minimizing damage to a driver. A driving support device according to an embodiment includes a detection unit, a determination unit, and an information generation unit. The detection unit detects the behavior of the passenger with respect to the driver of the vehicle based on the captured image of the inside of the vehicle. The determination unit determines whether or not the behavior detected by the detection unit is a damaging behavior that causes damage to the driver. The information generation unit generates damage occurrence information indicating the occurrence of the damage behavior when the determination unit determines that the damage behavior is performed. [Selection diagram] Fig. 2
Description
本発明は、運転支援装置および運転支援方法に関する。 The present invention relates to a driving support device and a driving support method.
従来、例えば車内の様子を撮像した撮像画像を保存するカメラシステムが知られている。また、例えばかかる撮像画像に基づいて運転者の脇見や居眠りといった挙動を検出し、検出した挙動に応じて運転者に対して警告等を行う運転支援装置がある(たとえば、特許文献1参照)。 2. Description of the Related Art Conventionally, for example, a camera system that stores a captured image obtained by capturing an image inside a vehicle is known. Further, for example, there is a driving support device that detects a driver's behavior such as looking aside or falling asleep based on such a captured image, and warns the driver according to the detected behavior (see, for example, Patent Document 1).
しかしながら、従来技術は、運転者自身の挙動に基づいて運転者に危険が迫っていることを警告するものであって、例えば同乗者がいる場合については考慮されていなかった。つまり、従来の装置は、例えば同乗者の車内での行動によって運転者が被害を受けた場合に警告等の対応を行えないため、運転者の被害が拡大するおそれがあった。 However, the prior art warns the driver that the danger is imminent based on the driver's own behavior, and for example, no consideration is given to the case where there is a passenger. That is, the conventional apparatus cannot respond to a warning or the like when the driver is damaged due to, for example, the passenger's behavior in the vehicle, and there is a risk that the driver's damage may be increased.
本発明は、上記に鑑みてなされたものであって、運転者の被害を最小限に抑えることができる運転支援装置および運転支援方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a driving support device and a driving support method capable of minimizing damage to the driver.
上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、検出部と、判定部と、情報生成部とを備える。検出部は、車両の室内の様子を撮像した撮像画像に基づいて前記車両の運転者に対する同乗者の行動を検出する。判定部は、前記検出部によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する。情報生成部は、前記判定部によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する。 In order to solve the above-described problems and achieve the object, the driving support apparatus according to the present invention includes a detection unit, a determination unit, and an information generation unit. The detection unit detects a passenger's behavior with respect to the driver of the vehicle based on a captured image obtained by capturing an image of the interior of the vehicle. The determination unit determines whether or not the behavior detected by the detection unit is a damage behavior that causes damage to the driver. An information generation part produces | generates the damage occurrence information which shows generation | occurrence | production of the said damage action, when it determines with the said damage action by the said determination part.
本発明によれば、運転者の被害を最小限に抑えることができる。 According to the present invention, damage to the driver can be minimized.
以下、添付図面を参照して、本願の開示する運転支援装置および運転支援方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of a driving support apparatus and a driving support method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.
まず、図1Aおよび図1Bを用いて実施形態に係る運転支援方法の概要について説明する。図1Aおよび図1Bは、実施形態に係る運転支援方法の概要を示す図である。図1Aには、実施形態に係る運転支援装置1を搭載した車両Cを示している。 First, the outline | summary of the driving assistance method which concerns on embodiment is demonstrated using FIG. 1A and FIG. 1B. 1A and 1B are diagrams illustrating an outline of a driving support method according to an embodiment. FIG. 1A shows a vehicle C equipped with the driving support device 1 according to the embodiment.
運転支援装置1の搭載対象は、例えばタクシー等のように顧客を頻繁に乗せる、つまり車内に同乗者が存在する可能性が比較的高い車両Cに好適である。なお、図1では、車両Cを普通乗用車の形態で示しているが、これに限定されず、車両Cは、例えばバスやトラックといった大型車両であってもよい。 The mounting target of the driving support device 1 is suitable for a vehicle C on which a customer is frequently placed, for example, a taxi or the like, that is, there is a relatively high possibility that a passenger is present in the vehicle. In FIG. 1, the vehicle C is shown in the form of an ordinary passenger car. However, the present invention is not limited to this, and the vehicle C may be a large vehicle such as a bus or a truck.
また、図1Aには、例えば車内前方に設けられ、車両Cの室内の様子を撮像するカメラである撮像装置10を示している。また、図1Bには、撮像装置10によって撮像された撮像画像Pを示しており、撮像画像Pには、車両Cの運転者100および同乗者110が含まれる。
FIG. 1A shows an
実施形態に係る運転支援方法は、運転者100に対する同乗者110の行動を検出し、検出した行動が運転者100に被害を及ぼす被害行動である場合に、被害行動の発生を示す被害発生情報を生成するものである。
The driving support method according to the embodiment detects the behavior of the
ここで、従来の運転支援方法について説明する。従来の運転支援方法は、脇見や居眠り等といった運転者自身の挙動を検出することで、運転者に危険が迫っていることを警告していた。 Here, a conventional driving support method will be described. The conventional driving support method warns the driver that the danger is imminent by detecting the driver's own behavior such as looking aside or falling asleep.
しかしながら、従来は、例えば車内に同乗者がいる場合に、同乗者が起こした車内での行動によって運転者に危険が及ぶことについては考慮されていなかった。例えば、同乗者が運転者の腕を長時間掴むことで運転者自身が怪我をしたり、運転操作が妨げられたりする。つまり、従来は、同乗者の車内での行動によって運転者が被害を受けた場合に警告等の対応を行うことができず、運転者の被害が拡大するおそれがあった。 However, conventionally, for example, when there is a passenger in the vehicle, no consideration has been given to the danger to the driver due to the action in the vehicle caused by the passenger. For example, when the passenger holds the driver's arm for a long time, the driver himself is injured or the driving operation is hindered. That is, conventionally, when the driver is damaged by the passenger's behavior in the vehicle, it is not possible to take a warning or the like, and the driver's damage may be increased.
そこで、実施形態に係る運転支援方法では、例えば同乗者110が運転者100に対して危害を加える行動を起こした場合に、同乗者110に対して警告することとした。具体的には、図1Bに示すように、実施形態に係る運転支援装置1は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する(ステップS1)。
Therefore, in the driving support method according to the embodiment, for example, when the
つづいて、実施形態に係る運転支援装置1は、検出した行動が運転者100に被害を及ぼす被害行動であるか否かを判定する(ステップS2)。そして、実施形態に係る運転支援装置1は、同乗者110の行動が被害行動であった場合に、被害行動の発生を示す被害発生情報を生成する(ステップS3)。
Subsequently, the driving support apparatus 1 according to the embodiment determines whether or not the detected action is a damaging action that causes damage to the driver 100 (step S2). And the driving assistance apparatus 1 which concerns on embodiment produces the damage generation | occurrence | production information which shows generation | occurrence | production of damage action, when the action of the
例えば、図1Bに示すように、運転支援装置1は、同乗者110が運転者100の腕を掴んだ行動を被害行動と判定する。そして、運転支援装置1は、例えば被害発生情報として車内にブザー音を出力し、同乗者110に対して警告する。
For example, as illustrated in FIG. 1B, the driving assistance device 1 determines that an action in which the
これにより、例えばブザー音を聞いた同乗者110が運転者100の腕を離すといった被害行動をやめることで運転者の危険な状態が改善されることとなる。あるいは、ブザー音によってもなお危険な状態が改善されない場合には、警察等の関係機関に通報することで、運転者100を早期に保護する。
Thereby, for example, the passenger's dangerous state is improved by stopping the damage behavior such that the
したがって、実施形態に係る運転支援装置1によれば、運転者100に被害が及ぶ被害行動を検出し、例えば警告や通報等を行うことで、運転者100の被害を最小限に抑えることができる。
Therefore, according to the driving support apparatus 1 according to the embodiment, the damage to the
なお、実施形態に係る運転支援装置1は、ブザー音による警告や警察等の関係機関への通報を行うための被害発生情報を生成する場合に限らず、被害行動当時の車内の様子を録画することで被害発生情報を生成してもよいが、かかる点については後述する。 The driving support device 1 according to the embodiment is not limited to the case of generating damage occurrence information for warning by a buzzer sound or reporting to related organizations such as the police, but records the state in the vehicle at the time of the damage action. The damage occurrence information may be generated as described above, but this point will be described later.
なお、実施形態に係る運転支援装置1は、例えば腕を掴む等の同乗者110が運転者100に触れる接触行動を被害行動として判定するが、かかる点の詳細については図5を用いて後述する。
Note that the driving support apparatus 1 according to the embodiment determines a contact action that the
また、実施形態に係る運転支援装置1は、例えば座席シートや窓ガラスといった車両Cの備品に対して行う対物行動と、対物行動に伴う車両Cの振動に基づいて被害行動を判定するが、かかる点の詳細については、図6を用いて後述する。 Moreover, although the driving assistance apparatus 1 which concerns on embodiment determines damage action based on the objective action performed with respect to the fixtures of the vehicle C, such as a seat sheet and a window glass, and the vibration of the vehicle C accompanying an objective action, it takes, Details of the points will be described later with reference to FIG.
また、実施形態に係る運転支援装置1は、例えば、同乗者が刃物や拳銃といった道具を所持していた場合に、被害行動と判定するが、かかる点についても後述する。 In addition, the driving support device 1 according to the embodiment determines that the behavior is damaging when, for example, the passenger carries a tool such as a knife or a handgun, which will be described later.
次に、図2を参照して、実施形態に係る運転支援装置1の構成について詳細に説明する。図2は、実施形態に係る運転支援装置1の構成を示すブロック図である。 Next, with reference to FIG. 2, the structure of the driving assistance apparatus 1 which concerns on embodiment is demonstrated in detail. FIG. 2 is a block diagram illustrating a configuration of the driving support device 1 according to the embodiment.
図2に示すように、実施形態に係る運転支援装置1は、撮像装置10と、マイク11と、位置取得部12と、車速センサ13と、加速度センサ14と、警告装置20と、通報装置30とに接続される。まず、運転支援装置1以外の構成について説明する。
As illustrated in FIG. 2, the driving support device 1 according to the embodiment includes an
撮像装置10は、例えば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。
The
撮像装置10は、例えば車内の前方から後方を撮像する位置(図1参照)に設けられ、車内の運転者100および同乗者110を含むような撮像画像Pを撮像し、運転支援装置1へ出力する。
The
なお、撮像装置10は、車内の前方に設けられる場合に限定されず、車内の側方等であってもよく、撮像画像Pに運転者100および同乗者110が含まれる位置に設けられればよい。また、撮像装置10は、車内において複数の位置に設けられてもよく、かかる場合には、複数の撮像画像Pを運転支援装置1へ出力する。
The
マイク11は、車両Cに搭載されて車内に発生する音声を集音し、運転支援装置1へ出力する。位置取得部12は、例えばGPS(Global Positioning System)衛星からの信号に基づいて車両Cの現在位置を検出し、現在位置の情報として運転支援装置1へ出力する。
The
車速センサ13は、車両Cにおける車軸の回転数に応じたパルス信号を発生させるとともに、かかるパルス信号に基づいて車両Cの現在の走行速度を検出し、運転支援装置1へ出力する。 The vehicle speed sensor 13 generates a pulse signal corresponding to the number of rotations of the axle in the vehicle C, detects the current traveling speed of the vehicle C based on the pulse signal, and outputs it to the driving support device 1.
加速度センサ14は、車両Cに加わる加速度を検出して運転支援装置1へ出力する。かかる加速度センサ14は、例えば、互いに直交する3軸方向の加速度を検出する3軸加速度センサを用いることができる。 The acceleration sensor 14 detects the acceleration applied to the vehicle C and outputs it to the driving support device 1. As the acceleration sensor 14, for example, a triaxial acceleration sensor that detects acceleration in three axial directions orthogonal to each other can be used.
なお、加速度センサ14は、例えばエアバッグECU(Electronic Control Unit)に設けられた加速度センサを用いることができるが、これに限らず、例えばドライブレコーダ等の他の電子装置に搭載された加速度センサを用いてもよい。 As the acceleration sensor 14, for example, an acceleration sensor provided in an airbag ECU (Electronic Control Unit) can be used. However, the present invention is not limited to this, and an acceleration sensor mounted in another electronic device such as a drive recorder is used. It may be used.
警告装置20は、運転支援装置1から出力される被害発生情報に基づき、例えば車両Cに設けられたブザーやホーン等を制御して車両Cの内外へ音を発する装置である。例えば、警告装置20は、車内にブザー音を発することで、同乗者110に対して警告を行ったり、ホーンを鳴らして車両Cの周囲へ被害行動の発生を知らせたりすることができる。
The warning device 20 is a device that emits sound in and out of the vehicle C by controlling, for example, a buzzer, a horn, and the like provided in the vehicle C based on the damage occurrence information output from the driving support device 1. For example, the warning device 20 can give a warning to the
なお、警告装置20は、ブザーやホーンといった音を用いた警告に限らず、例えば車両Cの外部を照らすライトや、室内灯等を制御することで光を用いた警告を行うこともできる。 Note that the warning device 20 is not limited to a warning using sounds such as a buzzer or a horn, but can also give a warning using light by controlling, for example, a light that illuminates the outside of the vehicle C, a room light, or the like.
通報装置30は、例えばDCM(Data Communication Module)等のテレマティクスサービスに用いられる通信モジュールを備え、運転支援装置1から出力される被害発生情報に基づき、例えば警察等の関係機関に緊急通報する装置である。 The notification device 30 includes a communication module used for a telematics service such as DCM (Data Communication Module), for example, and is a device that makes an emergency call to related organizations such as the police based on damage occurrence information output from the driving support device 1. is there.
具体的には、通報装置30は、携帯電話網やインターネット網といった通信網を介して図示しないサーバ装置へ被害発生情報を送信し、サーバ装置が被害発生情報に基づいて関係機関へ通報する。 Specifically, the reporting device 30 transmits damage occurrence information to a server device (not shown) via a communication network such as a mobile phone network or the Internet network, and the server device reports to related organizations based on the damage occurrence information.
かかる場合、被害発生情報には、位置取得部12が取得した車両Cの現在位置の情報を含ませることが好ましい。これにより、緊急通報を受けた警察等が現場へいち早く到達できるため、運転者100を早期に保護することができる。
In such a case, it is preferable to include information on the current position of the vehicle C acquired by the
次に、実施形態に係る運転支援装置1について説明する。運転支援装置1は、制御部2と、記憶部3とを備える。制御部2は、検出部21と、振動検出部22と、判定部23と、情報生成部24とを備える。記憶部3は、画像情報31と、被害行動情報32を記憶する。
Next, the driving assistance device 1 according to the embodiment will be described. The driving support device 1 includes a
ここで、運転支援装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。 Here, the driving support device 1 is, for example, a computer having various functions such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), an input / output port, and the like. including.
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の検出部21、振動検出部22、判定部23および情報生成部24として機能する。
The CPU of the computer functions as the detection unit 21, the vibration detection unit 22, the determination unit 23, and the information generation unit 24 of the
また、制御部2の検出部21、振動検出部22、判定部23および情報生成部24の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
In addition, at least one or all of the detection unit 21, the vibration detection unit 22, the determination unit 23, and the information generation unit 24 of the
また、記憶部3は、たとえば、RAMやHDDに対応する。RAMやHDDは、画像情報31や被害行動情報32、各種プログラムの情報等を記憶することができる。なお、運転支援装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
The storage unit 3 corresponds to, for example, a RAM or an HDD. The RAM and HDD can store
画像情報31は、撮像装置10が定期的に撮像した時系列の撮像画像Pを含む情報である。また、記憶部3は、後述する情報生成部24の指示に従って、画像情報31のうち、運転者100の被害発生当時に撮像された撮像画像Pを被害発生情報として記憶する。被害発生情報における画像情報31の保存方法については、トリガー式および常時録画式のいずれの方式であってもよいがかかる点については後述する。
The
制御部2は、運転者100に対する同乗者110の行動を検出し、検出した行動が運転者100に被害を及ぼす被害行動である場合に、被害行動の発生を示す被害発生情報を生成する。
The
検出部21は、撮像装置10、マイク11、位置取得部12および車速センサ13等の各種情報に基づいて同乗者110の行動を検出する。
The detection unit 21 detects the behavior of the
例えば、検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する。ここで、図3を用いて、検出部21の具体的な検出処理について説明する。
For example, the detection unit 21 detects the behavior of the
図3は、同乗者110の身体の特徴点を示す図である。なお、図3には、人の特徴点の一例を示しているに過ぎず、特徴点の位置や数は任意に設定することができる。
FIG. 3 is a view showing feature points of the
図3に示すように、検出部21は、車内に存在する同乗者110の身体の各部の特徴点j1〜j20を検出し、かかる特徴点j1〜j20に基づいて同乗者110の姿勢や向きを解析することで同乗者110の様々な行動を検出する。
As shown in FIG. 3, the detection unit 21 detects feature points j1 to j20 of each part of the
具体的には、図3において、同乗者110の行動を規定する20個の特徴点j1〜j20を一例として示している。なお、特徴点j1〜j4は順に、頭部、肩部中央、旋回部、尻部中央にそれぞれ対応する。また、特徴点j5〜j8は順に、右手先、右手首、右肘、肩部右にそれぞれ対応する。
Specifically, in FIG. 3, 20 feature points j1 to j20 that define the behavior of the
また、特徴点j9〜j12は順に、尻部右、右膝、右足首、右足先にそれぞれ対応する。また、特徴点j13〜j16は順に、左手先、左手首、左肘、肩部左にそれぞれ対応する。また、特徴点j17〜j20は順に、尻部左、左膝、左足首、左足先にそれぞれ対応する。各特徴点j1〜j20は、例えばXY平面上における座標位置として表現される。 Also, the feature points j9 to j12 correspond to the right hip, the right knee, the right ankle, and the right foot, respectively, in order. Further, the feature points j13 to j16 correspond to the left hand tip, the left wrist, the left elbow, and the left shoulder part in order. Also, the feature points j17 to j20 correspond to the left hip, the left knee, the left ankle, and the left foot, respectively, in order. Each feature point j1 to j20 is expressed as a coordinate position on the XY plane, for example.
つまり、検出部21は、同乗者110が身体を動かした場合におけるこれら特徴点j1〜j20の位置関係を把握することで同乗者110の姿勢や向きを解析する。
That is, the detection unit 21 analyzes the posture and orientation of the
なお、検出部21は、同乗者110の特徴点j1〜j20を検出する前に、運転者100の身体の特徴点を予め規定しておくことが好ましい。例えば、検出部21は、運転支援装置1の起動直後、すなわち同乗者110がいない状態で、特徴点の検出処理を行い、運転者100の特徴点を予め検出しておく。これにより、検出される特徴点が運転者100のものであるか同乗者110のものであるかの判別が可能となる。
Note that the detection unit 21 preferably predefines the body feature points of the
振動検出部22は、例えば加速度センサ14の検出値に基づいて車両Cに発生する振動を検出する。例えば、振動検出部22は、検出部21によって検出された同乗者110の行動に伴う車両Cの振動を検出する。具体的には、振動検出部22は、検出部21の検出時刻と、加速度センサ14の検出値とを対応付けることで、同乗者110の行動に伴う車両Cの振動を検出する。
The vibration detection unit 22 detects vibration generated in the vehicle C based on the detection value of the acceleration sensor 14, for example. For example, the vibration detection unit 22 detects the vibration of the vehicle C accompanying the action of the
なお、車両Cが走行しているときに、同乗者110の行動に伴う車両Cの振動と、走行による車両Cの振動とが区別しにくい場合は、車両Cが停車しているときに限り振動検出部22により振動を検出するようにしてもよい。
In addition, when the vehicle C is traveling, if it is difficult to distinguish the vibration of the vehicle C due to the action of the
判定部23は、検出部21によって検出された同乗者110の行動が運転者100に被害を及ぼす被害行動であるか否かを判定する。具体的には、判定部23は、記憶部3に記憶された被害行動情報32に基づいて被害行動の有無を判定する。
The determination unit 23 determines whether or not the behavior of the
被害行動情報32は、行動パターン情報32aおよび音声パターン情報32bを含んだ情報であり、判定部23による被害行動の判定基準となる情報である。ここで、図4Aおよび図4Bを用いて被害行動情報32について説明する。
The
図4Aは、行動パターン情報32aの説明図である。図4Bは、音声パターン情報32bの説明図である。まず、図4Aを用いて行動パターン情報32aについて説明する。図4Aに示すように、行動パターン情報32aには、様々な被害行動のパターンに関する情報が予め登録される。
FIG. 4A is an explanatory diagram of the
行動パターン情報32aは、例えば、「行動種別」と、「特徴点画像」とを含んだ情報である。「行動種別」は、被害行動の種別を示す情報である。「特徴点画像」は、検出部21によって検出された同乗者110の特徴点j1〜j20の位置パターンを示す画像の情報である。なお、「特徴点画像」は、静止画であってもよく、動画であってもよい。
The
例えば、図4Aには、同乗者110が運転者100の腕等を掴む場合の「掴む」と、同乗者110が運転者100を殴る場合の「殴る」における「特徴点画像」を示した。なお、図4Aに示す「特徴点画像」のパターンは、代表例に過ぎず、実際には、例えば「殴る」の「特徴点画像」の中には、様々な「殴る」に関するパターンの「特徴点画像」が含まれている。
For example, FIG. 4A shows “feature point images” in “gripping” when the
例えば、「掴む」の「特徴点画像」は、同乗者110の右手先の特徴点j5(または左手先の特徴点j13)(図3参照)が運転者100の位置に所定時間留まっている動画を示している。
For example, the “feature point image” of “grab” is a moving image in which the feature point j5 of the right hand of the passenger 110 (or the feature point j13 of the left hand) (see FIG. 3) remains at the position of the
また、例えば、「殴る」の「特徴点画像」は、同乗者110の右手先の特徴点j5(または左手先の特徴点j13)が運転者100の位置へ所定の移動速度で到達した動画を示している。なお、特徴点j5の移動速度は、例えば、撮像画像Pから抽出される特徴点j5のベクトルの大きさから算出可能である。
Further, for example, the “feature point image” of “speak” is a moving image in which the feature point j5 (or the feature point j13 of the left hand) of the
つまり、判定部23は、検出部21が検出した特徴点j1〜j20と、行動パターン情報32aとの比較を行うことによって、同乗者110が行った行動が被害行動であるか否かを判定する。そして、判定部23は、同乗者110が行った行動が行動パターン情報32aにマッチングする、つまり、被害行動のパターンと一致した場合に、被害行動であると判定する。
That is, the determination unit 23 determines whether or not the action performed by the
このように、判定部23は、同乗者110の身体の特徴点に基づいてパターンマッチングを行うことで、正確に同乗者110の被害行動を判定することができる。
As described above, the determination unit 23 can accurately determine the damaging behavior of the
なお、判定部23は、検出部21によってすべて(図3では20個)の特徴点j1〜j20が検出されなくとも、「特徴点画像」の一部の特徴点が検出されれば足りる。つまり、判定部23は、検出部21によって検出された同乗者110の一部の特徴点と、「特徴点画像」の一部の特徴点とが一致した場合に、被害行動として判定してもよい。
Note that the determination unit 23 only needs to detect some feature points of the “feature point image” even if the detection unit 21 does not detect all (20 in FIG. 3) feature points j1 to j20. That is, the determination unit 23 may determine that the behavior is a damage action when some of the feature points of the
また、同乗者は座席に座っているため、被害行動をおこす場合でも下半身が動くことは少ないため、「特徴点画像」は上半身だけのデータにしてもよい。これによりメモリ容量を削減できる。 Further, since the passenger is sitting on the seat, the lower body hardly moves even when performing the damage behavior, so the “feature point image” may be data only for the upper body. Thereby, the memory capacity can be reduced.
さらに、判定部23は、図4Bに示す音声パターン情報32bを用いて、同乗者110の発話内容を加味して被害行動を判定してもよい。図4Bに示すように、音声パターン情報32bは、例えば、「音声種別」と「文字情報」とを含んだ情報である。
Furthermore, the determination unit 23 may determine the damage behavior using the
図4Bに示すように、音声パターン情報32bは、例えば同乗者110が運転者100に危害を加える前に発したり、運転者100を威嚇するために発したりする危険キーワードが予め登録された情報である。音声パターン情報32bは、例えば「音声種別」と「文字情報」とが関連付けされた情報である。
As shown in FIG. 4B, the
判定部23は、検出部21がマイク11から検出した同乗者110の発話内容を示す音声に予め定められた危険キーワードが含まれる場合に、かかる音声が被害行動であると判定する。
The determination unit 23 determines that the voice is a damaging action when a predetermined risk keyword is included in the voice indicating the utterance content of the
具体的には、判定部23は、検出部21によって検出された音声をテキスト化した音声文字情報に変換し、音声文字情報の中に、音声パターン情報32bの「文字情報」に一致するものがあれば、かかる音声を被害行動として判定する。
Specifically, the determination unit 23 converts the voice detected by the detection unit 21 into voiced text information converted into text, and the voice text information that matches the “character information” of the
つまり、判定部23は、危険キーワードのような物理的な危害を加える前に発する音声を検出して、例えば警告装置20により警告を行うことで、同乗者110が行おうとしている被害行動を未然に防ぐことができる。
In other words, the determination unit 23 detects the voice that is uttered before the physical harm such as the danger keyword, and gives a warning by the warning device 20, for example, to determine the damage behavior that the
なお、例えば図4Bに示す「おい」のように、「文字情報」の文字数が比較的少ない場合、判定部23は、例えば検出部21が検出した音声を解析することでかかる音声の抑揚等を検出して被害行動の判定を行うことが好ましい。 For example, when the number of characters in the “character information” is relatively small as “oi” shown in FIG. 4B, the determination unit 23 analyzes the speech detected by the detection unit 21, for example, to suppress the speech. It is preferable to detect and determine the damage behavior.
また、判定部23は、同乗者110の特徴点j1〜j20に基づいて被害行動を検出したが、これに限定されず、同乗者110に加えて運転者100の特徴点を加味して被害行動を検出することとしてもよい。かかる点について図5を用いて説明する。
Moreover, although the determination part 23 detected the damage action based on the passenger's 110 feature points j1-j20, it is not limited to this, A damage action is considered in addition to the
図5は、判定部23の判定内容を示す図である。図5には、同乗者110が運転者100を掴む状況を撮像した撮像画像Pを示している。また、図5には、かかる撮像画像Pから検出された運転者100の特徴点aj15,aj16と、同乗者110の特徴点j5とを示している。
FIG. 5 is a diagram illustrating the determination contents of the determination unit 23. FIG. 5 shows a captured image P obtained by capturing a situation where the
なお、図5において、図の見易さの観点から運転者100の左肘および肩部左の特徴点aj15,aj16を含む運転者100の他の特徴点を白丸で示している。また、同乗者110の特徴点についても同様に、右手先の特徴点j5を含む他の特徴点を黒丸で示している。
In FIG. 5, other feature points of the
図5に示すように、判定部23は、検出部21によって検出された同乗者110の行動が運転者100に触れる接触行動であった場合に、かかる行動を被害行動と判定する。
As illustrated in FIG. 5, when the behavior of the
具体的には、判定部23は、運転者100の特徴点(例えば特徴点aj15,aj16)および同乗者110の特徴点j1〜j20の座標の位置関係に基づき、検出部21が検出した行動が接触行動であるか否かを判定する。
Specifically, the determination unit 23 determines whether the behavior detected by the detection unit 21 is based on the positional relationship between the feature points of the driver 100 (for example, feature points aj15 and aj16) and the feature points j1 to j20 of the
例えば、図5に示すように、判定部23は、運転者100の左肘および肩部左の特徴点aj15,aj16を結ぶ線上に、同乗者110の右手先の特徴点j5が重なった場合に、接触行動であると判定する。
For example, as illustrated in FIG. 5, the determination unit 23 determines that the feature point j5 on the right hand of the
このように、同乗者110が運転者100に直接触れたことをトリガーとすることで、被害行動の発生の誤検知を防止することができるとともに、確実に被害行動を検出することができる。
Thus, by using the
なお、同乗者が乗車賃を運転者に支払う際、お金を運転者に手渡しする場合があるため、これを接触行動であると判定しないようにしておくことが望ましい。そのためには、例えば、停車中であり、かつ同乗者の手先が運転者の手先に接触した場合は、その接触行動は乗車賃の支払い行為であると判定し、被害行動とは判定しないようにすればよい。または、画像で接触行為を判定したときは、音声も加味し、乗車賃の支払いに関する一連の会話(例えば、「○○円です。」「△△円でお釣りお願いします。」「はい、お釣りです。」)であった場合は被害行動とは判定しないようにすればよい。 Note that when the passenger pays the fare to the driver, money may be handed over to the driver, so it is desirable not to determine that this is a contact action. To do so, for example, if the passenger's hand touches the driver's hand while the vehicle is stopped, it is determined that the contact action is an act of paying the fare, and not a damage action. do it. Or, when the contact action is judged by the image, the voice is also taken into account, and a series of conversations related to payment of the fare (for example, “○○ yen.” “△△ yen please change.” “Yes, change If it is ")", it is sufficient not to determine that it is a damaging action.
なお、判定部23は、2次元平面における特徴点の位置関係に基づいて接触行動の有無を判定する場合に限定されず、例えば撮像装置10の取付位置に基づいて算出される撮像画像Pの奥行方向を加味した3次元空間における特徴点の位置関係に基づいて接触行動の有無を判定してもよい。これにより、判定部23は、より正確に接触行動を判定することができる。
Note that the determination unit 23 is not limited to the case where the presence / absence of the contact action is determined based on the positional relationship between the feature points on the two-dimensional plane. For example, the depth of the captured image P calculated based on the attachment position of the
また、判定部23は、同乗者110が運転者100に直接触れる行動を被害行動として判定したが、これに限定されず、同乗者110が運転者100に対して間接的に行った行動に基づいて被害行動の有無を判定してもよい。かかる点について、図6を用いて説明する。
Moreover, although the determination part 23 determined the action which the
図6は、判定部23の判定内容を示す図である。図6には、後部座席に着座した同乗者110が運転者100の着座する座席を蹴る場面を示している。図6に示すように、同乗者110が座席を比較的強く蹴る行動(運転者100が驚く程度)を行った場合、かかる行動に伴って車両Cが振動することが多い。
FIG. 6 is a diagram illustrating the determination contents of the determination unit 23. FIG. 6 shows a scene in which the
判定部23は、かかる振動に着目して被害行動の有無を判定する。具体的には、図6に示すように、判定部23は、検出部21によって検出された同乗者110の行動が車両Cの備品に対して行う対物行動であり、かつ、振動検出部22によって検出された振動の検出値が所定値以上であった場合に、かかる行動を被害行動と判定する。
The determination unit 23 determines the presence / absence of the damage behavior by paying attention to the vibration. Specifically, as shown in FIG. 6, the determination unit 23 is an objective action that the action of the
そして、例えば対物行動の様子を録画しておくことで、車両Cの備品が破損した場合等に、損害賠償を請求する際の有用な証拠として録画した撮像画像Pを用いることができる。 Then, for example, by recording the state of the objective action, when the equipment of the vehicle C is damaged, the recorded captured image P can be used as useful evidence when claiming damages.
なお、車両Cの備品に対する対物行動は、運転者100の着座する座席を蹴る行動以外に、例えば車両Cのドアや窓ガラスを叩く行動等であってもよく、運転者100の運転の妨げや車両Cの備品の損害に繋がる行動であればよい。
The objective action on the equipment of the vehicle C may be, for example, an action of hitting a door or window glass of the vehicle C other than the action of kicking the seat on which the
また、判定部23は、運転者100や車両Cの備品に対する行動のように、人や物に対して直接的に危害を加える行動の場合に被害行動として判定したが、例えば、同乗者110が所持する道具に基づいて被害行動を判定してもよい。
Moreover, although the determination part 23 determined as a damage action in the case of the action which directly harms a person or an object like the action with respect to the driver |
具体的には、判定部23は、検出部21によって検出された同乗者110の行動が運転者100に対して被害を与えるための道具の所持であった場合に、かかる行動を被害行動と判定する。
Specifically, when the behavior of the
例えば、検出部21は、撮像画像Pに基づいて刃物等の鋭利な金属部材の所持を検出する。より具体的には、検出部21は、金属部材により光の反射を検出することで刃物の所持を検出する。なお、検出部21は、例えばパターンマッチングにより刃物を検出することもできる。 For example, the detection unit 21 detects possession of a sharp metal member such as a blade based on the captured image P. More specifically, the detection unit 21 detects possession of the blade by detecting reflection of light with a metal member. In addition, the detection part 21 can also detect a blade by pattern matching, for example.
また、検出部21は、鋭利な金属部材の道具に限らず、鈍器等の刃の無い道具や銃等の標的に物体を飛ばすことで被害を与える道具等の所持を検出することとしてもよい。 The detection unit 21 is not limited to a sharp metal member tool, and may detect possession of a tool that does not have a blade such as a blunt tool or a tool that causes damage by flying an object to a target such as a gun.
このように、運転者100に対して被害を与えることが可能な道具を検出することで、運転者100がかかる道具によって怪我することを未然に防ぐことができる。
Thus, by detecting a tool that can cause damage to the
また、判定部23は、車両Cの走行速度を考慮して被害行動の有無を判定してもよい。具体的には、判定部23は、車両Cの走行速度がゼロ、すなわち車両Cが停止している場合に、検出部21による検出感度を同乗者110の右または左の手先において高く設定する。
Further, the determination unit 23 may determine the presence / absence of the damage behavior in consideration of the traveling speed of the vehicle C. Specifically, the determination unit 23 sets the detection sensitivity of the detection unit 21 to be high at the right or left hand of the
これにより、例えばタクシー等において同乗者110が料金の支払いを拒否して運転者100に危害を加える行動を行おうとした場合に、かかる行動をいち早く検出して運転者100に通知することができる。したがって、危害を加えようとしている同乗者110から運転者100が容易に逃れることができる。
As a result, for example, when the
また、例えば、判定部23は、運転者100の生体情報を加味して被害行動を判定してもよい。具体的には、判定部23は、例えば運転者100毎に、平常時の脈拍や体温等の生体情報を学習しておき、同乗者110の行動によってこれらの生体情報が異常値となった場合に、かかる行動を被害行動と判定する。
Further, for example, the determination unit 23 may determine the damage behavior taking into account the biological information of the
これは、同乗者110の行動によって受ける被害の程度が運転者100毎に異なるためである。すなわち、判定部23は、運転者100の平常時の生体情報を予め学習しておくことで、運転者100それぞれに応じて適切な判定処理を行うことができる。
This is because the degree of damage caused by the behavior of the
情報生成部24は、判定部23によって同乗者110の行動が被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。例えば、情報生成部24は、同乗者110に対して警告する警告情報を被害発生情報として生成する。
The information generation unit 24 generates damage occurrence information indicating the occurrence of damage behavior when the determination unit 23 determines that the behavior of the
具体的には、情報生成部24は、同乗者110に対して音や光を発するための警告情報を生成し、警告装置20へ出力する。なお、警告装置20が発する音は、ビープ音等の単一音に限らず、音声であってもよい。
Specifically, the information generation unit 24 generates warning information for emitting sound or light to the
これにより、同乗者110が行っている被害行動をやめさせたり、音や光により同乗者110を怯ませて運転者100に逃げる隙を与えたりすることができる。
As a result, it is possible to stop the damaging behavior performed by the
なお、情報生成部24は、例えば警告装置20により警告を行ってもなお同乗者110が被害行動を継続させた場合には、被害発生情報を通報装置30へ出力し、警察などの関係機関へ緊急通報することとしてもよい。
For example, if the
さらに、情報生成部24は、被害行動当時の車内の様子を録画することで被害発生情報を生成してもよい。具体的には、情報生成部24は、被害行動が発生した時刻を含む所定期間の撮像画像Pを被害発生情報として記憶部3に記憶させる。なお、録画の方式については、トリガー式または常時録画式のいずれであってもよい。 Further, the information generation unit 24 may generate the damage occurrence information by recording the state in the vehicle at the time of the damage action. Specifically, the information generation unit 24 causes the storage unit 3 to store the captured image P for a predetermined period including the time when the damage action occurred as damage occurrence information. Note that the recording method may be either a trigger type or a constant recording type.
例えばトリガー式の場合、時系列の撮像画像Pは、RAM等の揮発性メモリにエンドレスで記憶される。情報生成部24は、判定部23によって被害行動があったと判定された(トリガー)場合に、現在時刻を含む前後所定期間分の撮像画像Pを揮発性メモリから取り出しHDD等の不揮発性メモリに保存する。これにより、被害発生時刻の前後の期間に撮像された撮像画像Pが保存される。 For example, in the case of the trigger type, the time-series captured image P is stored endlessly in a volatile memory such as a RAM. When the determination unit 23 determines that there has been a damaging action (trigger), the information generation unit 24 extracts the captured images P for a predetermined period before and after the current time from the volatile memory and saves them in a nonvolatile memory such as an HDD. To do. Thereby, the captured image P captured in the period before and after the damage occurrence time is stored.
また、例えば常時録画式の場合、時系列の撮像画像Pは、HDD等の不揮発性メモリに記憶されていき、メモリ容量が満杯になると、最も古い時刻の撮像画像Pから順次削除され、新たな時刻の撮像画像Pが上書き保存される。 Further, for example, in the case of the continuous recording type, the time-series captured images P are stored in a nonvolatile memory such as an HDD, and when the memory capacity is full, the captured images P at the oldest time are sequentially deleted and new The captured image P at the time is overwritten and saved.
情報生成部24は、判定部23によって被害行動があったと判定された場合に、被害発生時刻の前後の期間に撮像された撮像画像Pについて上書きを禁止する設定を行う。これにより、上書き禁止された撮像画像Pは、新しい時刻の撮像画像Pを記憶する際に、上書き削除されずに残ることで保存される。 The information generation unit 24 performs a setting for prohibiting overwriting of the captured image P captured in a period before and after the damage occurrence time when the determination unit 23 determines that there is a damage behavior. As a result, the captured image P for which overwriting is prohibited is stored by being left without being overwritten and deleted when the captured image P at a new time is stored.
このように、例えば被害行動の発生当時の様子を録画しておくことで、運転者100が怪我をして慰謝料等を請求する際に、有用な証拠として提出することができる。
Thus, for example, by recording the situation at the time of occurrence of the damaging behavior, it can be submitted as useful evidence when the
次に、図7を用いて、実施形態に係る運転支援装置1が実行する処理の処理手順について説明する。図7は、実施形態に係る運転支援装置1が実行する処理の処理手順を示すフローチャートである。 Next, a processing procedure of processing executed by the driving support device 1 according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating a processing procedure of processing executed by the driving support device 1 according to the embodiment.
図7に示すように、まず、検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する(ステップS101)。
As illustrated in FIG. 7, first, the detection unit 21 detects the behavior of the
つづいて、判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動であるか否かを判定する(ステップS102)。判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動であった場合(ステップS102,Yes)、かかる行動を被害行動であると判定する(ステップS103)。 Subsequently, the determination unit 23 determines whether or not the behavior detected by the detection unit 21 is a contact behavior that touches the driver 100 (step S102). When the behavior detected by the detection unit 21 is a contact behavior that touches the driver 100 (step S102, Yes), the determination unit 23 determines that the behavior is a damage behavior (step S103).
つづいて、情報生成部24は、判定部23によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成し(ステップS104)、処理を終了する。 Subsequently, when the determination unit 23 determines that the behavior is a damage behavior, the information generation unit 24 generates damage occurrence information indicating the occurrence of the damage behavior (step S104), and ends the process.
一方、ステップS102において、判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動でなかった場合(ステップS102,No)、かかる行動が車両Cの備品に対して行う対物行動であるか否かを判定する(ステップS105)。 On the other hand, in step S102, when the behavior detected by the detection unit 21 is not a contact behavior that touches the driver 100 (No in step S102), the determination unit 23 performs the objective that the behavior performs on the equipment of the vehicle C. It is determined whether or not it is an action (step S105).
つづいて、判定部23は、検出部21によって検出された行動が車両Cの備品に対して行う対物行動であった場合(ステップS105,Yes)、振動検出部22によって検出された振動の検出値が所定値以上であるか否かを判定する(ステップS106)。 Subsequently, when the behavior detected by the detection unit 21 is an objective behavior to be performed on the equipment of the vehicle C (step S105, Yes), the determination unit 23 detects the vibration detected by the vibration detection unit 22. Is determined to be greater than or equal to a predetermined value (step S106).
判定部23は、振動検出部22によって検出された振動の検出値が所定値以上であった場合(ステップS106,Yes)、処理をステップS103へ移行する。 If the detection value of the vibration detected by the vibration detection unit 22 is equal to or greater than the predetermined value (Yes at Step S106), the determination unit 23 proceeds to Step S103.
一方、ステップS105において、判定部23は、検出部21によって検出された行動が車両Cの備品に対して行う対物行動でなかった場合(ステップS105,No)、かかる行動が運転者100に対して被害を与えるための道具の所持であるか否かを判定する(ステップS107)。
On the other hand, in step S105, the determination unit 23 determines that the behavior detected by the detection unit 21 is not the objective behavior performed on the equipment of the vehicle C (No in step S105), and the behavior is directed to the
判定部23は、検出部21によって検出された行動が運転者100に対して被害を与えるための道具の所持であった場合(ステップS107,Yes)、処理をステップS103へ移行する。 If the behavior detected by the detection unit 21 is possession of a tool for causing damage to the driver 100 (step S107, Yes), the determination unit 23 proceeds to step S103.
一方、ステップS106において、判定部23は、振動検出部22によって検出された振動の検出値が所定値未満であった場合(ステップS106,No)、処理をステップS101へ移行する。 On the other hand, in step S106, the determination part 23 transfers a process to step S101, when the detected value of the vibration detected by the vibration detection part 22 is less than predetermined value (step S106, No).
また、ステップS107において、判定部23は、検出部21によって検出された行動が運転者100に対して被害を与えるための道具の所持でなかった場合(ステップS107,No)、処理をステップS101へ移行する。 In step S107, if the action detected by the detection unit 21 is not possession of a tool for causing damage to the driver 100 (No in step S107), the determination unit 23 proceeds to step S101. Transition.
上述してきたように、実施形態に係る運転支援装置1は、検出部21と、判定部23と、情報生成部24とを備える。検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する。判定部23は、検出部21によって検出された行動が運転者100に被害を及ぼす被害行動であるか否かを判定する。情報生成部24は、判定部23によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。これにより、例えば同乗者110に対して警告したり、警察などに通報したりすることで、運転者100の被害を最小限に抑えることができる。
As described above, the driving support device 1 according to the embodiment includes the detection unit 21, the determination unit 23, and the information generation unit 24. The detection unit 21 detects the behavior of the
なお、上述した実施形態では、同乗者110が後部座席に存在する場合について説明したが、例えば同乗者110が助手席に存在する場合であってもよい。また、同乗者110は、一人である場合に限らず、複数であってもよい。
In the above-described embodiment, the case where the
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.
1 運転支援装置
2 制御部
3 記憶部
10 撮像装置
11 マイク
12 位置取得部
13 車速センサ
14 加速度センサ
20 警告装置
21 検出部
22 振動検出部
23 判定部
24 情報生成部
30 通報装置
31 画像情報
32 被害行動情報
100 運転者
110 同乗者
C 車両
P 撮像画像
DESCRIPTION OF SYMBOLS 1
Claims (9)
前記検出部によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する判定部と、
前記判定部によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する情報生成部と
を備えることを特徴とする運転支援装置。 A detection unit for detecting a passenger's behavior with respect to a driver of the vehicle based on a captured image obtained by capturing an image of the interior of the vehicle;
A determination unit that determines whether the behavior detected by the detection unit is a damaging behavior that damages the driver;
A driving support apparatus comprising: an information generation unit that generates damage occurrence information indicating occurrence of the damage behavior when the determination unit determines that the damage behavior is the damage behavior.
前記撮像画像から前記同乗者の身体を示す特徴点を検出することで前記行動を検出し、
前記判定部は、
前記行動を示す前記特徴点のパターンが予め定められた前記被害行動のパターンと一致した場合に、前記被害行動であると判定すること
を特徴とする請求項1に記載の運転支援装置。 The detector is
Detecting the behavior by detecting a feature point indicating the passenger's body from the captured image;
The determination unit
The driving support device according to claim 1, wherein when the pattern of the feature points indicating the behavior matches a predetermined pattern of the damage behavior, it is determined that the behavior is the damage behavior.
前記検出部によって検出された前記行動が前記運転者に触れる接触行動であった場合に、前記行動を前記被害行動と判定すること
を特徴とする請求項1または2に記載の運転支援装置。 The determination unit
The driving support device according to claim 1 or 2, wherein when the behavior detected by the detection unit is a contact behavior touching the driver, the behavior is determined as the damage behavior.
前記判定部は、
前記行動が前記車両の備品に対して行う対物行動であり、かつ、前記振動検出部によって検出された前記振動の検出値が所定値以上であった場合に、前記行動を前記被害行動と判定すること
を特徴とする請求項1〜3のいずれか一つに記載の運転支援装置。 A vibration detection unit that detects vibrations of the vehicle accompanying the action;
The determination unit
When the action is an objective action to be performed on the equipment of the vehicle and the detected value of the vibration detected by the vibration detection unit is a predetermined value or more, the action is determined as the damage action. The driving support apparatus according to any one of claims 1 to 3, wherein
前記運転者に対して被害を与えるための道具の所持を前記行動として検出し、
前記判定部は、
前記道具の所持を前記被害行動と判定すること
を特徴とする請求項1〜4のいずれか一つに記載の運転支援装置。 The detector is
Detecting possession of a tool for causing damage to the driver as the action,
The determination unit
The driving support device according to any one of claims 1 to 4, wherein possession of the tool is determined as the damage behavior.
前記同乗者の発話内容を示す音声を前記行動として検出し、
前記判定部は、
前記検出部によって検出された前記音声に予め定められた危険キーワードが含まれる場合に、前記音声が前記被害行動であると判定すること
を特徴とする請求項1〜5のいずれか一つに記載の運転支援装置。 The detector is
Detecting voice indicating the passenger's utterance content as the action,
The determination unit
6. The voice according to claim 1, wherein the voice is determined to be the damaging behavior when a predetermined risk keyword is included in the voice detected by the detection unit. Driving assistance device.
前記情報生成部は、
前記被害行動が発生した時刻を含む所定期間の前記撮像画像を前記被害発生情報として前記記憶部に記憶させること
を特徴とする請求項1〜6のいずれか一つに記載の運転支援装置。 A storage unit that stores the time-series captured images;
The information generator is
The driving support device according to any one of claims 1 to 6, wherein the captured image of a predetermined period including a time when the damage behavior occurs is stored in the storage unit as the damage occurrence information.
前記同乗者に対して警告する警告情報を前記被害発生情報として生成すること
を特徴とする請求項1〜7のいずれか一つに記載の運転支援装置。 The information generator is
The driving support device according to any one of claims 1 to 7, wherein warning information for warning the passenger is generated as the damage occurrence information.
前記検出工程によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する判定工程と、
前記判定工程によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する情報生成工程と
を含むことを特徴とする運転支援方法。 A detection step of detecting a passenger's behavior with respect to the driver of the vehicle based on a captured image obtained by capturing an image of the interior of the vehicle;
A determination step of determining whether the behavior detected by the detection step is a damaging behavior that damages the driver;
An information generation step of generating damage occurrence information indicating the occurrence of the damage behavior when the damage determination is determined by the determination step.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017045307A JP2018151693A (en) | 2017-03-09 | 2017-03-09 | Driving support device and driving support method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017045307A JP2018151693A (en) | 2017-03-09 | 2017-03-09 | Driving support device and driving support method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018151693A true JP2018151693A (en) | 2018-09-27 |
Family
ID=63681705
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017045307A Pending JP2018151693A (en) | 2017-03-09 | 2017-03-09 | Driving support device and driving support method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018151693A (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020095357A (en) * | 2018-12-10 | 2020-06-18 | トヨタ自動車株式会社 | Behavior monitoring device, behavior monitoring system, and behavior monitoring program |
| JP2020123342A (en) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョンStradvision,Inc. | METHOD AND APPARATUS FOR PREDICTING PASSENGER'S CONDITION IN A 2D IMAGE SHOT USING A 2D CIRCUIT WITH A FISH EYE LENS. |
| JP2021068059A (en) * | 2019-10-18 | 2021-04-30 | アイシン精機株式会社 | Toe position estimating device and fingertip position estimating device |
| WO2021084816A1 (en) * | 2019-10-31 | 2021-05-06 | 株式会社Jvcケンウッド | Recording system, recording method, and program |
| WO2022018781A1 (en) * | 2020-07-20 | 2022-01-27 | 三菱電機株式会社 | Vehicle control device, program, and vehicle control method |
| WO2022130852A1 (en) * | 2020-12-18 | 2022-06-23 | 株式会社Jvcケンウッド | Information processing device and information processing method |
| WO2022196213A1 (en) * | 2021-03-18 | 2022-09-22 | 矢崎総業株式会社 | Watch-over system |
| US20220388524A1 (en) * | 2021-06-07 | 2022-12-08 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
-
2017
- 2017-03-09 JP JP2017045307A patent/JP2018151693A/en active Pending
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7115277B2 (en) | 2018-12-10 | 2022-08-09 | トヨタ自動車株式会社 | Behavior monitoring device, behavior monitoring system, and behavior monitoring program |
| JP2020095357A (en) * | 2018-12-10 | 2020-06-18 | トヨタ自動車株式会社 | Behavior monitoring device, behavior monitoring system, and behavior monitoring program |
| JP2020123342A (en) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョンStradvision,Inc. | METHOD AND APPARATUS FOR PREDICTING PASSENGER'S CONDITION IN A 2D IMAGE SHOT USING A 2D CIRCUIT WITH A FISH EYE LENS. |
| JP2021068059A (en) * | 2019-10-18 | 2021-04-30 | アイシン精機株式会社 | Toe position estimating device and fingertip position estimating device |
| JP7375456B2 (en) | 2019-10-18 | 2023-11-08 | 株式会社アイシン | Toe position estimation device and fingertip position estimation device |
| WO2021084816A1 (en) * | 2019-10-31 | 2021-05-06 | 株式会社Jvcケンウッド | Recording system, recording method, and program |
| JP2021072559A (en) * | 2019-10-31 | 2021-05-06 | 株式会社Jvcケンウッド | Recording system, recording method and program |
| JP7354771B2 (en) | 2019-10-31 | 2023-10-03 | 株式会社Jvcケンウッド | Recording system, recording method and program |
| JP7361929B2 (en) | 2020-07-20 | 2023-10-16 | 三菱電機株式会社 | Vehicle control device, program and vehicle control method |
| JPWO2022018781A1 (en) * | 2020-07-20 | 2022-01-27 | ||
| WO2022018781A1 (en) * | 2020-07-20 | 2022-01-27 | 三菱電機株式会社 | Vehicle control device, program, and vehicle control method |
| WO2022130852A1 (en) * | 2020-12-18 | 2022-06-23 | 株式会社Jvcケンウッド | Information processing device and information processing method |
| JP2022143604A (en) * | 2021-03-18 | 2022-10-03 | 矢崎総業株式会社 | Watching system |
| WO2022196213A1 (en) * | 2021-03-18 | 2022-09-22 | 矢崎総業株式会社 | Watch-over system |
| JP7326363B2 (en) | 2021-03-18 | 2023-08-15 | 矢崎総業株式会社 | Monitoring system |
| WO2022261080A1 (en) * | 2021-06-07 | 2022-12-15 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
| US11807257B2 (en) | 2021-06-07 | 2023-11-07 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
| US20220388524A1 (en) * | 2021-06-07 | 2022-12-08 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
| EP4351935A1 (en) | 2021-06-07 | 2024-04-17 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
| JP2024527684A (en) * | 2021-06-07 | 2024-07-26 | トヨタ コネクテッド ノース アメリカ,インコーポレイティド | Detecting interactions with unauthorized components within the vehicle |
| JP7562882B2 (en) | 2021-06-07 | 2024-10-07 | トヨタ コネクテッド ノース アメリカ,インコーポレイティド | Detecting interactions with unauthorized components within the vehicle |
| EP4351935A4 (en) * | 2021-06-07 | 2025-03-05 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018151693A (en) | Driving support device and driving support method | |
| US9714037B2 (en) | Detection of driver behaviors using in-vehicle systems and methods | |
| JP6394281B2 (en) | In-vehicle alert system, alarm control device | |
| US20170291544A1 (en) | Adaptive alert system for autonomous vehicle | |
| WO2018046015A1 (en) | Alarm method, device and terminal for vehicle | |
| JP7290930B2 (en) | Occupant modeling device, occupant modeling method and occupant modeling program | |
| JP6106402B2 (en) | In-vehicle device | |
| US9984298B2 (en) | Method for outputting a drowsiness warning and control unit | |
| TWI596580B (en) | Obstacle warning system and its operation method | |
| US20220189221A1 (en) | Information recording device, information recording method, and program for recording information | |
| CN114387780A (en) | Vehicle damage identification and incident management system and method | |
| CN112926544A (en) | Driving state determination method, device, equipment and storage medium | |
| WO2014126304A1 (en) | Vsdt rearview mirror having sleepiness prevention function | |
| US20250022292A1 (en) | Driver monitoring device, driver monitoring method, and non-transitory recording medium | |
| CN112311821A (en) | A traffic accident rescue method, device and vehicle | |
| EP3324378A1 (en) | Electronic safety system and method for detecting a vehicle driver's attention | |
| JP2016115120A (en) | Opened/closed eye determination device and opened/closed eye determination method | |
| JP2019003312A (en) | Gaze target estimation device, gaze target estimation method, and program | |
| CN107867242A (en) | Method, system and vehicle for using an object display device in a vehicle | |
| JP2021163096A (en) | Object detection method, object detection apparatus, and program | |
| US12472939B2 (en) | Agent apparatus | |
| GB2525654A (en) | Driver incident assistance system and method | |
| JP2007082594A (en) | Fatigue detection device | |
| JP2021089652A (en) | Driver monitor, driver state estimation method and program | |
| CN113221734A (en) | Image recognition method and device |