[go: up one dir, main page]

JP2018151693A - Driving support device and driving support method - Google Patents

Driving support device and driving support method Download PDF

Info

Publication number
JP2018151693A
JP2018151693A JP2017045307A JP2017045307A JP2018151693A JP 2018151693 A JP2018151693 A JP 2018151693A JP 2017045307 A JP2017045307 A JP 2017045307A JP 2017045307 A JP2017045307 A JP 2017045307A JP 2018151693 A JP2018151693 A JP 2018151693A
Authority
JP
Japan
Prior art keywords
behavior
damage
driver
passenger
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017045307A
Other languages
Japanese (ja)
Inventor
崇慶 三田
Sukei Mita
崇慶 三田
高橋 信哉
Shinya Takahashi
信哉 高橋
正信 文岩
Masanobu Fumiiwa
正信 文岩
将光 岡▲崎▼
Masamitsu Okazaki
将光 岡▲崎▼
萌 亀山
Moe Kameyama
萌 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017045307A priority Critical patent/JP2018151693A/en
Publication of JP2018151693A publication Critical patent/JP2018151693A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Burglar Alarm Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】運転者の被害を最小限に抑えることができる運転支援装置および運転支援方法を提供すること。【解決手段】実施形態に係る運転支援装置は、検出部と、判定部と、情報生成部とを備える。検出部は、車両の室内の様子を撮像した撮像画像に基づいて車両の運転者に対する同乗者の行動を検出する。判定部は、検出部によって検出された行動が運転者に被害を及ぼす被害行動であるか否かを判定する。情報生成部は、判定部によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。【選択図】図2PROBLEM TO BE SOLVED: To provide a driving support device and a driving support method capable of minimizing damage to a driver. A driving support device according to an embodiment includes a detection unit, a determination unit, and an information generation unit. The detection unit detects the behavior of the passenger with respect to the driver of the vehicle based on the captured image of the inside of the vehicle. The determination unit determines whether or not the behavior detected by the detection unit is a damaging behavior that causes damage to the driver. The information generation unit generates damage occurrence information indicating the occurrence of the damage behavior when the determination unit determines that the damage behavior is performed. [Selection diagram] Fig. 2

Description

本発明は、運転支援装置および運転支援方法に関する。   The present invention relates to a driving support device and a driving support method.

従来、例えば車内の様子を撮像した撮像画像を保存するカメラシステムが知られている。また、例えばかかる撮像画像に基づいて運転者の脇見や居眠りといった挙動を検出し、検出した挙動に応じて運転者に対して警告等を行う運転支援装置がある(たとえば、特許文献1参照)。   2. Description of the Related Art Conventionally, for example, a camera system that stores a captured image obtained by capturing an image inside a vehicle is known. Further, for example, there is a driving support device that detects a driver's behavior such as looking aside or falling asleep based on such a captured image, and warns the driver according to the detected behavior (see, for example, Patent Document 1).

特開2016−110449号公報JP 2016-110449 A

しかしながら、従来技術は、運転者自身の挙動に基づいて運転者に危険が迫っていることを警告するものであって、例えば同乗者がいる場合については考慮されていなかった。つまり、従来の装置は、例えば同乗者の車内での行動によって運転者が被害を受けた場合に警告等の対応を行えないため、運転者の被害が拡大するおそれがあった。   However, the prior art warns the driver that the danger is imminent based on the driver's own behavior, and for example, no consideration is given to the case where there is a passenger. That is, the conventional apparatus cannot respond to a warning or the like when the driver is damaged due to, for example, the passenger's behavior in the vehicle, and there is a risk that the driver's damage may be increased.

本発明は、上記に鑑みてなされたものであって、運転者の被害を最小限に抑えることができる運転支援装置および運転支援方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a driving support device and a driving support method capable of minimizing damage to the driver.

上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、検出部と、判定部と、情報生成部とを備える。検出部は、車両の室内の様子を撮像した撮像画像に基づいて前記車両の運転者に対する同乗者の行動を検出する。判定部は、前記検出部によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する。情報生成部は、前記判定部によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する。   In order to solve the above-described problems and achieve the object, the driving support apparatus according to the present invention includes a detection unit, a determination unit, and an information generation unit. The detection unit detects a passenger's behavior with respect to the driver of the vehicle based on a captured image obtained by capturing an image of the interior of the vehicle. The determination unit determines whether or not the behavior detected by the detection unit is a damage behavior that causes damage to the driver. An information generation part produces | generates the damage occurrence information which shows generation | occurrence | production of the said damage action, when it determines with the said damage action by the said determination part.

本発明によれば、運転者の被害を最小限に抑えることができる。   According to the present invention, damage to the driver can be minimized.

図1Aは、実施形態に係る運転支援方法の概要を示す図である。FIG. 1A is a diagram illustrating an outline of a driving support method according to the embodiment. 図1Bは、実施形態に係る運転支援方法の概要を示す図である。FIG. 1B is a diagram illustrating an overview of the driving support method according to the embodiment. 図2は、実施形態に係る運転支援装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of the driving support apparatus according to the embodiment. 図3は、身体の特徴点を示す図である。FIG. 3 is a diagram illustrating body feature points. 図4Aは、行動パターン情報の説明図である。FIG. 4A is an explanatory diagram of behavior pattern information. 図4Bは、音声パターン情報の説明図である。FIG. 4B is an explanatory diagram of audio pattern information. 図5は、判定部の処理内容を示す図である。FIG. 5 is a diagram illustrating processing contents of the determination unit. 図6は、判定部の処理内容を示す図である。FIG. 6 is a diagram illustrating processing contents of the determination unit. 図7は、実施形態に係る運転支援装置が実行する処理の処理手順を示すフローチャートである。FIG. 7 is a flowchart illustrating a processing procedure of processing executed by the driving support apparatus according to the embodiment.

以下、添付図面を参照して、本願の開示する運転支援装置および運転支援方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。   Hereinafter, embodiments of a driving support apparatus and a driving support method disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.

まず、図1Aおよび図1Bを用いて実施形態に係る運転支援方法の概要について説明する。図1Aおよび図1Bは、実施形態に係る運転支援方法の概要を示す図である。図1Aには、実施形態に係る運転支援装置1を搭載した車両Cを示している。   First, the outline | summary of the driving assistance method which concerns on embodiment is demonstrated using FIG. 1A and FIG. 1B. 1A and 1B are diagrams illustrating an outline of a driving support method according to an embodiment. FIG. 1A shows a vehicle C equipped with the driving support device 1 according to the embodiment.

運転支援装置1の搭載対象は、例えばタクシー等のように顧客を頻繁に乗せる、つまり車内に同乗者が存在する可能性が比較的高い車両Cに好適である。なお、図1では、車両Cを普通乗用車の形態で示しているが、これに限定されず、車両Cは、例えばバスやトラックといった大型車両であってもよい。   The mounting target of the driving support device 1 is suitable for a vehicle C on which a customer is frequently placed, for example, a taxi or the like, that is, there is a relatively high possibility that a passenger is present in the vehicle. In FIG. 1, the vehicle C is shown in the form of an ordinary passenger car. However, the present invention is not limited to this, and the vehicle C may be a large vehicle such as a bus or a truck.

また、図1Aには、例えば車内前方に設けられ、車両Cの室内の様子を撮像するカメラである撮像装置10を示している。また、図1Bには、撮像装置10によって撮像された撮像画像Pを示しており、撮像画像Pには、車両Cの運転者100および同乗者110が含まれる。   FIG. 1A shows an imaging apparatus 10 that is a camera that is provided, for example, in the front of the vehicle and that captures the interior of the vehicle C. Further, FIG. 1B shows a captured image P captured by the imaging device 10, and the captured image P includes the driver 100 and the passenger 110 of the vehicle C.

実施形態に係る運転支援方法は、運転者100に対する同乗者110の行動を検出し、検出した行動が運転者100に被害を及ぼす被害行動である場合に、被害行動の発生を示す被害発生情報を生成するものである。   The driving support method according to the embodiment detects the behavior of the passenger 110 with respect to the driver 100, and when the detected behavior is a damaging behavior that causes damage to the driver 100, the damage occurrence information indicating the occurrence of the damaging behavior is displayed. Is to be generated.

ここで、従来の運転支援方法について説明する。従来の運転支援方法は、脇見や居眠り等といった運転者自身の挙動を検出することで、運転者に危険が迫っていることを警告していた。   Here, a conventional driving support method will be described. The conventional driving support method warns the driver that the danger is imminent by detecting the driver's own behavior such as looking aside or falling asleep.

しかしながら、従来は、例えば車内に同乗者がいる場合に、同乗者が起こした車内での行動によって運転者に危険が及ぶことについては考慮されていなかった。例えば、同乗者が運転者の腕を長時間掴むことで運転者自身が怪我をしたり、運転操作が妨げられたりする。つまり、従来は、同乗者の車内での行動によって運転者が被害を受けた場合に警告等の対応を行うことができず、運転者の被害が拡大するおそれがあった。   However, conventionally, for example, when there is a passenger in the vehicle, no consideration has been given to the danger to the driver due to the action in the vehicle caused by the passenger. For example, when the passenger holds the driver's arm for a long time, the driver himself is injured or the driving operation is hindered. That is, conventionally, when the driver is damaged by the passenger's behavior in the vehicle, it is not possible to take a warning or the like, and the driver's damage may be increased.

そこで、実施形態に係る運転支援方法では、例えば同乗者110が運転者100に対して危害を加える行動を起こした場合に、同乗者110に対して警告することとした。具体的には、図1Bに示すように、実施形態に係る運転支援装置1は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する(ステップS1)。   Therefore, in the driving support method according to the embodiment, for example, when the passenger 110 takes an action of causing harm to the driver 100, the passenger 110 is warned. Specifically, as illustrated in FIG. 1B, the driving support device 1 according to the embodiment shows the behavior of the passenger 110 with respect to the driver 100 of the vehicle C based on the captured image P obtained by capturing the interior of the vehicle C. Detect (step S1).

つづいて、実施形態に係る運転支援装置1は、検出した行動が運転者100に被害を及ぼす被害行動であるか否かを判定する(ステップS2)。そして、実施形態に係る運転支援装置1は、同乗者110の行動が被害行動であった場合に、被害行動の発生を示す被害発生情報を生成する(ステップS3)。   Subsequently, the driving support apparatus 1 according to the embodiment determines whether or not the detected action is a damaging action that causes damage to the driver 100 (step S2). And the driving assistance apparatus 1 which concerns on embodiment produces the damage generation | occurrence | production information which shows generation | occurrence | production of damage action, when the action of the passenger 110 is damage action (step S3).

例えば、図1Bに示すように、運転支援装置1は、同乗者110が運転者100の腕を掴んだ行動を被害行動と判定する。そして、運転支援装置1は、例えば被害発生情報として車内にブザー音を出力し、同乗者110に対して警告する。   For example, as illustrated in FIG. 1B, the driving assistance device 1 determines that an action in which the passenger 110 grabs the arm of the driver 100 is a damage action. And the driving assistance device 1 outputs a buzzer sound in the vehicle as damage occurrence information, for example, and warns the passenger 110.

これにより、例えばブザー音を聞いた同乗者110が運転者100の腕を離すといった被害行動をやめることで運転者の危険な状態が改善されることとなる。あるいは、ブザー音によってもなお危険な状態が改善されない場合には、警察等の関係機関に通報することで、運転者100を早期に保護する。   Thereby, for example, the passenger's dangerous state is improved by stopping the damage behavior such that the passenger 110 who hears the buzzer sound releases the arm of the driver 100. Alternatively, if the dangerous state is not improved even by the buzzer sound, the driver 100 is protected early by reporting to related organizations such as the police.

したがって、実施形態に係る運転支援装置1によれば、運転者100に被害が及ぶ被害行動を検出し、例えば警告や通報等を行うことで、運転者100の被害を最小限に抑えることができる。   Therefore, according to the driving support apparatus 1 according to the embodiment, the damage to the driver 100 can be minimized by detecting a damage action that causes damage to the driver 100 and performing, for example, a warning or a notification. .

なお、実施形態に係る運転支援装置1は、ブザー音による警告や警察等の関係機関への通報を行うための被害発生情報を生成する場合に限らず、被害行動当時の車内の様子を録画することで被害発生情報を生成してもよいが、かかる点については後述する。   The driving support device 1 according to the embodiment is not limited to the case of generating damage occurrence information for warning by a buzzer sound or reporting to related organizations such as the police, but records the state in the vehicle at the time of the damage action. The damage occurrence information may be generated as described above, but this point will be described later.

なお、実施形態に係る運転支援装置1は、例えば腕を掴む等の同乗者110が運転者100に触れる接触行動を被害行動として判定するが、かかる点の詳細については図5を用いて後述する。   Note that the driving support apparatus 1 according to the embodiment determines a contact action that the passenger 110 touches the driver 100, for example, grasps an arm as a damage action, and details of this point will be described later with reference to FIG. .

また、実施形態に係る運転支援装置1は、例えば座席シートや窓ガラスといった車両Cの備品に対して行う対物行動と、対物行動に伴う車両Cの振動に基づいて被害行動を判定するが、かかる点の詳細については、図6を用いて後述する。   Moreover, although the driving assistance apparatus 1 which concerns on embodiment determines damage action based on the objective action performed with respect to the fixtures of the vehicle C, such as a seat sheet and a window glass, and the vibration of the vehicle C accompanying an objective action, it takes, Details of the points will be described later with reference to FIG.

また、実施形態に係る運転支援装置1は、例えば、同乗者が刃物や拳銃といった道具を所持していた場合に、被害行動と判定するが、かかる点についても後述する。   In addition, the driving support device 1 according to the embodiment determines that the behavior is damaging when, for example, the passenger carries a tool such as a knife or a handgun, which will be described later.

次に、図2を参照して、実施形態に係る運転支援装置1の構成について詳細に説明する。図2は、実施形態に係る運転支援装置1の構成を示すブロック図である。   Next, with reference to FIG. 2, the structure of the driving assistance apparatus 1 which concerns on embodiment is demonstrated in detail. FIG. 2 is a block diagram illustrating a configuration of the driving support device 1 according to the embodiment.

図2に示すように、実施形態に係る運転支援装置1は、撮像装置10と、マイク11と、位置取得部12と、車速センサ13と、加速度センサ14と、警告装置20と、通報装置30とに接続される。まず、運転支援装置1以外の構成について説明する。   As illustrated in FIG. 2, the driving support device 1 according to the embodiment includes an imaging device 10, a microphone 11, a position acquisition unit 12, a vehicle speed sensor 13, an acceleration sensor 14, a warning device 20, and a notification device 30. And connected to. First, a configuration other than the driving support device 1 will be described.

撮像装置10は、例えば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。   The imaging device 10 is an in-vehicle camera including, for example, a lens such as a fisheye lens and an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).

撮像装置10は、例えば車内の前方から後方を撮像する位置(図1参照)に設けられ、車内の運転者100および同乗者110を含むような撮像画像Pを撮像し、運転支援装置1へ出力する。   The imaging device 10 is provided, for example, at a position (see FIG. 1) for imaging from the front to the rear in the vehicle, captures a captured image P including the driver 100 and the passenger 110 in the vehicle, and outputs the captured image P to the driving support device 1 To do.

なお、撮像装置10は、車内の前方に設けられる場合に限定されず、車内の側方等であってもよく、撮像画像Pに運転者100および同乗者110が含まれる位置に設けられればよい。また、撮像装置10は、車内において複数の位置に設けられてもよく、かかる場合には、複数の撮像画像Pを運転支援装置1へ出力する。   The imaging device 10 is not limited to being provided in front of the vehicle, and may be on the side of the vehicle, and may be provided at a position where the driver 100 and the passenger 110 are included in the captured image P. . The imaging device 10 may be provided at a plurality of positions in the vehicle. In such a case, the plurality of captured images P are output to the driving support device 1.

マイク11は、車両Cに搭載されて車内に発生する音声を集音し、運転支援装置1へ出力する。位置取得部12は、例えばGPS(Global Positioning System)衛星からの信号に基づいて車両Cの現在位置を検出し、現在位置の情報として運転支援装置1へ出力する。   The microphone 11 is mounted on the vehicle C and collects sound generated in the vehicle and outputs the sound to the driving support device 1. The position acquisition unit 12 detects the current position of the vehicle C based on, for example, a signal from a GPS (Global Positioning System) satellite, and outputs the current position information to the driving support device 1 as information on the current position.

車速センサ13は、車両Cにおける車軸の回転数に応じたパルス信号を発生させるとともに、かかるパルス信号に基づいて車両Cの現在の走行速度を検出し、運転支援装置1へ出力する。   The vehicle speed sensor 13 generates a pulse signal corresponding to the number of rotations of the axle in the vehicle C, detects the current traveling speed of the vehicle C based on the pulse signal, and outputs it to the driving support device 1.

加速度センサ14は、車両Cに加わる加速度を検出して運転支援装置1へ出力する。かかる加速度センサ14は、例えば、互いに直交する3軸方向の加速度を検出する3軸加速度センサを用いることができる。   The acceleration sensor 14 detects the acceleration applied to the vehicle C and outputs it to the driving support device 1. As the acceleration sensor 14, for example, a triaxial acceleration sensor that detects acceleration in three axial directions orthogonal to each other can be used.

なお、加速度センサ14は、例えばエアバッグECU(Electronic Control Unit)に設けられた加速度センサを用いることができるが、これに限らず、例えばドライブレコーダ等の他の電子装置に搭載された加速度センサを用いてもよい。   As the acceleration sensor 14, for example, an acceleration sensor provided in an airbag ECU (Electronic Control Unit) can be used. However, the present invention is not limited to this, and an acceleration sensor mounted in another electronic device such as a drive recorder is used. It may be used.

警告装置20は、運転支援装置1から出力される被害発生情報に基づき、例えば車両Cに設けられたブザーやホーン等を制御して車両Cの内外へ音を発する装置である。例えば、警告装置20は、車内にブザー音を発することで、同乗者110に対して警告を行ったり、ホーンを鳴らして車両Cの周囲へ被害行動の発生を知らせたりすることができる。   The warning device 20 is a device that emits sound in and out of the vehicle C by controlling, for example, a buzzer, a horn, and the like provided in the vehicle C based on the damage occurrence information output from the driving support device 1. For example, the warning device 20 can give a warning to the passenger 110 by emitting a buzzer sound in the vehicle, or can sound a horn to inform the surroundings of the vehicle C of the occurrence of the damaging behavior.

なお、警告装置20は、ブザーやホーンといった音を用いた警告に限らず、例えば車両Cの外部を照らすライトや、室内灯等を制御することで光を用いた警告を行うこともできる。   Note that the warning device 20 is not limited to a warning using sounds such as a buzzer or a horn, but can also give a warning using light by controlling, for example, a light that illuminates the outside of the vehicle C, a room light, or the like.

通報装置30は、例えばDCM(Data Communication Module)等のテレマティクスサービスに用いられる通信モジュールを備え、運転支援装置1から出力される被害発生情報に基づき、例えば警察等の関係機関に緊急通報する装置である。   The notification device 30 includes a communication module used for a telematics service such as DCM (Data Communication Module), for example, and is a device that makes an emergency call to related organizations such as the police based on damage occurrence information output from the driving support device 1. is there.

具体的には、通報装置30は、携帯電話網やインターネット網といった通信網を介して図示しないサーバ装置へ被害発生情報を送信し、サーバ装置が被害発生情報に基づいて関係機関へ通報する。   Specifically, the reporting device 30 transmits damage occurrence information to a server device (not shown) via a communication network such as a mobile phone network or the Internet network, and the server device reports to related organizations based on the damage occurrence information.

かかる場合、被害発生情報には、位置取得部12が取得した車両Cの現在位置の情報を含ませることが好ましい。これにより、緊急通報を受けた警察等が現場へいち早く到達できるため、運転者100を早期に保護することができる。   In such a case, it is preferable to include information on the current position of the vehicle C acquired by the position acquisition unit 12 in the damage occurrence information. Thereby, since the police etc. which received the emergency call can reach the spot quickly, the driver 100 can be protected early.

次に、実施形態に係る運転支援装置1について説明する。運転支援装置1は、制御部2と、記憶部3とを備える。制御部2は、検出部21と、振動検出部22と、判定部23と、情報生成部24とを備える。記憶部3は、画像情報31と、被害行動情報32を記憶する。   Next, the driving assistance device 1 according to the embodiment will be described. The driving support device 1 includes a control unit 2 and a storage unit 3. The control unit 2 includes a detection unit 21, a vibration detection unit 22, a determination unit 23, and an information generation unit 24. The storage unit 3 stores image information 31 and damage behavior information 32.

ここで、運転支援装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。   Here, the driving support device 1 is, for example, a computer having various functions such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), an input / output port, and the like. including.

コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の検出部21、振動検出部22、判定部23および情報生成部24として機能する。   The CPU of the computer functions as the detection unit 21, the vibration detection unit 22, the determination unit 23, and the information generation unit 24 of the control unit 2 by reading and executing a program stored in the ROM, for example.

また、制御部2の検出部21、振動検出部22、判定部23および情報生成部24の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。   In addition, at least one or all of the detection unit 21, the vibration detection unit 22, the determination unit 23, and the information generation unit 24 of the control unit 2 are configured as hardware such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). It can also be configured with wear.

また、記憶部3は、たとえば、RAMやHDDに対応する。RAMやHDDは、画像情報31や被害行動情報32、各種プログラムの情報等を記憶することができる。なお、運転支援装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。   The storage unit 3 corresponds to, for example, a RAM or an HDD. The RAM and HDD can store image information 31, damage behavior information 32, information on various programs, and the like. The driving support device 1 may acquire the above-described program and various types of information via another computer or a portable recording medium connected via a wired or wireless network.

画像情報31は、撮像装置10が定期的に撮像した時系列の撮像画像Pを含む情報である。また、記憶部3は、後述する情報生成部24の指示に従って、画像情報31のうち、運転者100の被害発生当時に撮像された撮像画像Pを被害発生情報として記憶する。被害発生情報における画像情報31の保存方法については、トリガー式および常時録画式のいずれの方式であってもよいがかかる点については後述する。   The image information 31 is information including a time-series captured image P periodically captured by the imaging device 10. In addition, the storage unit 3 stores, as the damage occurrence information, the captured image P captured at the time of the occurrence of the damage of the driver 100 in the image information 31 in accordance with an instruction from the information generation unit 24 described later. The method for saving the image information 31 in the damage occurrence information may be either a trigger type or a constant recording type, but this point will be described later.

制御部2は、運転者100に対する同乗者110の行動を検出し、検出した行動が運転者100に被害を及ぼす被害行動である場合に、被害行動の発生を示す被害発生情報を生成する。   The control unit 2 detects the behavior of the passenger 110 with respect to the driver 100, and generates damage occurrence information indicating the occurrence of the damage behavior when the detected behavior is damage behavior that causes damage to the driver 100.

検出部21は、撮像装置10、マイク11、位置取得部12および車速センサ13等の各種情報に基づいて同乗者110の行動を検出する。   The detection unit 21 detects the behavior of the passenger 110 based on various information such as the imaging device 10, the microphone 11, the position acquisition unit 12, and the vehicle speed sensor 13.

例えば、検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する。ここで、図3を用いて、検出部21の具体的な検出処理について説明する。   For example, the detection unit 21 detects the behavior of the passenger 110 with respect to the driver 100 of the vehicle C based on the captured image P obtained by imaging the interior of the vehicle C. Here, a specific detection process of the detection unit 21 will be described with reference to FIG.

図3は、同乗者110の身体の特徴点を示す図である。なお、図3には、人の特徴点の一例を示しているに過ぎず、特徴点の位置や数は任意に設定することができる。   FIG. 3 is a view showing feature points of the passenger 110's body. Note that FIG. 3 only shows an example of human feature points, and the position and number of feature points can be arbitrarily set.

図3に示すように、検出部21は、車内に存在する同乗者110の身体の各部の特徴点j1〜j20を検出し、かかる特徴点j1〜j20に基づいて同乗者110の姿勢や向きを解析することで同乗者110の様々な行動を検出する。   As shown in FIG. 3, the detection unit 21 detects feature points j1 to j20 of each part of the passenger 110 body present in the vehicle, and determines the posture and orientation of the passenger 110 based on the feature points j1 to j20. By analyzing, various actions of the passenger 110 are detected.

具体的には、図3において、同乗者110の行動を規定する20個の特徴点j1〜j20を一例として示している。なお、特徴点j1〜j4は順に、頭部、肩部中央、旋回部、尻部中央にそれぞれ対応する。また、特徴点j5〜j8は順に、右手先、右手首、右肘、肩部右にそれぞれ対応する。   Specifically, in FIG. 3, 20 feature points j1 to j20 that define the behavior of the passenger 110 are shown as an example. Note that the feature points j1 to j4 correspond to the head, the shoulder center, the turning portion, and the hip center in order. Further, the feature points j5 to j8 correspond to the right hand tip, the right wrist, the right elbow, and the shoulder right, respectively, in order.

また、特徴点j9〜j12は順に、尻部右、右膝、右足首、右足先にそれぞれ対応する。また、特徴点j13〜j16は順に、左手先、左手首、左肘、肩部左にそれぞれ対応する。また、特徴点j17〜j20は順に、尻部左、左膝、左足首、左足先にそれぞれ対応する。各特徴点j1〜j20は、例えばXY平面上における座標位置として表現される。   Also, the feature points j9 to j12 correspond to the right hip, the right knee, the right ankle, and the right foot, respectively, in order. Further, the feature points j13 to j16 correspond to the left hand tip, the left wrist, the left elbow, and the left shoulder part in order. Also, the feature points j17 to j20 correspond to the left hip, the left knee, the left ankle, and the left foot, respectively, in order. Each feature point j1 to j20 is expressed as a coordinate position on the XY plane, for example.

つまり、検出部21は、同乗者110が身体を動かした場合におけるこれら特徴点j1〜j20の位置関係を把握することで同乗者110の姿勢や向きを解析する。   That is, the detection unit 21 analyzes the posture and orientation of the passenger 110 by grasping the positional relationship between the feature points j1 to j20 when the passenger 110 moves the body.

なお、検出部21は、同乗者110の特徴点j1〜j20を検出する前に、運転者100の身体の特徴点を予め規定しておくことが好ましい。例えば、検出部21は、運転支援装置1の起動直後、すなわち同乗者110がいない状態で、特徴点の検出処理を行い、運転者100の特徴点を予め検出しておく。これにより、検出される特徴点が運転者100のものであるか同乗者110のものであるかの判別が可能となる。   Note that the detection unit 21 preferably predefines the body feature points of the driver 100 before detecting the feature points j1 to j20 of the passenger 110. For example, the detection unit 21 performs feature point detection processing immediately after the driving support device 1 is started, that is, without the passenger 110, and detects the feature point of the driver 100 in advance. Thereby, it is possible to determine whether the detected feature point belongs to the driver 100 or the passenger 110.

振動検出部22は、例えば加速度センサ14の検出値に基づいて車両Cに発生する振動を検出する。例えば、振動検出部22は、検出部21によって検出された同乗者110の行動に伴う車両Cの振動を検出する。具体的には、振動検出部22は、検出部21の検出時刻と、加速度センサ14の検出値とを対応付けることで、同乗者110の行動に伴う車両Cの振動を検出する。   The vibration detection unit 22 detects vibration generated in the vehicle C based on the detection value of the acceleration sensor 14, for example. For example, the vibration detection unit 22 detects the vibration of the vehicle C accompanying the action of the passenger 110 detected by the detection unit 21. Specifically, the vibration detection unit 22 detects the vibration of the vehicle C accompanying the action of the passenger 110 by associating the detection time of the detection unit 21 with the detection value of the acceleration sensor 14.

なお、車両Cが走行しているときに、同乗者110の行動に伴う車両Cの振動と、走行による車両Cの振動とが区別しにくい場合は、車両Cが停車しているときに限り振動検出部22により振動を検出するようにしてもよい。   In addition, when the vehicle C is traveling, if it is difficult to distinguish the vibration of the vehicle C due to the action of the passenger 110 and the vibration of the vehicle C due to traveling, the vibration will occur only when the vehicle C is stopped. The vibration may be detected by the detection unit 22.

判定部23は、検出部21によって検出された同乗者110の行動が運転者100に被害を及ぼす被害行動であるか否かを判定する。具体的には、判定部23は、記憶部3に記憶された被害行動情報32に基づいて被害行動の有無を判定する。   The determination unit 23 determines whether or not the behavior of the passenger 110 detected by the detection unit 21 is a damaging behavior that causes damage to the driver 100. Specifically, the determination unit 23 determines the presence / absence of the damage behavior based on the damage behavior information 32 stored in the storage unit 3.

被害行動情報32は、行動パターン情報32aおよび音声パターン情報32bを含んだ情報であり、判定部23による被害行動の判定基準となる情報である。ここで、図4Aおよび図4Bを用いて被害行動情報32について説明する。   The damage behavior information 32 is information including the behavior pattern information 32a and the voice pattern information 32b, and is information serving as a criterion for determining the damage behavior by the determination unit 23. Here, the damage behavior information 32 will be described with reference to FIGS. 4A and 4B.

図4Aは、行動パターン情報32aの説明図である。図4Bは、音声パターン情報32bの説明図である。まず、図4Aを用いて行動パターン情報32aについて説明する。図4Aに示すように、行動パターン情報32aには、様々な被害行動のパターンに関する情報が予め登録される。   FIG. 4A is an explanatory diagram of the behavior pattern information 32a. FIG. 4B is an explanatory diagram of the audio pattern information 32b. First, the behavior pattern information 32a will be described with reference to FIG. 4A. As shown in FIG. 4A, information regarding various patterns of damage behavior is registered in advance in the behavior pattern information 32a.

行動パターン情報32aは、例えば、「行動種別」と、「特徴点画像」とを含んだ情報である。「行動種別」は、被害行動の種別を示す情報である。「特徴点画像」は、検出部21によって検出された同乗者110の特徴点j1〜j20の位置パターンを示す画像の情報である。なお、「特徴点画像」は、静止画であってもよく、動画であってもよい。   The behavior pattern information 32a is information including “behavior type” and “feature point image”, for example. “Behavior type” is information indicating the type of damage behavior. The “feature point image” is image information indicating a position pattern of the feature points j1 to j20 of the passenger 110 detected by the detection unit 21. The “feature point image” may be a still image or a moving image.

例えば、図4Aには、同乗者110が運転者100の腕等を掴む場合の「掴む」と、同乗者110が運転者100を殴る場合の「殴る」における「特徴点画像」を示した。なお、図4Aに示す「特徴点画像」のパターンは、代表例に過ぎず、実際には、例えば「殴る」の「特徴点画像」の中には、様々な「殴る」に関するパターンの「特徴点画像」が含まれている。   For example, FIG. 4A shows “feature point images” in “gripping” when the passenger 110 grabs the arm 100 of the driver 100 and “ruling” when the passenger 110 hits the driver 100. Note that the “feature point image” pattern shown in FIG. 4A is merely a representative example. In fact, for example, “feature” “feature point images” include various “feature” pattern “features”. Point images "are included.

例えば、「掴む」の「特徴点画像」は、同乗者110の右手先の特徴点j5(または左手先の特徴点j13)(図3参照)が運転者100の位置に所定時間留まっている動画を示している。   For example, the “feature point image” of “grab” is a moving image in which the feature point j5 of the right hand of the passenger 110 (or the feature point j13 of the left hand) (see FIG. 3) remains at the position of the driver 100 for a predetermined time. Is shown.

また、例えば、「殴る」の「特徴点画像」は、同乗者110の右手先の特徴点j5(または左手先の特徴点j13)が運転者100の位置へ所定の移動速度で到達した動画を示している。なお、特徴点j5の移動速度は、例えば、撮像画像Pから抽出される特徴点j5のベクトルの大きさから算出可能である。   Further, for example, the “feature point image” of “speak” is a moving image in which the feature point j5 (or the feature point j13 of the left hand) of the passenger 110 reaches the position of the driver 100 at a predetermined moving speed. Show. Note that the moving speed of the feature point j5 can be calculated from the magnitude of the vector of the feature point j5 extracted from the captured image P, for example.

つまり、判定部23は、検出部21が検出した特徴点j1〜j20と、行動パターン情報32aとの比較を行うことによって、同乗者110が行った行動が被害行動であるか否かを判定する。そして、判定部23は、同乗者110が行った行動が行動パターン情報32aにマッチングする、つまり、被害行動のパターンと一致した場合に、被害行動であると判定する。   That is, the determination unit 23 determines whether or not the action performed by the passenger 110 is a damaging action by comparing the feature points j1 to j20 detected by the detection unit 21 with the action pattern information 32a. . And the determination part 23 determines with it being a damage action, when the action which the passenger 110 performed matches with the action pattern information 32a, ie, it corresponds with the pattern of damage action.

このように、判定部23は、同乗者110の身体の特徴点に基づいてパターンマッチングを行うことで、正確に同乗者110の被害行動を判定することができる。   As described above, the determination unit 23 can accurately determine the damaging behavior of the passenger 110 by performing pattern matching based on the body feature points of the passenger 110.

なお、判定部23は、検出部21によってすべて(図3では20個)の特徴点j1〜j20が検出されなくとも、「特徴点画像」の一部の特徴点が検出されれば足りる。つまり、判定部23は、検出部21によって検出された同乗者110の一部の特徴点と、「特徴点画像」の一部の特徴点とが一致した場合に、被害行動として判定してもよい。   Note that the determination unit 23 only needs to detect some feature points of the “feature point image” even if the detection unit 21 does not detect all (20 in FIG. 3) feature points j1 to j20. That is, the determination unit 23 may determine that the behavior is a damage action when some of the feature points of the passenger 110 detected by the detection unit 21 match some of the feature points of the “feature point image”. Good.

また、同乗者は座席に座っているため、被害行動をおこす場合でも下半身が動くことは少ないため、「特徴点画像」は上半身だけのデータにしてもよい。これによりメモリ容量を削減できる。   Further, since the passenger is sitting on the seat, the lower body hardly moves even when performing the damage behavior, so the “feature point image” may be data only for the upper body. Thereby, the memory capacity can be reduced.

さらに、判定部23は、図4Bに示す音声パターン情報32bを用いて、同乗者110の発話内容を加味して被害行動を判定してもよい。図4Bに示すように、音声パターン情報32bは、例えば、「音声種別」と「文字情報」とを含んだ情報である。   Furthermore, the determination unit 23 may determine the damage behavior using the voice pattern information 32b illustrated in FIG. 4B in consideration of the utterance content of the passenger 110. As shown in FIG. 4B, the voice pattern information 32b is information including “voice type” and “character information”, for example.

図4Bに示すように、音声パターン情報32bは、例えば同乗者110が運転者100に危害を加える前に発したり、運転者100を威嚇するために発したりする危険キーワードが予め登録された情報である。音声パターン情報32bは、例えば「音声種別」と「文字情報」とが関連付けされた情報である。   As shown in FIG. 4B, the voice pattern information 32b is information in which risk keywords that are issued before the passenger 110 inflicts harm to the driver 100 or issued to threaten the driver 100 are registered in advance. is there. The voice pattern information 32b is information in which “voice type” and “character information” are associated with each other, for example.

判定部23は、検出部21がマイク11から検出した同乗者110の発話内容を示す音声に予め定められた危険キーワードが含まれる場合に、かかる音声が被害行動であると判定する。   The determination unit 23 determines that the voice is a damaging action when a predetermined risk keyword is included in the voice indicating the utterance content of the passenger 110 detected by the detection unit 21 from the microphone 11.

具体的には、判定部23は、検出部21によって検出された音声をテキスト化した音声文字情報に変換し、音声文字情報の中に、音声パターン情報32bの「文字情報」に一致するものがあれば、かかる音声を被害行動として判定する。   Specifically, the determination unit 23 converts the voice detected by the detection unit 21 into voiced text information converted into text, and the voice text information that matches the “character information” of the voice pattern information 32b. If there is such a voice, the voice is determined as a damage behavior.

つまり、判定部23は、危険キーワードのような物理的な危害を加える前に発する音声を検出して、例えば警告装置20により警告を行うことで、同乗者110が行おうとしている被害行動を未然に防ぐことができる。   In other words, the determination unit 23 detects the voice that is uttered before the physical harm such as the danger keyword, and gives a warning by the warning device 20, for example, to determine the damage behavior that the passenger 110 is about to perform. Can be prevented.

なお、例えば図4Bに示す「おい」のように、「文字情報」の文字数が比較的少ない場合、判定部23は、例えば検出部21が検出した音声を解析することでかかる音声の抑揚等を検出して被害行動の判定を行うことが好ましい。   For example, when the number of characters in the “character information” is relatively small as “oi” shown in FIG. 4B, the determination unit 23 analyzes the speech detected by the detection unit 21, for example, to suppress the speech. It is preferable to detect and determine the damage behavior.

また、判定部23は、同乗者110の特徴点j1〜j20に基づいて被害行動を検出したが、これに限定されず、同乗者110に加えて運転者100の特徴点を加味して被害行動を検出することとしてもよい。かかる点について図5を用いて説明する。   Moreover, although the determination part 23 detected the damage action based on the passenger's 110 feature points j1-j20, it is not limited to this, A damage action is considered in addition to the passenger 110 and the driver's 100 feature point. May be detected. This point will be described with reference to FIG.

図5は、判定部23の判定内容を示す図である。図5には、同乗者110が運転者100を掴む状況を撮像した撮像画像Pを示している。また、図5には、かかる撮像画像Pから検出された運転者100の特徴点aj15,aj16と、同乗者110の特徴点j5とを示している。   FIG. 5 is a diagram illustrating the determination contents of the determination unit 23. FIG. 5 shows a captured image P obtained by capturing a situation where the passenger 110 holds the driver 100. FIG. 5 shows feature points aj15 and aj16 of the driver 100 detected from the captured image P and a feature point j5 of the passenger 110.

なお、図5において、図の見易さの観点から運転者100の左肘および肩部左の特徴点aj15,aj16を含む運転者100の他の特徴点を白丸で示している。また、同乗者110の特徴点についても同様に、右手先の特徴点j5を含む他の特徴点を黒丸で示している。   In FIG. 5, other feature points of the driver 100 including the feature points aj15 and aj16 on the left elbow and shoulder left of the driver 100 are shown by white circles from the viewpoint of easy viewing. Similarly, with respect to the feature points of the passenger 110, other feature points including the right-hand feature point j5 are indicated by black circles.

図5に示すように、判定部23は、検出部21によって検出された同乗者110の行動が運転者100に触れる接触行動であった場合に、かかる行動を被害行動と判定する。   As illustrated in FIG. 5, when the behavior of the passenger 110 detected by the detection unit 21 is a contact behavior that touches the driver 100, the determination unit 23 determines the behavior as a damage behavior.

具体的には、判定部23は、運転者100の特徴点(例えば特徴点aj15,aj16)および同乗者110の特徴点j1〜j20の座標の位置関係に基づき、検出部21が検出した行動が接触行動であるか否かを判定する。   Specifically, the determination unit 23 determines whether the behavior detected by the detection unit 21 is based on the positional relationship between the feature points of the driver 100 (for example, feature points aj15 and aj16) and the feature points j1 to j20 of the passenger 110. It is determined whether or not it is a contact action.

例えば、図5に示すように、判定部23は、運転者100の左肘および肩部左の特徴点aj15,aj16を結ぶ線上に、同乗者110の右手先の特徴点j5が重なった場合に、接触行動であると判定する。   For example, as illustrated in FIG. 5, the determination unit 23 determines that the feature point j5 on the right hand of the passenger 110 overlaps the line connecting the feature points aj15 and aj16 on the left elbow and shoulder left of the driver 100. It is determined that it is a contact action.

このように、同乗者110が運転者100に直接触れたことをトリガーとすることで、被害行動の発生の誤検知を防止することができるとともに、確実に被害行動を検出することができる。   Thus, by using the passenger 110 directly touching the driver 100 as a trigger, it is possible to prevent erroneous detection of occurrence of damage behavior and to reliably detect damage behavior.

なお、同乗者が乗車賃を運転者に支払う際、お金を運転者に手渡しする場合があるため、これを接触行動であると判定しないようにしておくことが望ましい。そのためには、例えば、停車中であり、かつ同乗者の手先が運転者の手先に接触した場合は、その接触行動は乗車賃の支払い行為であると判定し、被害行動とは判定しないようにすればよい。または、画像で接触行為を判定したときは、音声も加味し、乗車賃の支払いに関する一連の会話(例えば、「○○円です。」「△△円でお釣りお願いします。」「はい、お釣りです。」)であった場合は被害行動とは判定しないようにすればよい。   Note that when the passenger pays the fare to the driver, money may be handed over to the driver, so it is desirable not to determine that this is a contact action. To do so, for example, if the passenger's hand touches the driver's hand while the vehicle is stopped, it is determined that the contact action is an act of paying the fare, and not a damage action. do it. Or, when the contact action is judged by the image, the voice is also taken into account, and a series of conversations related to payment of the fare (for example, “○○ yen.” “△△ yen please change.” “Yes, change If it is ")", it is sufficient not to determine that it is a damaging action.

なお、判定部23は、2次元平面における特徴点の位置関係に基づいて接触行動の有無を判定する場合に限定されず、例えば撮像装置10の取付位置に基づいて算出される撮像画像Pの奥行方向を加味した3次元空間における特徴点の位置関係に基づいて接触行動の有無を判定してもよい。これにより、判定部23は、より正確に接触行動を判定することができる。   Note that the determination unit 23 is not limited to the case where the presence / absence of the contact action is determined based on the positional relationship between the feature points on the two-dimensional plane. For example, the depth of the captured image P calculated based on the attachment position of the imaging device 10 You may determine the presence or absence of a contact action based on the positional relationship of the feature point in the three-dimensional space which considered the direction. Thereby, the determination part 23 can determine a contact action more correctly.

また、判定部23は、同乗者110が運転者100に直接触れる行動を被害行動として判定したが、これに限定されず、同乗者110が運転者100に対して間接的に行った行動に基づいて被害行動の有無を判定してもよい。かかる点について、図6を用いて説明する。   Moreover, although the determination part 23 determined the action which the passenger 110 touches the driver 100 directly as a damage action, it is not limited to this, Based on the action which the passenger 110 performed indirectly with respect to the driver 100 The presence or absence of damage behavior may be determined. This point will be described with reference to FIG.

図6は、判定部23の判定内容を示す図である。図6には、後部座席に着座した同乗者110が運転者100の着座する座席を蹴る場面を示している。図6に示すように、同乗者110が座席を比較的強く蹴る行動(運転者100が驚く程度)を行った場合、かかる行動に伴って車両Cが振動することが多い。   FIG. 6 is a diagram illustrating the determination contents of the determination unit 23. FIG. 6 shows a scene in which the passenger 110 seated on the rear seat kicks the seat on which the driver 100 is seated. As shown in FIG. 6, when the passenger 110 performs an action of kicking the seat relatively strongly (the driver 100 is surprised), the vehicle C often vibrates with the action.

判定部23は、かかる振動に着目して被害行動の有無を判定する。具体的には、図6に示すように、判定部23は、検出部21によって検出された同乗者110の行動が車両Cの備品に対して行う対物行動であり、かつ、振動検出部22によって検出された振動の検出値が所定値以上であった場合に、かかる行動を被害行動と判定する。   The determination unit 23 determines the presence / absence of the damage behavior by paying attention to the vibration. Specifically, as shown in FIG. 6, the determination unit 23 is an objective action that the action of the passenger 110 detected by the detection part 21 performs on the equipment of the vehicle C, and the vibration detection part 22 If the detected value of the detected vibration is equal to or greater than a predetermined value, this action is determined as a damage action.

そして、例えば対物行動の様子を録画しておくことで、車両Cの備品が破損した場合等に、損害賠償を請求する際の有用な証拠として録画した撮像画像Pを用いることができる。   Then, for example, by recording the state of the objective action, when the equipment of the vehicle C is damaged, the recorded captured image P can be used as useful evidence when claiming damages.

なお、車両Cの備品に対する対物行動は、運転者100の着座する座席を蹴る行動以外に、例えば車両Cのドアや窓ガラスを叩く行動等であってもよく、運転者100の運転の妨げや車両Cの備品の損害に繋がる行動であればよい。   The objective action on the equipment of the vehicle C may be, for example, an action of hitting a door or window glass of the vehicle C other than the action of kicking the seat on which the driver 100 is seated. Any action that leads to damage to the equipment of the vehicle C may be used.

また、判定部23は、運転者100や車両Cの備品に対する行動のように、人や物に対して直接的に危害を加える行動の場合に被害行動として判定したが、例えば、同乗者110が所持する道具に基づいて被害行動を判定してもよい。   Moreover, although the determination part 23 determined as a damage action in the case of the action which directly harms a person or an object like the action with respect to the driver | operator 100 or the equipment of the vehicle C, for example, the passenger 110 The damage behavior may be determined based on the possessed tool.

具体的には、判定部23は、検出部21によって検出された同乗者110の行動が運転者100に対して被害を与えるための道具の所持であった場合に、かかる行動を被害行動と判定する。   Specifically, when the behavior of the passenger 110 detected by the detection unit 21 is possession of a tool for causing damage to the driver 100, the determination unit 23 determines that the behavior is a damage behavior. To do.

例えば、検出部21は、撮像画像Pに基づいて刃物等の鋭利な金属部材の所持を検出する。より具体的には、検出部21は、金属部材により光の反射を検出することで刃物の所持を検出する。なお、検出部21は、例えばパターンマッチングにより刃物を検出することもできる。   For example, the detection unit 21 detects possession of a sharp metal member such as a blade based on the captured image P. More specifically, the detection unit 21 detects possession of the blade by detecting reflection of light with a metal member. In addition, the detection part 21 can also detect a blade by pattern matching, for example.

また、検出部21は、鋭利な金属部材の道具に限らず、鈍器等の刃の無い道具や銃等の標的に物体を飛ばすことで被害を与える道具等の所持を検出することとしてもよい。   The detection unit 21 is not limited to a sharp metal member tool, and may detect possession of a tool that does not have a blade such as a blunt tool or a tool that causes damage by flying an object to a target such as a gun.

このように、運転者100に対して被害を与えることが可能な道具を検出することで、運転者100がかかる道具によって怪我することを未然に防ぐことができる。   Thus, by detecting a tool that can cause damage to the driver 100, the driver 100 can be prevented from being injured by the tool.

また、判定部23は、車両Cの走行速度を考慮して被害行動の有無を判定してもよい。具体的には、判定部23は、車両Cの走行速度がゼロ、すなわち車両Cが停止している場合に、検出部21による検出感度を同乗者110の右または左の手先において高く設定する。   Further, the determination unit 23 may determine the presence / absence of the damage behavior in consideration of the traveling speed of the vehicle C. Specifically, the determination unit 23 sets the detection sensitivity of the detection unit 21 to be high at the right or left hand of the passenger 110 when the traveling speed of the vehicle C is zero, that is, when the vehicle C is stopped.

これにより、例えばタクシー等において同乗者110が料金の支払いを拒否して運転者100に危害を加える行動を行おうとした場合に、かかる行動をいち早く検出して運転者100に通知することができる。したがって、危害を加えようとしている同乗者110から運転者100が容易に逃れることができる。   As a result, for example, when the passenger 110 refuses to pay the fare and performs an action that causes harm to the driver 100 in a taxi or the like, such action can be detected quickly and notified to the driver 100. Therefore, the driver 100 can easily escape from the passenger 110 who is trying to cause harm.

また、例えば、判定部23は、運転者100の生体情報を加味して被害行動を判定してもよい。具体的には、判定部23は、例えば運転者100毎に、平常時の脈拍や体温等の生体情報を学習しておき、同乗者110の行動によってこれらの生体情報が異常値となった場合に、かかる行動を被害行動と判定する。   Further, for example, the determination unit 23 may determine the damage behavior taking into account the biological information of the driver 100. Specifically, the determination unit 23 learns biological information such as a normal pulse and body temperature for each driver 100, for example, and the biological information becomes an abnormal value due to the behavior of the passenger 110. In addition, such an action is determined as a damage action.

これは、同乗者110の行動によって受ける被害の程度が運転者100毎に異なるためである。すなわち、判定部23は、運転者100の平常時の生体情報を予め学習しておくことで、運転者100それぞれに応じて適切な判定処理を行うことができる。   This is because the degree of damage caused by the behavior of the passenger 110 is different for each driver 100. That is, the determination unit 23 can perform appropriate determination processing according to each of the drivers 100 by learning in advance the normal biological information of the driver 100 in advance.

情報生成部24は、判定部23によって同乗者110の行動が被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。例えば、情報生成部24は、同乗者110に対して警告する警告情報を被害発生情報として生成する。   The information generation unit 24 generates damage occurrence information indicating the occurrence of damage behavior when the determination unit 23 determines that the behavior of the passenger 110 is damage behavior. For example, the information generation unit 24 generates warning information for warning the passenger 110 as damage occurrence information.

具体的には、情報生成部24は、同乗者110に対して音や光を発するための警告情報を生成し、警告装置20へ出力する。なお、警告装置20が発する音は、ビープ音等の単一音に限らず、音声であってもよい。   Specifically, the information generation unit 24 generates warning information for emitting sound or light to the passenger 110 and outputs the warning information to the warning device 20. Note that the sound generated by the warning device 20 is not limited to a single sound such as a beep sound, but may be a sound.

これにより、同乗者110が行っている被害行動をやめさせたり、音や光により同乗者110を怯ませて運転者100に逃げる隙を与えたりすることができる。   As a result, it is possible to stop the damaging behavior performed by the passenger 110, or to conceal the passenger 110 with sound or light and give the driver 100 a chance to escape.

なお、情報生成部24は、例えば警告装置20により警告を行ってもなお同乗者110が被害行動を継続させた場合には、被害発生情報を通報装置30へ出力し、警察などの関係機関へ緊急通報することとしてもよい。   For example, if the passenger 110 continues the damage action even if the warning device 20 gives a warning, the information generation unit 24 outputs the damage occurrence information to the notification device 30 and sends it to the related organizations such as the police. An emergency call may be made.

さらに、情報生成部24は、被害行動当時の車内の様子を録画することで被害発生情報を生成してもよい。具体的には、情報生成部24は、被害行動が発生した時刻を含む所定期間の撮像画像Pを被害発生情報として記憶部3に記憶させる。なお、録画の方式については、トリガー式または常時録画式のいずれであってもよい。   Further, the information generation unit 24 may generate the damage occurrence information by recording the state in the vehicle at the time of the damage action. Specifically, the information generation unit 24 causes the storage unit 3 to store the captured image P for a predetermined period including the time when the damage action occurred as damage occurrence information. Note that the recording method may be either a trigger type or a constant recording type.

例えばトリガー式の場合、時系列の撮像画像Pは、RAM等の揮発性メモリにエンドレスで記憶される。情報生成部24は、判定部23によって被害行動があったと判定された(トリガー)場合に、現在時刻を含む前後所定期間分の撮像画像Pを揮発性メモリから取り出しHDD等の不揮発性メモリに保存する。これにより、被害発生時刻の前後の期間に撮像された撮像画像Pが保存される。   For example, in the case of the trigger type, the time-series captured image P is stored endlessly in a volatile memory such as a RAM. When the determination unit 23 determines that there has been a damaging action (trigger), the information generation unit 24 extracts the captured images P for a predetermined period before and after the current time from the volatile memory and saves them in a nonvolatile memory such as an HDD. To do. Thereby, the captured image P captured in the period before and after the damage occurrence time is stored.

また、例えば常時録画式の場合、時系列の撮像画像Pは、HDD等の不揮発性メモリに記憶されていき、メモリ容量が満杯になると、最も古い時刻の撮像画像Pから順次削除され、新たな時刻の撮像画像Pが上書き保存される。   Further, for example, in the case of the continuous recording type, the time-series captured images P are stored in a nonvolatile memory such as an HDD, and when the memory capacity is full, the captured images P at the oldest time are sequentially deleted and new The captured image P at the time is overwritten and saved.

情報生成部24は、判定部23によって被害行動があったと判定された場合に、被害発生時刻の前後の期間に撮像された撮像画像Pについて上書きを禁止する設定を行う。これにより、上書き禁止された撮像画像Pは、新しい時刻の撮像画像Pを記憶する際に、上書き削除されずに残ることで保存される。   The information generation unit 24 performs a setting for prohibiting overwriting of the captured image P captured in a period before and after the damage occurrence time when the determination unit 23 determines that there is a damage behavior. As a result, the captured image P for which overwriting is prohibited is stored by being left without being overwritten and deleted when the captured image P at a new time is stored.

このように、例えば被害行動の発生当時の様子を録画しておくことで、運転者100が怪我をして慰謝料等を請求する際に、有用な証拠として提出することができる。   Thus, for example, by recording the situation at the time of occurrence of the damaging behavior, it can be submitted as useful evidence when the driver 100 is injured and requests a reward or the like.

次に、図7を用いて、実施形態に係る運転支援装置1が実行する処理の処理手順について説明する。図7は、実施形態に係る運転支援装置1が実行する処理の処理手順を示すフローチャートである。   Next, a processing procedure of processing executed by the driving support device 1 according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating a processing procedure of processing executed by the driving support device 1 according to the embodiment.

図7に示すように、まず、検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する(ステップS101)。   As illustrated in FIG. 7, first, the detection unit 21 detects the behavior of the passenger 110 with respect to the driver 100 of the vehicle C based on the captured image P obtained by imaging the interior of the vehicle C (step S101).

つづいて、判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動であるか否かを判定する(ステップS102)。判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動であった場合(ステップS102,Yes)、かかる行動を被害行動であると判定する(ステップS103)。   Subsequently, the determination unit 23 determines whether or not the behavior detected by the detection unit 21 is a contact behavior that touches the driver 100 (step S102). When the behavior detected by the detection unit 21 is a contact behavior that touches the driver 100 (step S102, Yes), the determination unit 23 determines that the behavior is a damage behavior (step S103).

つづいて、情報生成部24は、判定部23によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成し(ステップS104)、処理を終了する。   Subsequently, when the determination unit 23 determines that the behavior is a damage behavior, the information generation unit 24 generates damage occurrence information indicating the occurrence of the damage behavior (step S104), and ends the process.

一方、ステップS102において、判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動でなかった場合(ステップS102,No)、かかる行動が車両Cの備品に対して行う対物行動であるか否かを判定する(ステップS105)。   On the other hand, in step S102, when the behavior detected by the detection unit 21 is not a contact behavior that touches the driver 100 (No in step S102), the determination unit 23 performs the objective that the behavior performs on the equipment of the vehicle C. It is determined whether or not it is an action (step S105).

つづいて、判定部23は、検出部21によって検出された行動が車両Cの備品に対して行う対物行動であった場合(ステップS105,Yes)、振動検出部22によって検出された振動の検出値が所定値以上であるか否かを判定する(ステップS106)。   Subsequently, when the behavior detected by the detection unit 21 is an objective behavior to be performed on the equipment of the vehicle C (step S105, Yes), the determination unit 23 detects the vibration detected by the vibration detection unit 22. Is determined to be greater than or equal to a predetermined value (step S106).

判定部23は、振動検出部22によって検出された振動の検出値が所定値以上であった場合(ステップS106,Yes)、処理をステップS103へ移行する。   If the detection value of the vibration detected by the vibration detection unit 22 is equal to or greater than the predetermined value (Yes at Step S106), the determination unit 23 proceeds to Step S103.

一方、ステップS105において、判定部23は、検出部21によって検出された行動が車両Cの備品に対して行う対物行動でなかった場合(ステップS105,No)、かかる行動が運転者100に対して被害を与えるための道具の所持であるか否かを判定する(ステップS107)。   On the other hand, in step S105, the determination unit 23 determines that the behavior detected by the detection unit 21 is not the objective behavior performed on the equipment of the vehicle C (No in step S105), and the behavior is directed to the driver 100. It is determined whether or not he / she possesses a tool for causing damage (step S107).

判定部23は、検出部21によって検出された行動が運転者100に対して被害を与えるための道具の所持であった場合(ステップS107,Yes)、処理をステップS103へ移行する。   If the behavior detected by the detection unit 21 is possession of a tool for causing damage to the driver 100 (step S107, Yes), the determination unit 23 proceeds to step S103.

一方、ステップS106において、判定部23は、振動検出部22によって検出された振動の検出値が所定値未満であった場合(ステップS106,No)、処理をステップS101へ移行する。   On the other hand, in step S106, the determination part 23 transfers a process to step S101, when the detected value of the vibration detected by the vibration detection part 22 is less than predetermined value (step S106, No).

また、ステップS107において、判定部23は、検出部21によって検出された行動が運転者100に対して被害を与えるための道具の所持でなかった場合(ステップS107,No)、処理をステップS101へ移行する。   In step S107, if the action detected by the detection unit 21 is not possession of a tool for causing damage to the driver 100 (No in step S107), the determination unit 23 proceeds to step S101. Transition.

上述してきたように、実施形態に係る運転支援装置1は、検出部21と、判定部23と、情報生成部24とを備える。検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する。判定部23は、検出部21によって検出された行動が運転者100に被害を及ぼす被害行動であるか否かを判定する。情報生成部24は、判定部23によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。これにより、例えば同乗者110に対して警告したり、警察などに通報したりすることで、運転者100の被害を最小限に抑えることができる。   As described above, the driving support device 1 according to the embodiment includes the detection unit 21, the determination unit 23, and the information generation unit 24. The detection unit 21 detects the behavior of the passenger 110 with respect to the driver 100 of the vehicle C based on the captured image P obtained by capturing the interior of the vehicle C. The determination unit 23 determines whether or not the behavior detected by the detection unit 21 is a damaging behavior that causes damage to the driver 100. The information generation unit 24 generates damage occurrence information indicating the occurrence of the damage behavior when the determination unit 23 determines that the action is damage behavior. As a result, for example, by warning the passenger 110 or reporting to the police, damage to the driver 100 can be minimized.

なお、上述した実施形態では、同乗者110が後部座席に存在する場合について説明したが、例えば同乗者110が助手席に存在する場合であってもよい。また、同乗者110は、一人である場合に限らず、複数であってもよい。   In the above-described embodiment, the case where the passenger 110 is present in the rear seat has been described. However, for example, the passenger 110 may be present in the passenger seat. Further, the number of passengers 110 is not limited to one, but may be plural.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 運転支援装置
2 制御部
3 記憶部
10 撮像装置
11 マイク
12 位置取得部
13 車速センサ
14 加速度センサ
20 警告装置
21 検出部
22 振動検出部
23 判定部
24 情報生成部
30 通報装置
31 画像情報
32 被害行動情報
100 運転者
110 同乗者
C 車両
P 撮像画像
DESCRIPTION OF SYMBOLS 1 Driving assistance device 2 Control part 3 Memory | storage part 10 Imaging device 11 Microphone 12 Position acquisition part 13 Vehicle speed sensor 14 Acceleration sensor 20 Warning device 21 Detection part 22 Vibration detection part 23 Determination part 24 Information generation part 30 Information apparatus 31 Image information 32 Damage Action information 100 Driver 110 Passenger C Vehicle P Captured image

Claims (9)

車両の室内の様子を撮像した撮像画像に基づいて前記車両の運転者に対する同乗者の行動を検出する検出部と、
前記検出部によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する判定部と、
前記判定部によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する情報生成部と
を備えることを特徴とする運転支援装置。
A detection unit for detecting a passenger's behavior with respect to a driver of the vehicle based on a captured image obtained by capturing an image of the interior of the vehicle;
A determination unit that determines whether the behavior detected by the detection unit is a damaging behavior that damages the driver;
A driving support apparatus comprising: an information generation unit that generates damage occurrence information indicating occurrence of the damage behavior when the determination unit determines that the damage behavior is the damage behavior.
前記検出部は、
前記撮像画像から前記同乗者の身体を示す特徴点を検出することで前記行動を検出し、
前記判定部は、
前記行動を示す前記特徴点のパターンが予め定められた前記被害行動のパターンと一致した場合に、前記被害行動であると判定すること
を特徴とする請求項1に記載の運転支援装置。
The detector is
Detecting the behavior by detecting a feature point indicating the passenger's body from the captured image;
The determination unit
The driving support device according to claim 1, wherein when the pattern of the feature points indicating the behavior matches a predetermined pattern of the damage behavior, it is determined that the behavior is the damage behavior.
前記判定部は、
前記検出部によって検出された前記行動が前記運転者に触れる接触行動であった場合に、前記行動を前記被害行動と判定すること
を特徴とする請求項1または2に記載の運転支援装置。
The determination unit
The driving support device according to claim 1 or 2, wherein when the behavior detected by the detection unit is a contact behavior touching the driver, the behavior is determined as the damage behavior.
前記行動に伴う前記車両の振動を検出する振動検出部をさらに備え、
前記判定部は、
前記行動が前記車両の備品に対して行う対物行動であり、かつ、前記振動検出部によって検出された前記振動の検出値が所定値以上であった場合に、前記行動を前記被害行動と判定すること
を特徴とする請求項1〜3のいずれか一つに記載の運転支援装置。
A vibration detection unit that detects vibrations of the vehicle accompanying the action;
The determination unit
When the action is an objective action to be performed on the equipment of the vehicle and the detected value of the vibration detected by the vibration detection unit is a predetermined value or more, the action is determined as the damage action. The driving support apparatus according to any one of claims 1 to 3, wherein
前記検出部は、
前記運転者に対して被害を与えるための道具の所持を前記行動として検出し、
前記判定部は、
前記道具の所持を前記被害行動と判定すること
を特徴とする請求項1〜4のいずれか一つに記載の運転支援装置。
The detector is
Detecting possession of a tool for causing damage to the driver as the action,
The determination unit
The driving support device according to any one of claims 1 to 4, wherein possession of the tool is determined as the damage behavior.
前記検出部は、
前記同乗者の発話内容を示す音声を前記行動として検出し、
前記判定部は、
前記検出部によって検出された前記音声に予め定められた危険キーワードが含まれる場合に、前記音声が前記被害行動であると判定すること
を特徴とする請求項1〜5のいずれか一つに記載の運転支援装置。
The detector is
Detecting voice indicating the passenger's utterance content as the action,
The determination unit
6. The voice according to claim 1, wherein the voice is determined to be the damaging behavior when a predetermined risk keyword is included in the voice detected by the detection unit. Driving assistance device.
時系列の前記撮像画像を記憶する記憶部をさらに備え、
前記情報生成部は、
前記被害行動が発生した時刻を含む所定期間の前記撮像画像を前記被害発生情報として前記記憶部に記憶させること
を特徴とする請求項1〜6のいずれか一つに記載の運転支援装置。
A storage unit that stores the time-series captured images;
The information generator is
The driving support device according to any one of claims 1 to 6, wherein the captured image of a predetermined period including a time when the damage behavior occurs is stored in the storage unit as the damage occurrence information.
前記情報生成部は、
前記同乗者に対して警告する警告情報を前記被害発生情報として生成すること
を特徴とする請求項1〜7のいずれか一つに記載の運転支援装置。
The information generator is
The driving support device according to any one of claims 1 to 7, wherein warning information for warning the passenger is generated as the damage occurrence information.
車両の室内の様子を撮像した撮像画像に基づいて前記車両の運転者に対する同乗者の行動を検出する検出工程と、
前記検出工程によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する判定工程と、
前記判定工程によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する情報生成工程と
を含むことを特徴とする運転支援方法。
A detection step of detecting a passenger's behavior with respect to the driver of the vehicle based on a captured image obtained by capturing an image of the interior of the vehicle;
A determination step of determining whether the behavior detected by the detection step is a damaging behavior that damages the driver;
An information generation step of generating damage occurrence information indicating the occurrence of the damage behavior when the damage determination is determined by the determination step.
JP2017045307A 2017-03-09 2017-03-09 Driving support device and driving support method Pending JP2018151693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017045307A JP2018151693A (en) 2017-03-09 2017-03-09 Driving support device and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017045307A JP2018151693A (en) 2017-03-09 2017-03-09 Driving support device and driving support method

Publications (1)

Publication Number Publication Date
JP2018151693A true JP2018151693A (en) 2018-09-27

Family

ID=63681705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017045307A Pending JP2018151693A (en) 2017-03-09 2017-03-09 Driving support device and driving support method

Country Status (1)

Country Link
JP (1) JP2018151693A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095357A (en) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
JP2020123342A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. METHOD AND APPARATUS FOR PREDICTING PASSENGER'S CONDITION IN A 2D IMAGE SHOT USING A 2D CIRCUIT WITH A FISH EYE LENS.
JP2021068059A (en) * 2019-10-18 2021-04-30 アイシン精機株式会社 Toe position estimating device and fingertip position estimating device
WO2021084816A1 (en) * 2019-10-31 2021-05-06 株式会社Jvcケンウッド Recording system, recording method, and program
WO2022018781A1 (en) * 2020-07-20 2022-01-27 三菱電機株式会社 Vehicle control device, program, and vehicle control method
WO2022130852A1 (en) * 2020-12-18 2022-06-23 株式会社Jvcケンウッド Information processing device and information processing method
WO2022196213A1 (en) * 2021-03-18 2022-09-22 矢崎総業株式会社 Watch-over system
US20220388524A1 (en) * 2021-06-07 2022-12-08 Toyota Connected North America, Inc. Sensing interactions with unpermitted components within a vehicle

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7115277B2 (en) 2018-12-10 2022-08-09 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
JP2020095357A (en) * 2018-12-10 2020-06-18 トヨタ自動車株式会社 Behavior monitoring device, behavior monitoring system, and behavior monitoring program
JP2020123342A (en) * 2019-01-30 2020-08-13 株式会社ストラドビジョンStradvision,Inc. METHOD AND APPARATUS FOR PREDICTING PASSENGER'S CONDITION IN A 2D IMAGE SHOT USING A 2D CIRCUIT WITH A FISH EYE LENS.
JP2021068059A (en) * 2019-10-18 2021-04-30 アイシン精機株式会社 Toe position estimating device and fingertip position estimating device
JP7375456B2 (en) 2019-10-18 2023-11-08 株式会社アイシン Toe position estimation device and fingertip position estimation device
WO2021084816A1 (en) * 2019-10-31 2021-05-06 株式会社Jvcケンウッド Recording system, recording method, and program
JP2021072559A (en) * 2019-10-31 2021-05-06 株式会社Jvcケンウッド Recording system, recording method and program
JP7354771B2 (en) 2019-10-31 2023-10-03 株式会社Jvcケンウッド Recording system, recording method and program
JP7361929B2 (en) 2020-07-20 2023-10-16 三菱電機株式会社 Vehicle control device, program and vehicle control method
JPWO2022018781A1 (en) * 2020-07-20 2022-01-27
WO2022018781A1 (en) * 2020-07-20 2022-01-27 三菱電機株式会社 Vehicle control device, program, and vehicle control method
WO2022130852A1 (en) * 2020-12-18 2022-06-23 株式会社Jvcケンウッド Information processing device and information processing method
JP2022143604A (en) * 2021-03-18 2022-10-03 矢崎総業株式会社 Watching system
WO2022196213A1 (en) * 2021-03-18 2022-09-22 矢崎総業株式会社 Watch-over system
JP7326363B2 (en) 2021-03-18 2023-08-15 矢崎総業株式会社 Monitoring system
WO2022261080A1 (en) * 2021-06-07 2022-12-15 Toyota Connected North America, Inc. Sensing interactions with unpermitted components within a vehicle
US11807257B2 (en) 2021-06-07 2023-11-07 Toyota Connected North America, Inc. Sensing interactions with unpermitted components within a vehicle
US20220388524A1 (en) * 2021-06-07 2022-12-08 Toyota Connected North America, Inc. Sensing interactions with unpermitted components within a vehicle
EP4351935A1 (en) 2021-06-07 2024-04-17 Toyota Connected North America, Inc. Sensing interactions with unpermitted components within a vehicle
JP2024527684A (en) * 2021-06-07 2024-07-26 トヨタ コネクテッド ノース アメリカ,インコーポレイティド Detecting interactions with unauthorized components within the vehicle
JP7562882B2 (en) 2021-06-07 2024-10-07 トヨタ コネクテッド ノース アメリカ,インコーポレイティド Detecting interactions with unauthorized components within the vehicle
EP4351935A4 (en) * 2021-06-07 2025-03-05 Toyota Connected North America, Inc. Sensing interactions with unpermitted components within a vehicle

Similar Documents

Publication Publication Date Title
JP2018151693A (en) Driving support device and driving support method
US9714037B2 (en) Detection of driver behaviors using in-vehicle systems and methods
JP6394281B2 (en) In-vehicle alert system, alarm control device
US20170291544A1 (en) Adaptive alert system for autonomous vehicle
WO2018046015A1 (en) Alarm method, device and terminal for vehicle
JP7290930B2 (en) Occupant modeling device, occupant modeling method and occupant modeling program
JP6106402B2 (en) In-vehicle device
US9984298B2 (en) Method for outputting a drowsiness warning and control unit
TWI596580B (en) Obstacle warning system and its operation method
US20220189221A1 (en) Information recording device, information recording method, and program for recording information
CN114387780A (en) Vehicle damage identification and incident management system and method
CN112926544A (en) Driving state determination method, device, equipment and storage medium
WO2014126304A1 (en) Vsdt rearview mirror having sleepiness prevention function
US20250022292A1 (en) Driver monitoring device, driver monitoring method, and non-transitory recording medium
CN112311821A (en) A traffic accident rescue method, device and vehicle
EP3324378A1 (en) Electronic safety system and method for detecting a vehicle driver's attention
JP2016115120A (en) Opened/closed eye determination device and opened/closed eye determination method
JP2019003312A (en) Gaze target estimation device, gaze target estimation method, and program
CN107867242A (en) Method, system and vehicle for using an object display device in a vehicle
JP2021163096A (en) Object detection method, object detection apparatus, and program
US12472939B2 (en) Agent apparatus
GB2525654A (en) Driver incident assistance system and method
JP2007082594A (en) Fatigue detection device
JP2021089652A (en) Driver monitor, driver state estimation method and program
CN113221734A (en) Image recognition method and device