JP2018151693A - 運転支援装置および運転支援方法 - Google Patents
運転支援装置および運転支援方法 Download PDFInfo
- Publication number
- JP2018151693A JP2018151693A JP2017045307A JP2017045307A JP2018151693A JP 2018151693 A JP2018151693 A JP 2018151693A JP 2017045307 A JP2017045307 A JP 2017045307A JP 2017045307 A JP2017045307 A JP 2017045307A JP 2018151693 A JP2018151693 A JP 2018151693A
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- damage
- driver
- passenger
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Burglar Alarm Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】運転者の被害を最小限に抑えることができる運転支援装置および運転支援方法を提供すること。【解決手段】実施形態に係る運転支援装置は、検出部と、判定部と、情報生成部とを備える。検出部は、車両の室内の様子を撮像した撮像画像に基づいて車両の運転者に対する同乗者の行動を検出する。判定部は、検出部によって検出された行動が運転者に被害を及ぼす被害行動であるか否かを判定する。情報生成部は、判定部によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。【選択図】図2
Description
本発明は、運転支援装置および運転支援方法に関する。
従来、例えば車内の様子を撮像した撮像画像を保存するカメラシステムが知られている。また、例えばかかる撮像画像に基づいて運転者の脇見や居眠りといった挙動を検出し、検出した挙動に応じて運転者に対して警告等を行う運転支援装置がある(たとえば、特許文献1参照)。
しかしながら、従来技術は、運転者自身の挙動に基づいて運転者に危険が迫っていることを警告するものであって、例えば同乗者がいる場合については考慮されていなかった。つまり、従来の装置は、例えば同乗者の車内での行動によって運転者が被害を受けた場合に警告等の対応を行えないため、運転者の被害が拡大するおそれがあった。
本発明は、上記に鑑みてなされたものであって、運転者の被害を最小限に抑えることができる運転支援装置および運転支援方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る運転支援装置は、検出部と、判定部と、情報生成部とを備える。検出部は、車両の室内の様子を撮像した撮像画像に基づいて前記車両の運転者に対する同乗者の行動を検出する。判定部は、前記検出部によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する。情報生成部は、前記判定部によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する。
本発明によれば、運転者の被害を最小限に抑えることができる。
以下、添付図面を参照して、本願の開示する運転支援装置および運転支援方法の実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。
まず、図1Aおよび図1Bを用いて実施形態に係る運転支援方法の概要について説明する。図1Aおよび図1Bは、実施形態に係る運転支援方法の概要を示す図である。図1Aには、実施形態に係る運転支援装置1を搭載した車両Cを示している。
運転支援装置1の搭載対象は、例えばタクシー等のように顧客を頻繁に乗せる、つまり車内に同乗者が存在する可能性が比較的高い車両Cに好適である。なお、図1では、車両Cを普通乗用車の形態で示しているが、これに限定されず、車両Cは、例えばバスやトラックといった大型車両であってもよい。
また、図1Aには、例えば車内前方に設けられ、車両Cの室内の様子を撮像するカメラである撮像装置10を示している。また、図1Bには、撮像装置10によって撮像された撮像画像Pを示しており、撮像画像Pには、車両Cの運転者100および同乗者110が含まれる。
実施形態に係る運転支援方法は、運転者100に対する同乗者110の行動を検出し、検出した行動が運転者100に被害を及ぼす被害行動である場合に、被害行動の発生を示す被害発生情報を生成するものである。
ここで、従来の運転支援方法について説明する。従来の運転支援方法は、脇見や居眠り等といった運転者自身の挙動を検出することで、運転者に危険が迫っていることを警告していた。
しかしながら、従来は、例えば車内に同乗者がいる場合に、同乗者が起こした車内での行動によって運転者に危険が及ぶことについては考慮されていなかった。例えば、同乗者が運転者の腕を長時間掴むことで運転者自身が怪我をしたり、運転操作が妨げられたりする。つまり、従来は、同乗者の車内での行動によって運転者が被害を受けた場合に警告等の対応を行うことができず、運転者の被害が拡大するおそれがあった。
そこで、実施形態に係る運転支援方法では、例えば同乗者110が運転者100に対して危害を加える行動を起こした場合に、同乗者110に対して警告することとした。具体的には、図1Bに示すように、実施形態に係る運転支援装置1は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する(ステップS1)。
つづいて、実施形態に係る運転支援装置1は、検出した行動が運転者100に被害を及ぼす被害行動であるか否かを判定する(ステップS2)。そして、実施形態に係る運転支援装置1は、同乗者110の行動が被害行動であった場合に、被害行動の発生を示す被害発生情報を生成する(ステップS3)。
例えば、図1Bに示すように、運転支援装置1は、同乗者110が運転者100の腕を掴んだ行動を被害行動と判定する。そして、運転支援装置1は、例えば被害発生情報として車内にブザー音を出力し、同乗者110に対して警告する。
これにより、例えばブザー音を聞いた同乗者110が運転者100の腕を離すといった被害行動をやめることで運転者の危険な状態が改善されることとなる。あるいは、ブザー音によってもなお危険な状態が改善されない場合には、警察等の関係機関に通報することで、運転者100を早期に保護する。
したがって、実施形態に係る運転支援装置1によれば、運転者100に被害が及ぶ被害行動を検出し、例えば警告や通報等を行うことで、運転者100の被害を最小限に抑えることができる。
なお、実施形態に係る運転支援装置1は、ブザー音による警告や警察等の関係機関への通報を行うための被害発生情報を生成する場合に限らず、被害行動当時の車内の様子を録画することで被害発生情報を生成してもよいが、かかる点については後述する。
なお、実施形態に係る運転支援装置1は、例えば腕を掴む等の同乗者110が運転者100に触れる接触行動を被害行動として判定するが、かかる点の詳細については図5を用いて後述する。
また、実施形態に係る運転支援装置1は、例えば座席シートや窓ガラスといった車両Cの備品に対して行う対物行動と、対物行動に伴う車両Cの振動に基づいて被害行動を判定するが、かかる点の詳細については、図6を用いて後述する。
また、実施形態に係る運転支援装置1は、例えば、同乗者が刃物や拳銃といった道具を所持していた場合に、被害行動と判定するが、かかる点についても後述する。
次に、図2を参照して、実施形態に係る運転支援装置1の構成について詳細に説明する。図2は、実施形態に係る運転支援装置1の構成を示すブロック図である。
図2に示すように、実施形態に係る運転支援装置1は、撮像装置10と、マイク11と、位置取得部12と、車速センサ13と、加速度センサ14と、警告装置20と、通報装置30とに接続される。まず、運転支援装置1以外の構成について説明する。
撮像装置10は、例えば、魚眼レンズ等のレンズと、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子とを備えた車載カメラである。
撮像装置10は、例えば車内の前方から後方を撮像する位置(図1参照)に設けられ、車内の運転者100および同乗者110を含むような撮像画像Pを撮像し、運転支援装置1へ出力する。
なお、撮像装置10は、車内の前方に設けられる場合に限定されず、車内の側方等であってもよく、撮像画像Pに運転者100および同乗者110が含まれる位置に設けられればよい。また、撮像装置10は、車内において複数の位置に設けられてもよく、かかる場合には、複数の撮像画像Pを運転支援装置1へ出力する。
マイク11は、車両Cに搭載されて車内に発生する音声を集音し、運転支援装置1へ出力する。位置取得部12は、例えばGPS(Global Positioning System)衛星からの信号に基づいて車両Cの現在位置を検出し、現在位置の情報として運転支援装置1へ出力する。
車速センサ13は、車両Cにおける車軸の回転数に応じたパルス信号を発生させるとともに、かかるパルス信号に基づいて車両Cの現在の走行速度を検出し、運転支援装置1へ出力する。
加速度センサ14は、車両Cに加わる加速度を検出して運転支援装置1へ出力する。かかる加速度センサ14は、例えば、互いに直交する3軸方向の加速度を検出する3軸加速度センサを用いることができる。
なお、加速度センサ14は、例えばエアバッグECU(Electronic Control Unit)に設けられた加速度センサを用いることができるが、これに限らず、例えばドライブレコーダ等の他の電子装置に搭載された加速度センサを用いてもよい。
警告装置20は、運転支援装置1から出力される被害発生情報に基づき、例えば車両Cに設けられたブザーやホーン等を制御して車両Cの内外へ音を発する装置である。例えば、警告装置20は、車内にブザー音を発することで、同乗者110に対して警告を行ったり、ホーンを鳴らして車両Cの周囲へ被害行動の発生を知らせたりすることができる。
なお、警告装置20は、ブザーやホーンといった音を用いた警告に限らず、例えば車両Cの外部を照らすライトや、室内灯等を制御することで光を用いた警告を行うこともできる。
通報装置30は、例えばDCM(Data Communication Module)等のテレマティクスサービスに用いられる通信モジュールを備え、運転支援装置1から出力される被害発生情報に基づき、例えば警察等の関係機関に緊急通報する装置である。
具体的には、通報装置30は、携帯電話網やインターネット網といった通信網を介して図示しないサーバ装置へ被害発生情報を送信し、サーバ装置が被害発生情報に基づいて関係機関へ通報する。
かかる場合、被害発生情報には、位置取得部12が取得した車両Cの現在位置の情報を含ませることが好ましい。これにより、緊急通報を受けた警察等が現場へいち早く到達できるため、運転者100を早期に保護することができる。
次に、実施形態に係る運転支援装置1について説明する。運転支援装置1は、制御部2と、記憶部3とを備える。制御部2は、検出部21と、振動検出部22と、判定部23と、情報生成部24とを備える。記憶部3は、画像情報31と、被害行動情報32を記憶する。
ここで、運転支援装置1は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。
コンピュータのCPUは、たとえば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の検出部21、振動検出部22、判定部23および情報生成部24として機能する。
また、制御部2の検出部21、振動検出部22、判定部23および情報生成部24の少なくともいずれか一つまたは全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
また、記憶部3は、たとえば、RAMやHDDに対応する。RAMやHDDは、画像情報31や被害行動情報32、各種プログラムの情報等を記憶することができる。なお、運転支援装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
画像情報31は、撮像装置10が定期的に撮像した時系列の撮像画像Pを含む情報である。また、記憶部3は、後述する情報生成部24の指示に従って、画像情報31のうち、運転者100の被害発生当時に撮像された撮像画像Pを被害発生情報として記憶する。被害発生情報における画像情報31の保存方法については、トリガー式および常時録画式のいずれの方式であってもよいがかかる点については後述する。
制御部2は、運転者100に対する同乗者110の行動を検出し、検出した行動が運転者100に被害を及ぼす被害行動である場合に、被害行動の発生を示す被害発生情報を生成する。
検出部21は、撮像装置10、マイク11、位置取得部12および車速センサ13等の各種情報に基づいて同乗者110の行動を検出する。
例えば、検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する。ここで、図3を用いて、検出部21の具体的な検出処理について説明する。
図3は、同乗者110の身体の特徴点を示す図である。なお、図3には、人の特徴点の一例を示しているに過ぎず、特徴点の位置や数は任意に設定することができる。
図3に示すように、検出部21は、車内に存在する同乗者110の身体の各部の特徴点j1〜j20を検出し、かかる特徴点j1〜j20に基づいて同乗者110の姿勢や向きを解析することで同乗者110の様々な行動を検出する。
具体的には、図3において、同乗者110の行動を規定する20個の特徴点j1〜j20を一例として示している。なお、特徴点j1〜j4は順に、頭部、肩部中央、旋回部、尻部中央にそれぞれ対応する。また、特徴点j5〜j8は順に、右手先、右手首、右肘、肩部右にそれぞれ対応する。
また、特徴点j9〜j12は順に、尻部右、右膝、右足首、右足先にそれぞれ対応する。また、特徴点j13〜j16は順に、左手先、左手首、左肘、肩部左にそれぞれ対応する。また、特徴点j17〜j20は順に、尻部左、左膝、左足首、左足先にそれぞれ対応する。各特徴点j1〜j20は、例えばXY平面上における座標位置として表現される。
つまり、検出部21は、同乗者110が身体を動かした場合におけるこれら特徴点j1〜j20の位置関係を把握することで同乗者110の姿勢や向きを解析する。
なお、検出部21は、同乗者110の特徴点j1〜j20を検出する前に、運転者100の身体の特徴点を予め規定しておくことが好ましい。例えば、検出部21は、運転支援装置1の起動直後、すなわち同乗者110がいない状態で、特徴点の検出処理を行い、運転者100の特徴点を予め検出しておく。これにより、検出される特徴点が運転者100のものであるか同乗者110のものであるかの判別が可能となる。
振動検出部22は、例えば加速度センサ14の検出値に基づいて車両Cに発生する振動を検出する。例えば、振動検出部22は、検出部21によって検出された同乗者110の行動に伴う車両Cの振動を検出する。具体的には、振動検出部22は、検出部21の検出時刻と、加速度センサ14の検出値とを対応付けることで、同乗者110の行動に伴う車両Cの振動を検出する。
なお、車両Cが走行しているときに、同乗者110の行動に伴う車両Cの振動と、走行による車両Cの振動とが区別しにくい場合は、車両Cが停車しているときに限り振動検出部22により振動を検出するようにしてもよい。
判定部23は、検出部21によって検出された同乗者110の行動が運転者100に被害を及ぼす被害行動であるか否かを判定する。具体的には、判定部23は、記憶部3に記憶された被害行動情報32に基づいて被害行動の有無を判定する。
被害行動情報32は、行動パターン情報32aおよび音声パターン情報32bを含んだ情報であり、判定部23による被害行動の判定基準となる情報である。ここで、図4Aおよび図4Bを用いて被害行動情報32について説明する。
図4Aは、行動パターン情報32aの説明図である。図4Bは、音声パターン情報32bの説明図である。まず、図4Aを用いて行動パターン情報32aについて説明する。図4Aに示すように、行動パターン情報32aには、様々な被害行動のパターンに関する情報が予め登録される。
行動パターン情報32aは、例えば、「行動種別」と、「特徴点画像」とを含んだ情報である。「行動種別」は、被害行動の種別を示す情報である。「特徴点画像」は、検出部21によって検出された同乗者110の特徴点j1〜j20の位置パターンを示す画像の情報である。なお、「特徴点画像」は、静止画であってもよく、動画であってもよい。
例えば、図4Aには、同乗者110が運転者100の腕等を掴む場合の「掴む」と、同乗者110が運転者100を殴る場合の「殴る」における「特徴点画像」を示した。なお、図4Aに示す「特徴点画像」のパターンは、代表例に過ぎず、実際には、例えば「殴る」の「特徴点画像」の中には、様々な「殴る」に関するパターンの「特徴点画像」が含まれている。
例えば、「掴む」の「特徴点画像」は、同乗者110の右手先の特徴点j5(または左手先の特徴点j13)(図3参照)が運転者100の位置に所定時間留まっている動画を示している。
また、例えば、「殴る」の「特徴点画像」は、同乗者110の右手先の特徴点j5(または左手先の特徴点j13)が運転者100の位置へ所定の移動速度で到達した動画を示している。なお、特徴点j5の移動速度は、例えば、撮像画像Pから抽出される特徴点j5のベクトルの大きさから算出可能である。
つまり、判定部23は、検出部21が検出した特徴点j1〜j20と、行動パターン情報32aとの比較を行うことによって、同乗者110が行った行動が被害行動であるか否かを判定する。そして、判定部23は、同乗者110が行った行動が行動パターン情報32aにマッチングする、つまり、被害行動のパターンと一致した場合に、被害行動であると判定する。
このように、判定部23は、同乗者110の身体の特徴点に基づいてパターンマッチングを行うことで、正確に同乗者110の被害行動を判定することができる。
なお、判定部23は、検出部21によってすべて(図3では20個)の特徴点j1〜j20が検出されなくとも、「特徴点画像」の一部の特徴点が検出されれば足りる。つまり、判定部23は、検出部21によって検出された同乗者110の一部の特徴点と、「特徴点画像」の一部の特徴点とが一致した場合に、被害行動として判定してもよい。
また、同乗者は座席に座っているため、被害行動をおこす場合でも下半身が動くことは少ないため、「特徴点画像」は上半身だけのデータにしてもよい。これによりメモリ容量を削減できる。
さらに、判定部23は、図4Bに示す音声パターン情報32bを用いて、同乗者110の発話内容を加味して被害行動を判定してもよい。図4Bに示すように、音声パターン情報32bは、例えば、「音声種別」と「文字情報」とを含んだ情報である。
図4Bに示すように、音声パターン情報32bは、例えば同乗者110が運転者100に危害を加える前に発したり、運転者100を威嚇するために発したりする危険キーワードが予め登録された情報である。音声パターン情報32bは、例えば「音声種別」と「文字情報」とが関連付けされた情報である。
判定部23は、検出部21がマイク11から検出した同乗者110の発話内容を示す音声に予め定められた危険キーワードが含まれる場合に、かかる音声が被害行動であると判定する。
具体的には、判定部23は、検出部21によって検出された音声をテキスト化した音声文字情報に変換し、音声文字情報の中に、音声パターン情報32bの「文字情報」に一致するものがあれば、かかる音声を被害行動として判定する。
つまり、判定部23は、危険キーワードのような物理的な危害を加える前に発する音声を検出して、例えば警告装置20により警告を行うことで、同乗者110が行おうとしている被害行動を未然に防ぐことができる。
なお、例えば図4Bに示す「おい」のように、「文字情報」の文字数が比較的少ない場合、判定部23は、例えば検出部21が検出した音声を解析することでかかる音声の抑揚等を検出して被害行動の判定を行うことが好ましい。
また、判定部23は、同乗者110の特徴点j1〜j20に基づいて被害行動を検出したが、これに限定されず、同乗者110に加えて運転者100の特徴点を加味して被害行動を検出することとしてもよい。かかる点について図5を用いて説明する。
図5は、判定部23の判定内容を示す図である。図5には、同乗者110が運転者100を掴む状況を撮像した撮像画像Pを示している。また、図5には、かかる撮像画像Pから検出された運転者100の特徴点aj15,aj16と、同乗者110の特徴点j5とを示している。
なお、図5において、図の見易さの観点から運転者100の左肘および肩部左の特徴点aj15,aj16を含む運転者100の他の特徴点を白丸で示している。また、同乗者110の特徴点についても同様に、右手先の特徴点j5を含む他の特徴点を黒丸で示している。
図5に示すように、判定部23は、検出部21によって検出された同乗者110の行動が運転者100に触れる接触行動であった場合に、かかる行動を被害行動と判定する。
具体的には、判定部23は、運転者100の特徴点(例えば特徴点aj15,aj16)および同乗者110の特徴点j1〜j20の座標の位置関係に基づき、検出部21が検出した行動が接触行動であるか否かを判定する。
例えば、図5に示すように、判定部23は、運転者100の左肘および肩部左の特徴点aj15,aj16を結ぶ線上に、同乗者110の右手先の特徴点j5が重なった場合に、接触行動であると判定する。
このように、同乗者110が運転者100に直接触れたことをトリガーとすることで、被害行動の発生の誤検知を防止することができるとともに、確実に被害行動を検出することができる。
なお、同乗者が乗車賃を運転者に支払う際、お金を運転者に手渡しする場合があるため、これを接触行動であると判定しないようにしておくことが望ましい。そのためには、例えば、停車中であり、かつ同乗者の手先が運転者の手先に接触した場合は、その接触行動は乗車賃の支払い行為であると判定し、被害行動とは判定しないようにすればよい。または、画像で接触行為を判定したときは、音声も加味し、乗車賃の支払いに関する一連の会話(例えば、「○○円です。」「△△円でお釣りお願いします。」「はい、お釣りです。」)であった場合は被害行動とは判定しないようにすればよい。
なお、判定部23は、2次元平面における特徴点の位置関係に基づいて接触行動の有無を判定する場合に限定されず、例えば撮像装置10の取付位置に基づいて算出される撮像画像Pの奥行方向を加味した3次元空間における特徴点の位置関係に基づいて接触行動の有無を判定してもよい。これにより、判定部23は、より正確に接触行動を判定することができる。
また、判定部23は、同乗者110が運転者100に直接触れる行動を被害行動として判定したが、これに限定されず、同乗者110が運転者100に対して間接的に行った行動に基づいて被害行動の有無を判定してもよい。かかる点について、図6を用いて説明する。
図6は、判定部23の判定内容を示す図である。図6には、後部座席に着座した同乗者110が運転者100の着座する座席を蹴る場面を示している。図6に示すように、同乗者110が座席を比較的強く蹴る行動(運転者100が驚く程度)を行った場合、かかる行動に伴って車両Cが振動することが多い。
判定部23は、かかる振動に着目して被害行動の有無を判定する。具体的には、図6に示すように、判定部23は、検出部21によって検出された同乗者110の行動が車両Cの備品に対して行う対物行動であり、かつ、振動検出部22によって検出された振動の検出値が所定値以上であった場合に、かかる行動を被害行動と判定する。
そして、例えば対物行動の様子を録画しておくことで、車両Cの備品が破損した場合等に、損害賠償を請求する際の有用な証拠として録画した撮像画像Pを用いることができる。
なお、車両Cの備品に対する対物行動は、運転者100の着座する座席を蹴る行動以外に、例えば車両Cのドアや窓ガラスを叩く行動等であってもよく、運転者100の運転の妨げや車両Cの備品の損害に繋がる行動であればよい。
また、判定部23は、運転者100や車両Cの備品に対する行動のように、人や物に対して直接的に危害を加える行動の場合に被害行動として判定したが、例えば、同乗者110が所持する道具に基づいて被害行動を判定してもよい。
具体的には、判定部23は、検出部21によって検出された同乗者110の行動が運転者100に対して被害を与えるための道具の所持であった場合に、かかる行動を被害行動と判定する。
例えば、検出部21は、撮像画像Pに基づいて刃物等の鋭利な金属部材の所持を検出する。より具体的には、検出部21は、金属部材により光の反射を検出することで刃物の所持を検出する。なお、検出部21は、例えばパターンマッチングにより刃物を検出することもできる。
また、検出部21は、鋭利な金属部材の道具に限らず、鈍器等の刃の無い道具や銃等の標的に物体を飛ばすことで被害を与える道具等の所持を検出することとしてもよい。
このように、運転者100に対して被害を与えることが可能な道具を検出することで、運転者100がかかる道具によって怪我することを未然に防ぐことができる。
また、判定部23は、車両Cの走行速度を考慮して被害行動の有無を判定してもよい。具体的には、判定部23は、車両Cの走行速度がゼロ、すなわち車両Cが停止している場合に、検出部21による検出感度を同乗者110の右または左の手先において高く設定する。
これにより、例えばタクシー等において同乗者110が料金の支払いを拒否して運転者100に危害を加える行動を行おうとした場合に、かかる行動をいち早く検出して運転者100に通知することができる。したがって、危害を加えようとしている同乗者110から運転者100が容易に逃れることができる。
また、例えば、判定部23は、運転者100の生体情報を加味して被害行動を判定してもよい。具体的には、判定部23は、例えば運転者100毎に、平常時の脈拍や体温等の生体情報を学習しておき、同乗者110の行動によってこれらの生体情報が異常値となった場合に、かかる行動を被害行動と判定する。
これは、同乗者110の行動によって受ける被害の程度が運転者100毎に異なるためである。すなわち、判定部23は、運転者100の平常時の生体情報を予め学習しておくことで、運転者100それぞれに応じて適切な判定処理を行うことができる。
情報生成部24は、判定部23によって同乗者110の行動が被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。例えば、情報生成部24は、同乗者110に対して警告する警告情報を被害発生情報として生成する。
具体的には、情報生成部24は、同乗者110に対して音や光を発するための警告情報を生成し、警告装置20へ出力する。なお、警告装置20が発する音は、ビープ音等の単一音に限らず、音声であってもよい。
これにより、同乗者110が行っている被害行動をやめさせたり、音や光により同乗者110を怯ませて運転者100に逃げる隙を与えたりすることができる。
なお、情報生成部24は、例えば警告装置20により警告を行ってもなお同乗者110が被害行動を継続させた場合には、被害発生情報を通報装置30へ出力し、警察などの関係機関へ緊急通報することとしてもよい。
さらに、情報生成部24は、被害行動当時の車内の様子を録画することで被害発生情報を生成してもよい。具体的には、情報生成部24は、被害行動が発生した時刻を含む所定期間の撮像画像Pを被害発生情報として記憶部3に記憶させる。なお、録画の方式については、トリガー式または常時録画式のいずれであってもよい。
例えばトリガー式の場合、時系列の撮像画像Pは、RAM等の揮発性メモリにエンドレスで記憶される。情報生成部24は、判定部23によって被害行動があったと判定された(トリガー)場合に、現在時刻を含む前後所定期間分の撮像画像Pを揮発性メモリから取り出しHDD等の不揮発性メモリに保存する。これにより、被害発生時刻の前後の期間に撮像された撮像画像Pが保存される。
また、例えば常時録画式の場合、時系列の撮像画像Pは、HDD等の不揮発性メモリに記憶されていき、メモリ容量が満杯になると、最も古い時刻の撮像画像Pから順次削除され、新たな時刻の撮像画像Pが上書き保存される。
情報生成部24は、判定部23によって被害行動があったと判定された場合に、被害発生時刻の前後の期間に撮像された撮像画像Pについて上書きを禁止する設定を行う。これにより、上書き禁止された撮像画像Pは、新しい時刻の撮像画像Pを記憶する際に、上書き削除されずに残ることで保存される。
このように、例えば被害行動の発生当時の様子を録画しておくことで、運転者100が怪我をして慰謝料等を請求する際に、有用な証拠として提出することができる。
次に、図7を用いて、実施形態に係る運転支援装置1が実行する処理の処理手順について説明する。図7は、実施形態に係る運転支援装置1が実行する処理の処理手順を示すフローチャートである。
図7に示すように、まず、検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する(ステップS101)。
つづいて、判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動であるか否かを判定する(ステップS102)。判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動であった場合(ステップS102,Yes)、かかる行動を被害行動であると判定する(ステップS103)。
つづいて、情報生成部24は、判定部23によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成し(ステップS104)、処理を終了する。
一方、ステップS102において、判定部23は、検出部21によって検出された行動が運転者100に触れる接触行動でなかった場合(ステップS102,No)、かかる行動が車両Cの備品に対して行う対物行動であるか否かを判定する(ステップS105)。
つづいて、判定部23は、検出部21によって検出された行動が車両Cの備品に対して行う対物行動であった場合(ステップS105,Yes)、振動検出部22によって検出された振動の検出値が所定値以上であるか否かを判定する(ステップS106)。
判定部23は、振動検出部22によって検出された振動の検出値が所定値以上であった場合(ステップS106,Yes)、処理をステップS103へ移行する。
一方、ステップS105において、判定部23は、検出部21によって検出された行動が車両Cの備品に対して行う対物行動でなかった場合(ステップS105,No)、かかる行動が運転者100に対して被害を与えるための道具の所持であるか否かを判定する(ステップS107)。
判定部23は、検出部21によって検出された行動が運転者100に対して被害を与えるための道具の所持であった場合(ステップS107,Yes)、処理をステップS103へ移行する。
一方、ステップS106において、判定部23は、振動検出部22によって検出された振動の検出値が所定値未満であった場合(ステップS106,No)、処理をステップS101へ移行する。
また、ステップS107において、判定部23は、検出部21によって検出された行動が運転者100に対して被害を与えるための道具の所持でなかった場合(ステップS107,No)、処理をステップS101へ移行する。
上述してきたように、実施形態に係る運転支援装置1は、検出部21と、判定部23と、情報生成部24とを備える。検出部21は、車両Cの室内の様子を撮像した撮像画像Pに基づいて車両Cの運転者100に対する同乗者110の行動を検出する。判定部23は、検出部21によって検出された行動が運転者100に被害を及ぼす被害行動であるか否かを判定する。情報生成部24は、判定部23によって被害行動であると判定された場合に、被害行動の発生を示す被害発生情報を生成する。これにより、例えば同乗者110に対して警告したり、警察などに通報したりすることで、運転者100の被害を最小限に抑えることができる。
なお、上述した実施形態では、同乗者110が後部座席に存在する場合について説明したが、例えば同乗者110が助手席に存在する場合であってもよい。また、同乗者110は、一人である場合に限らず、複数であってもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 運転支援装置
2 制御部
3 記憶部
10 撮像装置
11 マイク
12 位置取得部
13 車速センサ
14 加速度センサ
20 警告装置
21 検出部
22 振動検出部
23 判定部
24 情報生成部
30 通報装置
31 画像情報
32 被害行動情報
100 運転者
110 同乗者
C 車両
P 撮像画像
2 制御部
3 記憶部
10 撮像装置
11 マイク
12 位置取得部
13 車速センサ
14 加速度センサ
20 警告装置
21 検出部
22 振動検出部
23 判定部
24 情報生成部
30 通報装置
31 画像情報
32 被害行動情報
100 運転者
110 同乗者
C 車両
P 撮像画像
Claims (9)
- 車両の室内の様子を撮像した撮像画像に基づいて前記車両の運転者に対する同乗者の行動を検出する検出部と、
前記検出部によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する判定部と、
前記判定部によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する情報生成部と
を備えることを特徴とする運転支援装置。 - 前記検出部は、
前記撮像画像から前記同乗者の身体を示す特徴点を検出することで前記行動を検出し、
前記判定部は、
前記行動を示す前記特徴点のパターンが予め定められた前記被害行動のパターンと一致した場合に、前記被害行動であると判定すること
を特徴とする請求項1に記載の運転支援装置。 - 前記判定部は、
前記検出部によって検出された前記行動が前記運転者に触れる接触行動であった場合に、前記行動を前記被害行動と判定すること
を特徴とする請求項1または2に記載の運転支援装置。 - 前記行動に伴う前記車両の振動を検出する振動検出部をさらに備え、
前記判定部は、
前記行動が前記車両の備品に対して行う対物行動であり、かつ、前記振動検出部によって検出された前記振動の検出値が所定値以上であった場合に、前記行動を前記被害行動と判定すること
を特徴とする請求項1〜3のいずれか一つに記載の運転支援装置。 - 前記検出部は、
前記運転者に対して被害を与えるための道具の所持を前記行動として検出し、
前記判定部は、
前記道具の所持を前記被害行動と判定すること
を特徴とする請求項1〜4のいずれか一つに記載の運転支援装置。 - 前記検出部は、
前記同乗者の発話内容を示す音声を前記行動として検出し、
前記判定部は、
前記検出部によって検出された前記音声に予め定められた危険キーワードが含まれる場合に、前記音声が前記被害行動であると判定すること
を特徴とする請求項1〜5のいずれか一つに記載の運転支援装置。 - 時系列の前記撮像画像を記憶する記憶部をさらに備え、
前記情報生成部は、
前記被害行動が発生した時刻を含む所定期間の前記撮像画像を前記被害発生情報として前記記憶部に記憶させること
を特徴とする請求項1〜6のいずれか一つに記載の運転支援装置。 - 前記情報生成部は、
前記同乗者に対して警告する警告情報を前記被害発生情報として生成すること
を特徴とする請求項1〜7のいずれか一つに記載の運転支援装置。 - 車両の室内の様子を撮像した撮像画像に基づいて前記車両の運転者に対する同乗者の行動を検出する検出工程と、
前記検出工程によって検出された前記行動が前記運転者に被害を及ぼす被害行動であるか否かを判定する判定工程と、
前記判定工程によって前記被害行動であると判定された場合に、前記被害行動の発生を示す被害発生情報を生成する情報生成工程と
を含むことを特徴とする運転支援方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017045307A JP2018151693A (ja) | 2017-03-09 | 2017-03-09 | 運転支援装置および運転支援方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017045307A JP2018151693A (ja) | 2017-03-09 | 2017-03-09 | 運転支援装置および運転支援方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018151693A true JP2018151693A (ja) | 2018-09-27 |
Family
ID=63681705
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017045307A Pending JP2018151693A (ja) | 2017-03-09 | 2017-03-09 | 運転支援装置および運転支援方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018151693A (ja) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020095357A (ja) * | 2018-12-10 | 2020-06-18 | トヨタ自動車株式会社 | 行動監視装置、行動監視システム、及び行動監視プログラム |
| JP2020123342A (ja) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョンStradvision,Inc. | 魚眼レンズが装着された2次元カメラを使用して2次元イメージショットで乗客の状態を予測するための方法及び装置{method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens} |
| JP2021068059A (ja) * | 2019-10-18 | 2021-04-30 | アイシン精機株式会社 | 爪先位置推定装置および指先位置推定装置 |
| WO2021084816A1 (ja) * | 2019-10-31 | 2021-05-06 | 株式会社Jvcケンウッド | 記録システム、記録方法およびプログラム |
| WO2022018781A1 (ja) * | 2020-07-20 | 2022-01-27 | 三菱電機株式会社 | 車両制御装置、プログラム及び車両制御方法 |
| WO2022130852A1 (ja) * | 2020-12-18 | 2022-06-23 | 株式会社Jvcケンウッド | 情報処理装置、情報処理方法 |
| WO2022196213A1 (ja) * | 2021-03-18 | 2022-09-22 | 矢崎総業株式会社 | 見守りシステム |
| US20220388524A1 (en) * | 2021-06-07 | 2022-12-08 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
-
2017
- 2017-03-09 JP JP2017045307A patent/JP2018151693A/ja active Pending
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7115277B2 (ja) | 2018-12-10 | 2022-08-09 | トヨタ自動車株式会社 | 行動監視装置、行動監視システム、及び行動監視プログラム |
| JP2020095357A (ja) * | 2018-12-10 | 2020-06-18 | トヨタ自動車株式会社 | 行動監視装置、行動監視システム、及び行動監視プログラム |
| JP2020123342A (ja) * | 2019-01-30 | 2020-08-13 | 株式会社ストラドビジョンStradvision,Inc. | 魚眼レンズが装着された2次元カメラを使用して2次元イメージショットで乗客の状態を予測するための方法及び装置{method and device for estimating passenger statuses in 2 dimension image shot by using 2 dimension camera with fisheye lens} |
| JP2021068059A (ja) * | 2019-10-18 | 2021-04-30 | アイシン精機株式会社 | 爪先位置推定装置および指先位置推定装置 |
| JP7375456B2 (ja) | 2019-10-18 | 2023-11-08 | 株式会社アイシン | 爪先位置推定装置および指先位置推定装置 |
| WO2021084816A1 (ja) * | 2019-10-31 | 2021-05-06 | 株式会社Jvcケンウッド | 記録システム、記録方法およびプログラム |
| JP2021072559A (ja) * | 2019-10-31 | 2021-05-06 | 株式会社Jvcケンウッド | 記録システム、記録方法およびプログラム |
| JP7354771B2 (ja) | 2019-10-31 | 2023-10-03 | 株式会社Jvcケンウッド | 記録システム、記録方法およびプログラム |
| JP7361929B2 (ja) | 2020-07-20 | 2023-10-16 | 三菱電機株式会社 | 車両制御装置、プログラム及び車両制御方法 |
| JPWO2022018781A1 (ja) * | 2020-07-20 | 2022-01-27 | ||
| WO2022018781A1 (ja) * | 2020-07-20 | 2022-01-27 | 三菱電機株式会社 | 車両制御装置、プログラム及び車両制御方法 |
| WO2022130852A1 (ja) * | 2020-12-18 | 2022-06-23 | 株式会社Jvcケンウッド | 情報処理装置、情報処理方法 |
| JP2022143604A (ja) * | 2021-03-18 | 2022-10-03 | 矢崎総業株式会社 | 見守りシステム |
| WO2022196213A1 (ja) * | 2021-03-18 | 2022-09-22 | 矢崎総業株式会社 | 見守りシステム |
| JP7326363B2 (ja) | 2021-03-18 | 2023-08-15 | 矢崎総業株式会社 | 見守りシステム |
| WO2022261080A1 (en) * | 2021-06-07 | 2022-12-15 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
| US11807257B2 (en) | 2021-06-07 | 2023-11-07 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
| US20220388524A1 (en) * | 2021-06-07 | 2022-12-08 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
| EP4351935A1 (en) | 2021-06-07 | 2024-04-17 | Toyota Connected North America, Inc. | Sensing interactions with unpermitted components within a vehicle |
| JP2024527684A (ja) * | 2021-06-07 | 2024-07-26 | トヨタ コネクテッド ノース アメリカ,インコーポレイティド | 車両内の許可されていない構成要素との相互作用の感知 |
| JP7562882B2 (ja) | 2021-06-07 | 2024-10-07 | トヨタ コネクテッド ノース アメリカ,インコーポレイティド | 車両内の許可されていない構成要素との相互作用の感知 |
| EP4351935A4 (en) * | 2021-06-07 | 2025-03-05 | Toyota Connected North America, Inc. | DETECTION OF INTERACTIONS WITH UNAUTHORIZED ELEMENTS INSIDE A VEHICLE |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2018151693A (ja) | 運転支援装置および運転支援方法 | |
| US9714037B2 (en) | Detection of driver behaviors using in-vehicle systems and methods | |
| JP6394281B2 (ja) | 車載注意喚起システム、報知制御装置 | |
| US20170291544A1 (en) | Adaptive alert system for autonomous vehicle | |
| WO2018046015A1 (zh) | 车辆报警方法、装置及终端 | |
| JP7290930B2 (ja) | 乗員モデリング装置、乗員モデリング方法および乗員モデリングプログラム | |
| JP6106402B2 (ja) | 車載装置 | |
| US9984298B2 (en) | Method for outputting a drowsiness warning and control unit | |
| TWI596580B (zh) | Obstacle warning system and its operation method | |
| US20220189221A1 (en) | Information recording device, information recording method, and program for recording information | |
| CN114387780A (zh) | 车辆损坏识别和事故管理系统和方法 | |
| CN112926544A (zh) | 一种驾驶状态确定方法、装置、设备和存储介质 | |
| WO2014126304A1 (ko) | 졸음 방지 기능을 구비하는 vsdt 룸 미러 | |
| US20250022292A1 (en) | Driver monitoring device, driver monitoring method, and non-transitory recording medium | |
| CN112311821A (zh) | 一种交通事故救援方法、装置及汽车 | |
| EP3324378A1 (en) | Electronic safety system and method for detecting a vehicle driver's attention | |
| JP2016115120A (ja) | 開閉眼判定装置および開閉眼判定方法 | |
| JP2019003312A (ja) | 注視対象物推定装置、注視対象物推定方法、およびプログラム | |
| CN107867242A (zh) | 用于在车辆中使用物体显示装置的方法、系统和车辆 | |
| JP2021163096A (ja) | 物体検出方法、物体検出装置、及び、プログラム | |
| US12472939B2 (en) | Agent apparatus | |
| GB2525654A (en) | Driver incident assistance system and method | |
| JP2007082594A (ja) | 疲労検出装置 | |
| JP2021089652A (ja) | ドライバモニタ、ドライバ状態推定方法およびプログラム | |
| CN113221734A (zh) | 影像识别方法及装置 |