[go: up one dir, main page]

JP2017111739A - 運転支援装置、運転支援方法 - Google Patents

運転支援装置、運転支援方法 Download PDF

Info

Publication number
JP2017111739A
JP2017111739A JP2015247440A JP2015247440A JP2017111739A JP 2017111739 A JP2017111739 A JP 2017111739A JP 2015247440 A JP2015247440 A JP 2015247440A JP 2015247440 A JP2015247440 A JP 2015247440A JP 2017111739 A JP2017111739 A JP 2017111739A
Authority
JP
Japan
Prior art keywords
image
region
driver
vehicle
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015247440A
Other languages
English (en)
Inventor
恭平 尾崎
Kyohei Ozaki
恭平 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015247440A priority Critical patent/JP2017111739A/ja
Publication of JP2017111739A publication Critical patent/JP2017111739A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】運転支援画像の表示形態の多様化に対応させるために、表示画像について運転者が直感的に認知させ易くする技術を提供する。【解決手段】第1の取得部は、車両の周囲を撮像する車載カメラから自車両の周囲を示す情報を取得する。第2の取得部は、ドライバーステータスモニターから運転者の顔部分の位置を示す情報を取得する。第1の生成部は、第1の取得部により取得した情報に基づく画像(以下、対象画像)を生成する。領域推定部は、第2の取得部により取得した情報を用いて、運転者が視認可能な範囲に対応する可視画像領域31、及び、運転者から見た死角となる範囲に対応する死角画像領域32、のうち少なくとも一つの画像領域を推定する。第2の生成部は、領域推定部により推定した画像領域に基づき、対象画像において可視画像領域31又は死角画像領域32の位置及び形状を示す領域画像を対象画像に合成した運転支援画像を生成する。【選択図】図4

Description

本発明は、車両の周囲において運転者の死角となる範囲を含む画像を当該運転者に提供する技術に関する。
従来、この種の技術においては、車両の周囲を撮像した画像を処理することにより、必要に応じて、当該車両の室内から周囲を見た画像や、当該車両の室外から周囲を見た画像等に加工し、加工した画像を運転支援画像として表示する技術が知られている。
例えば、特許文献1では、車両の周囲において当該車両(即ち、自車両)に接近する他車両の位置を検出し、他車両が自車両に近づくにつれて、画像に係る仮想視点の高さを上昇させたり、当該仮想視点の位置を他車両の運転者の位置に設定したり、する技術が提案されている。
特開2012−253428号公報
しかしながら、上述のように運転支援画像の表示形態が多様化されていることに伴い、表示された画像について、どのような現実世界を示しているのかを運転者が直感的に認知し難くなりつつあるという問題があった。
本発明は、運転支援画像の表示形態の多様化に対応させるためになされたものであり、表示画像について運転者が直感的に認知させ易くする技術を提供することを目的としている。
本発明の一局面である運転支援装置は、第1の取得部と、第2の取得部と、第1の生成部と、領域推定部と、第2の生成部と、画像出力部と、を備える。第1の取得部は、車両の周囲を撮像する車載装置(以下、第1の車載装置)から当該車両(以下、自車両)の周囲を示す情報を取得する。
第2の取得部は、自車両の運転者の顔部分の位置を検出する車載装置(以下、第2の車載装置)から運転者の顔部分の位置を示す情報を取得する。第1の生成部は、第1の取得部により取得した情報に基づく画像(以下、対象画像)を生成する。
領域推定部は、第2の取得部により取得した情報を用いて、自車両の周囲のうち運転者が視認可能な範囲に対応する対象画像の領域(以下、可視画像領域)、及び、自車両の周囲のうち運転者から見た死角となる範囲に対応する対象画像の領域(以下、死角画像領域)、のうち少なくとも一つの画像領域を推定する。
第2の生成部は、領域推定部により推定した画像領域に基づき、対象画像において可視画像領域又は死角画像領域の位置及び形状を示す領域画像を対象画像に合成した運転支援画像を生成する。こうして第2の生成部により生成された運転支援画像は、画像出力部によって出力される。
このような構成によれば、運転者の顔部分の位置に応じて推定された可視画像領域及び死角画像領域の少なくとも一方の画像領域が運転支援画像に反映される。このため、運転支援画像では、運転者が視認可能な範囲と、運転者から見た死角となる範囲とが、運転者の視点等に応じた位置及び形状によって識別可能な態様で表示されることになる。したがって、これらの表示範囲を運転者から見た現実世界により近い形態で識別させることにより、表示画像について運転者に直感的に認知させ易くすることができる。
また、本発明の一局面である運転支援方法によれば、上記同様の理由により、本発明の一局面である運転支援装置において既に述べた効果と同様の効果を得ることができる。
運転支援装置1の構成を示すブロック図である。 複数の車載カメラ10の各撮像領域を例示する説明図である。 表示制御ユニット20の機能的な構成を示すブロック図である。 バックガイドビュー画像又はフロントビュー画像を採用する場合において、(A)は対象画像を示すイメージ図であり、(B)(C)は運転支援画像を示すイメージ図である。 バックガイドビュー画像又はフロントビュー画像を採用する場合において、(A)(B)は運転者毎に形状及び位置が異なる可視画像領域31を示すイメージ図である。 アラウンドビュー画像を採用する場合において、(A)は対象画像を示すイメージ図であり、(B)(C)は運転支援画像を示すイメージ図である。 鳥瞰画像を採用する場合において、(A)は対象画像を示すイメージ図であり、(B)は運転支援画像を示すイメージ図である。 表示制御ユニット20のCPU12が実行する処理のフローチャートである。
以下、図面を参照しながら、発明を実施するための形態を説明する。
[1.第1実施形態]
[1−1.全体構成]
図1に示す運転支援装置1は、複数の車載カメラ10と、表示制御ユニット20と、ディスプレイ30と、ドライバーステータスモニター40と、を備える。また、図示を省略しているが、運転支援装置1は、車内ローカルエリアネットワーク(以下、車内LAN)に接続されており、車内LANに接続された他の電子制御ユニット(以下、ECU)との間で、各種センサの検出情報やECU内の制御情報等の車両情報を共有するように構成されている。以下の説明では、これらの構成要素が搭載された車両を自車両という。
なお、車内LANは、自車両の内部に配備されているローカルエリアネットワークであり、例えば、周知のCANやFlexRay、LIN、MOST、AVC−LAN等の通信プロトコルを利用して各種情報を伝送するものである。運転支援装置1においては、表示制御ユニット20と、ドライバーステータスモニター40内のECUと、が車内LANに接続されている。
各車載カメラ10は、自車両の周囲を撮像するように自車両に搭載された第1の車載装置として、自車両の前後左右における各位置に設置されている。本実施形態において、各車載カメラ10は、自車両におけるそれぞれの設置位置及び撮像領域に応じて、前方カメラ2と、後方カメラ4と、右側方カメラ6と、左側方カメラ8と、に大別される。
図2に示すように、前方カメラ2は、自車両の前部(例えば、前部中央部)に搭載され、自車両の前方領域A1を撮像する。後方カメラ4は、自車両の後部(例えば、後部中央部)に搭載され、自車両の後方領域A2を撮像する。右側方カメラ6は、自車両の右側部(例えば、右側バックミラー部)に搭載され、自車両の右側方領域A3を撮像する。左側方カメラ8は、自車両の左側部(例えば、左側バックミラー部)に搭載され、自車両の左側方領域A4を撮像する。
また、各車載カメラ10は、各撮像領域の一部が他の少なくとも1つの車載カメラ10の撮像領域の一部と重複する領域(以下、重複領域)を有するように自車両に設置されている。例えば、図2に示すように、前方カメラ2の撮像領域である前方領域A1は、右側方カメラ6の撮像領域である右側方領域A3と一部が重複する右前重複領域OA1と、左側方カメラ8の撮像領域である左側方領域A4と一部が重複する左前重複領域OA2と、を有している。後方カメラ4の撮像領域である後方領域A2は、右側方カメラ6の撮像領域である右側方領域A3と一部が重複する右後重複領域OA3と、左側方カメラ8の撮像領域である左側方領域A4と一部が重複する左後重複領域OA4と、を有している。つまり、撮像領域に重複領域を有するように車載カメラ10を配備することにより、自車両の全周囲をより確実に撮像可能とされている。
ディスプレイ30は、自車両に搭載される表示装置として、車室内等に設置されるものである。例えば、ディスプレイ30は、液晶ディスプレイ、ヘッドアップディスプレイ、又はこれらの組合せ等によって構成され、自車両の運転者が視認しやすい位置に設置される。
ドライバーステータスモニター40は、自車両の運転者の顔部分の位置を検出する第2の車載装置として、車室内におけるメーターバイザーの下部等に設置されるものである。例えば、ドライバーステータスモニター40は、近赤外線カメラ、ECU、音声出力装置等によって構成される。
ドライバーステータスモニター40のECUは、近赤外線カメラで撮影した運転者の顔部分を含む画像(以下、顔画像)をもとに、運転者の顔の向きや目の開き具合等を解析するものである。そして、ECUは、例えば決められた時間、運転者が目を閉じていたり、正面を向いていなかったりする状態が続いていると判定すると、音声出力装置を介して運転者に警報を行い、これにより安全運転を促す処理を主に行う。
詳細には、ドライバーステータスモニター40のECUは、公知の画像認識技術により、顔画像をもとに運転者の顔の輪郭や目、鼻、口等のパーツを検出し、各パーツの位置関係により顔の向きを検出する。本実施形態では、こうして検出された情報のうち、運転者の顔部分の位置(例えば、目の位置)や顔の向きを示す情報を含む、運転者の状態を示す情報(以下、運転者状態情報)が、車内LANを介して、ドライバーステータスモニター40のECUから表示制御ユニット20へ送信される。
[1−2.表示制御ユニット20の構成]
表示制御ユニット20は、CPU12と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ14)と、を有する周知のマイクロコンピュータ及び車載ネットワーク用の通信コントローラを中心に構成されたECUである。表示制御ユニット20においては、メモリ14に格納されているプログラムに基づいてCPU12により各種処理が実行される。つまり、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、マイクロコンピュータの数は1つでも複数でもよく、1ないし複数のマイクロコンピュータの各設置場所は車両内部の何れでもよい。
表示制御ユニット20は、CPU12の各種処理の実行により実現される機能の構成として、図3に示すように、第1の取得部21と、第2の取得部22と、第1の生成部23と、領域推定部24と、第2の生成部25と、画像出力部26と、を備える。なお、表示制御ユニット20が提供するこれら機能の一部又は全部を、一つあるいは複数の論理回路やIC等の電子回路によりハードウェア的に構成してもよい。つまり、表示制御ユニット20においては、ソフトウェアに限らず、ハードウェアあるいはそれらの組合せによっても上記機能を提供することができる。
第1の取得部21は、各車載カメラ10から自車両の周囲を示す画像(以下、周囲画像)を取得する。本実施形態では、各車載カメラ10から、前方領域A1、後方領域A2、右側方領域A3、左側方領域A4を撮像した各周囲画像を所定のフレームレートで取得し、これらの周囲画像を互いに識別可能な態様でメモリ14に格納する。なお、メモリ14には、各車載カメラ10の位置及び姿勢を示す外部パラメータや、焦点距離や画像中心や画像サイズや歪収差係数等を示す内部パラメータ等を含む周知のカメラパラメータが格納されている。第1の取得部21は、これらのカメラパラメータのうち一部又は全部を各車載カメラ10から取得しても良い。カメラパラメータは、以下で述べる対象画像や領域画像を生成する際等に用いられる。
第1の生成部23は、第1の取得部21により取得した情報に基づく画像(以下、対象画像)を生成する。対象画像は、1ないし複数の周囲画像をもとに生成される画像であり、周囲画像そのものでも良いし、複数の周囲画像を繋ぎ合わせた画像であっても良いし、視点変換画像であっても良い。また、対象画像は、複数の視点変換画像を繋ぎ合わせた画像であっても良い。
視点変換画像は、車載カメラ10の視点から見た周囲画像を、仮想カメラの視点(すなわち、仮想視点)から見ているかのように座標変換した画像である。例えば、カメラ座標系の光軸を基準とすると、撮像画像上のあらゆる点の座標位置を光軸からの角度と距離とによって求め、これらの座標位置を仮想カメラの光軸に基づいて回転及び並進させることにより、画像を視点変換することができる。つまり、仮想カメラの光軸として、仮想視点の位置及び向きを設定すれば、所望の視点変換画像を得ることが可能となる。なお、画像の視点変換技術は当業者にとって周知のため、その詳細な説明については省略する。
対象画像としては、例えば、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等が挙げられる。これらの画像は、ユーザによる運転操作やスイッチ操作等によって切り替えることができる。この切り替えに係る制御は、表示制御ユニット20が行っても良いし、自車両内の他のECUが行っても良い。他のECUが行う場合には、その切り替えに係る制御指示が、車内LANを介して、当該他のECUから表示制御ユニット20へ送信される。
バックガイドビュー画像は、例えば、後方領域A2を撮像した周囲画像に基づく画像に、車庫入れや駐車等の後退運転時にハンドル操作の参考となる予想進路線や距離目安線を重畳した態様で表示する画像である。フロントビュー画像は、例えば、前方領域A1を撮像した周囲画像を、自車両の発進時等に死角になりやすい自車両付近の安全確認を行える態様に加工した画像である。アラウンドビュー画像は、例えば、前方領域A1、後方領域A2、右側方領域A3及び左側方領域A4を撮像した各周囲画像のうち少なくとも2つの画像を繋ぎ合わせた画像をもとに加工した画像である。鳥瞰画像は、例えば、自車両の真上から自車両の周囲を見た態様に加工された視点変換画像である。これら画像の生成方法は当業者にとって周知のため、その詳細な説明については省略する。
第2の取得部22は、ドライバーステータスモニター40から、運転者の顔部分の位置を示す情報を取得する。本実施形態では、運転者の目の位置を示す情報と、運転者の顔の向きを示す情報と、を含む運転者状態情報を、ドライバーステータスモニター40から車内LANを介して所定の周期で取得する。そして、この運転者状態情報を、第1の取得部21により周囲画像を取得したタイミングと対応付けてメモリ14に格納する。なお、第1の生成部により生成される対象画像は、運転者の目の位置を仮想視点の位置、運転者の顔の向きを仮想視点の向きとした視点変換画像であっても良い。
領域推定部24は、第2の取得部22により取得した情報を用いて、自車両の周囲のうち運転者が視認可能な範囲に対応する対象画像の領域(以下、可視画像領域31)、及び、自車両の周囲のうち運転者から見た死角となる範囲に対応する対象画像の領域(以下、死角画像領域32)、のうち少なくとも一つの画像領域を推定する。本実施形態において、領域推定部24は、画像領域について、運転者の目の位置に応じた形状を推定する。
具体的には、対象画像としてバックガイドビュー画像やフロントビュー画像が採用される場合、領域推定部24は、図4(A)に示す対象画像から、自車両のピラーやルーフパネルやリアパネル又はフロントパネルによって運転者の視界が遮られる領域を、図4(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。なお、メモリ14には、自車両のフレーム各部やドア等の形状及び位置や、自車両のミラーの形状及び位置等を示す座標に関する情報(以下、車体情報)が、カメラ座標に変換可能な態様で記憶されている。つまり、領域推定部24による画像領域の推定には、メモリ14に記憶されている車体情報が用いられる。
詳細には、本実施形態では、領域推定部24において、可視画像領域31は、運転者状態情報に基づいて、図4(C)に示すように、運転者の目の高さに応じた位置及び形状に補正される。つまり、運転者が車室内から車室外を見たときの車室外の見え方(以下、視界)は、運転者の目の位置によって異なるため、可視画像領域31の位置及び形状を変更するようにしている。
例えば、図5(A)に示す運転者Aの視界に対応する可視画像領域31は、運転者Aよりも背が高い図5(B)に示す運転者Bの視界に対応する可視画像領域31と比較して、ルーフパネル側(すなわち、上方)にシフトしたものとなる。また、可視画像領域31の形状については、図5(A)に示す下辺に対する上辺の長さの割合が図5(B)に示すものよりも大きくなる。逆に言うと、図5(B)に示す運転者Bの視界に対応する可視画像領域31は、運転者Aよりも背が低い図5(A)に示す運転者Aの視界に対応する可視画像領域31と比較して、リアパネル又はフロントパネル側(すなわち、下方)にシフトしたものとなる。また、可視画像領域31の形状については、図5(B)に示す下辺に対する上辺の長さの割合が図5(A)に示すものよりも小さくなる。つまり、こうした可視画像領域31の位置及び形状の推定精度を上げるために、運転者状態情報のうち、運転者の目の位置を示す情報を用いている。
また、具体的には、対象画像としてアラウンドビュー画像が採用される場合、領域推定部24は、図6(A)に示す対象画像から、自車両のピラーやフロントパネルやドアによって運転者の視界が遮られる領域を、図6(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。
この可視画像領域31についても、運転者状態情報に基づいて、図6(C)に示すように、運転者の目の高さに応じた位置及び形状に補正される。例えば、図6(C)に示す可視画像領域31は、図6(B)に示す可視画像領域31と比較して、下方にシフトしたものとなり、またピラーの位置が左側にシフトしたものとなる。逆に言うと、図6(B)に示す可視画像領域31は、図6(C)に示す可視画像領域31と比較して、上方にシフトしたものとなり、またピラーの位置が右側にシフトしたものとなる。
また、具体的には、対象画像として鳥瞰画像が採用される場合、領域推定部24は、図7(A)に示す対象画像から、自車両のフレーム各部やドア等によって運転者の視界が遮られる領域から、バックミラーによって運転者が視認可能な領域を除く領域を、図7(B)に示す死角画像領域32として推定する。そして、本実施形態では、対象画像のうち、死角画像領域32を除く領域を可視画像領域31として推定する。例えば、バックミラーによって運転者が視認可能な領域については、運転者の目の位置と、車体情報が示す自車両のミラーの形状及び位置の座標と、に基づいて推定することができる。
第2の生成部25は、領域推定部24により推定した画像領域に基づき、対象画像において可視画像領域31又は死角画像領域32の位置及び形状を示す領域画像を対象画像に合成した運転支援画像を生成する。この領域画像は、少なくとも可視画像領域31と死角画像領域32との境界が識別可能な態様であれば良く、例えば、境界線によって示される画像であっても良いし、領域によって示される画像であっても良い。
具体的には、例えば、対象画像がバックガイドビュー画像やフロントビュー画像やアラウンドビュー画像である場合、第2の生成部25は、自車両のピラーやルーフパネルやリアパネル又はフロントパネルやドアの位置及び形状を模擬した画像を、死角画像領域32の領域画像として生成する。そして、生成した領域画像を対象画像に重畳することにより運転支援画像を生成する。
この場合、領域画像は、上記のように模擬した部分の輪郭(すなわち、死角画像領域32の輪郭)を示す画像でも良い。また、領域画像は、上記のように重畳した画像部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように、輝度、明度、若しくは不透明度が調整された画像でも良いし、これに輪郭を付加した画像でも良い。
あるいは、領域画像は、可視画像領域31の輪郭を示す画像でも良いし、可視画像領域31自体を示す画像であっても良い。この場合も、領域画像は、上記のように重畳した部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像でも良いし、これに輪郭を付加した画像でも良い。また、これに代えて、あるいはこれに加えて、領域画像は、可視画像領域31にハッチングが施された画像であっても良い。
例えば、対象画像として鳥瞰画像が採用される場合、第2の生成部25は、図7(B)に示すように、バックミラーによるものを含む運転者が視認可能な領域(すなわち、可視画像領域31)にハッチングを施した画像を領域画像とし、対象画像と合成することができる。この場合も、領域画像は、上記のように重畳した部分において、領域画像を上位のレイヤー、対象画像を下位のレイヤーとし、下位のレイヤーである対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像であっても良いし、これに輪郭を付加した画像であっても良い。あるいは、逆に、死角画像領域32にハッチングを施した画像を領域画像としても良い。
画像出力部26は、第2の生成部25により生成された運転支援画像を出力する。具体的には、第2の生成部25により生成された運転支援画像をディスプレイ30に表示する。
[1−3.処理]
次に、表示制御ユニット20のCPU12が実行する処理の一例について、図8のフローチャートを用いて説明する。なお、本処理は、例えば自車両のイグニッションスイッチがON状態であり、運転支援機能に係るスイッチがONされている間、所定サイクル毎に繰り返し起動される。
本処理が起動すると、S110において第1の取得部21は、各車載カメラ10から周囲画像を取得する。本実施形態においては、このとき、第1の取得部21は、各車載カメラ10からカメラパラメータも取得する。
S120において第2の取得部22は、ドライバーステータスモニター40から運転者状態情報を取得する。
S130において第1の生成部23は、第1の取得部21により取得した周囲画像をもとに、対象画像を生成する。対象画像としては、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等があり、これらの画像からユーザによる運転操作やスイッチ操作等の内容に応じた画像が選択される。
S140において領域推定部24は、S120で取得した運転者状態情報を用いて、運転者の目の位置から見て死角となる範囲に対応する死角画像領域32を、S130で生成した対象画像において推定する。または、運転者の目の位置から見て運転者の視認可能な範囲に対応する可視画像領域31を、S130で生成した対象画像において推定する。
S150において第2の生成部25は、S140で推定した画像領域に相当する領域画像を生成し、生成した領域画像を、S130で生成した対象画像に重畳することにより、領域画像を対象画像に合成する。例えば、領域画像としては、対象画像のうち、死角画像領域32を目立たせるために、可視画像領域31の輝度や明度を落としたり、可視画像領域31を半透明にするように不透明度を上げたり、可視画像領域31にハッチングを施したりするためのフィルター効果を有する画像(以下、フィルター画像)が使用される。また例えば、領域画像としては、対象画像のうち、死角画像領域32を目立たせるために、死角画像領域32の輪郭を強調した画像(以下、強調画像)や、死角画像領域32の輝度や明度を上げたり、死角画像領域32の不透明度を下げたりするためのフィルター画像が使用される。なお、領域画像としては、複数の各種フィルター画像を組み合わせて使用しても良いし、フィルター画像と強調画像とを組み合わせて使用しても良い。
S160において画像出力部26は、S150で領域画像を対象画像に合成した画像を運転支援画像としてディスプレイ30に表示し、本処理を終了する。
[1−4.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
(1a)運転者の顔部分の位置に応じて推定された可視画像領域31及び死角画像領域32の少なくとも一方の画像領域が運転支援画像に反映されるため、運転支援画像では、運転者が視認可能な範囲と、運転者から見た死角となる範囲とが、運転者の視点等に応じた位置及び形状によって識別可能な態様で表示されることになる。したがって、これらの表示範囲を運転者から見た現実世界により近い形態で識別させることにより、表示画像について運転者に直感的に認知させ易くすることができる。
(2a)画像領域について運転者の目に応じた形状を推定するため、運転者の目の位置に応じた形状に可視画像領域31及び死角画像領域32の少なくとも一方の画像領域が加工されることになる。このため、運転者から見た現実世界によりもっと近い形態で識別させることが可能となり、ひいては表示画像について運転者により直感的に認知させ易くすることができる。
(3a)死角画像領域32の位置及び形状を示す領域画像を上位のレイヤーとし、下位のレイヤーである対象画像が見えるように不透明度等が調整された領域画像や、死角画像領域32の輪郭を示す領域画像を、対象画像に重畳させる。このため、対象画像において死角画像領域32を目立たせることができ、運転者により注意を向けさせたい表示範囲を運転者に直感的に認知させ易くすることができる。
(4a)可視画像領域31の位置及び形状を示す領域画像を上位のレイヤーとし、下位のレイヤーである対象画像が見えるように不透明度等が調整された領域画像や、可視画像領域31にハッチングが施された領域画像を、対象画像に重畳させる。このため、対象画像において死角画像領域32を相対的に目立たせることができ、運転者により注意を向けさせたい表示範囲を運転者に直感的に認知させ易くすることができる。
[2.他の実施形態]
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
(2A)上記実施形態では、バックガイドビュー画像やフロントビュー画像、アラウンドビュー画像、鳥瞰画像等の対象画像を、ユーザによる運転操作やスイッチ操作等の内容に応じて選択しているが、これに限定されるものではない。例えば、自車両の周囲の状況や走行シーン等において対象画像の種別を変更しても良い。自車両の周囲の状況としては、例えば歩行者や他車両等の有無が挙げられる。また、走行シーンとしては、例えば高速道路や一般道路や市街地等といった走行環境の種別や、高速運転時や低速運転時等といった自車速に基づく種別等が挙げられる。
(2B)上記実施形態では、複数の車載カメラ10が撮像した周囲画像に基づいて対象画像を作成しているが、これに限定されるものではなく、1つの車載カメラ10が撮像した周囲画像に基づいて対象画像を作成するようにしても良い。つまり、運転支援装置1は、1つの車載カメラ10を備えて構成されても良い。
(2C)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。
(2D)上述した運転支援装置1の他、当該運転支援装置1を構成要素とするシステム、当該運転支援装置1としてコンピュータを機能させるための1ないし複数のプログラム、このプログラムの少なくとも一部を記録した1ないし複数の半導体メモリ等の非遷移的実体的記録媒体、運転支援方法など、種々の形態で本発明を実現することもできる。
1…運転支援装置、10…車載カメラ、12…CPU、14…メモリ、20…表示制御ユニット、21…第1の取得部、22…第2の取得部、23…第1の生成部、24…領域推定部、25…第2の生成部、26…画像出力部、30…ディスプレイ、31…可視画像領域、32…死角画像領域、40…ドライバーステータスモニター

Claims (5)

  1. 車両の周囲を撮像する車載装置を第1の車載装置として、前記第1の車載装置から前記車両の周囲を示す情報を取得する第1の取得部と、
    前記車両の運転者の顔部分の位置を検出する車載装置を第2の車載装置として、前記第2の車載装置から前記運転者の顔部分の位置を示す情報を取得する第2の取得部と、
    前記第1の取得部により取得した情報に基づく画像を対象画像として生成する第1の生成部と、
    前記第2の取得部により取得した情報を用いて、前記車両の周囲のうち前記運転者が視認可能な範囲に対応する前記対象画像の領域である可視画像領域、及び、前記車両の周囲のうち前記運転者から見た死角となる範囲に対応する前記対象画像の領域である死角画像領域、のうち少なくとも一つの画像領域を推定する領域推定部と、
    前記領域推定部により推定した画像領域に基づき、前記対象画像において前記可視画像領域又は前記死角画像領域の位置及び形状を示す領域画像を前記対象画像に合成した運転支援画像を生成する第2の生成部と、
    前記第2の生成部により生成された運転支援画像を出力する画像出力部と、
    を備える運転支援装置。
  2. 請求項1に記載の運転支援装置であって、
    前記第2の取得部により取得される情報には、前記運転者の目の位置を示す情報が含まれており、
    前記領域推定部は、前記画像領域について、前記運転者の目の位置に応じた形状を推定する、運転支援装置。
  3. 請求項1又は請求項2に記載の運転支援装置であって、
    前記第2の生成部は、前記対象画像において前記死角画像領域の位置及び形状を示す領域画像を上位のレイヤーとして前記対象画像に合成し、
    前記第2の生成部により合成される領域画像は、前記領域画像との重畳部分において下位のレイヤーである前記対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像、前記死角画像領域の輪郭を示す画像、又は、これらの組合せによる画像である、運転支援装置。
  4. 請求項1又は請求項2に記載の運転支援装置であって、
    前記第2の生成部は、前記対象画像において前記可視画像領域の位置及び形状を示す領域画像を上位のレイヤーとして前記対象画像に合成し、
    前記第2の生成部により合成される領域画像は、前記領域画像との重畳部分において下位のレイヤーである前記対象画像が見えるように輝度、明度、若しくは不透明度が調整された画像、前記可視画像領域にハッチングが施された画像、又は、これらの組合せによる画像である、運転支援装置。
  5. 車両の周囲を撮像する車載装置を第1の車載装置として、前記第1の車載装置から前記車両の周囲を示す情報を取得する第1の取得工程と、
    前記車両の運転者の顔部分の位置を検出する車載装置を第2の車載装置として、前記第2の車載装置から前記運転者の顔部分の位置を示す情報を取得する第2の取得工程と、
    前記第1の取得工程により取得した情報に基づく画像を対象画像として生成する第1の生成工程と、
    前記第2の取得工程により取得した情報を用いて、前記車両の周囲のうち前記運転者が視認可能な範囲に対応する前記対象画像の領域である可視画像領域、及び、前記車両の周囲のうち前記運転者から見た死角となる範囲に対応する前記対象画像の領域である死角画像領域、のうち少なくとも一つの画像領域を推定する領域推定工程と、
    前記領域推定工程により推定した画像領域に基づき、前記対象画像において前記可視画像領域又は前記死角画像領域の位置及び形状を示す領域画像を前記対象画像に合成した運転支援画像を生成する第2の生成工程と、
    前記第2の生成工程により生成された運転支援画像を出力する画像出力工程と、
    を備える運転支援方法。
JP2015247440A 2015-12-18 2015-12-18 運転支援装置、運転支援方法 Pending JP2017111739A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015247440A JP2017111739A (ja) 2015-12-18 2015-12-18 運転支援装置、運転支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015247440A JP2017111739A (ja) 2015-12-18 2015-12-18 運転支援装置、運転支援方法

Publications (1)

Publication Number Publication Date
JP2017111739A true JP2017111739A (ja) 2017-06-22

Family

ID=59080775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015247440A Pending JP2017111739A (ja) 2015-12-18 2015-12-18 運転支援装置、運転支援方法

Country Status (1)

Country Link
JP (1) JP2017111739A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004144A (ja) * 2018-06-29 2020-01-09 国立大学法人金沢大学 障害物マップ生成装置、及び自律移動体
WO2020122085A1 (ja) * 2018-12-11 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
WO2020122084A1 (ja) * 2018-12-11 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
WO2020122079A1 (ja) * 2018-12-11 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
JP2021148580A (ja) * 2020-03-18 2021-09-27 株式会社デンソー 車両に搭載して用いられる計測装置ユニットおよび車両における障害物検出方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196645A (ja) * 2001-12-28 2003-07-11 Equos Research Co Ltd 車両の画像処理装置
JP2005269010A (ja) * 2004-03-17 2005-09-29 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2012052934A (ja) * 2010-09-01 2012-03-15 Fujitsu Ten Ltd 可搬型ナビゲーション装置
JP2014198531A (ja) * 2013-03-29 2014-10-23 アイシン精機株式会社 画像表示制御装置、画像表示システム、および表示ユニット
JP2015055881A (ja) * 2013-09-10 2015-03-23 三菱電機株式会社 情報処理装置、情報表示装置および表示制御方法
JP2015109681A (ja) * 2015-01-09 2015-06-11 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196645A (ja) * 2001-12-28 2003-07-11 Equos Research Co Ltd 車両の画像処理装置
JP2005269010A (ja) * 2004-03-17 2005-09-29 Olympus Corp 画像生成装置、画像生成プログラム、及び画像生成方法
JP2012052934A (ja) * 2010-09-01 2012-03-15 Fujitsu Ten Ltd 可搬型ナビゲーション装置
JP2014198531A (ja) * 2013-03-29 2014-10-23 アイシン精機株式会社 画像表示制御装置、画像表示システム、および表示ユニット
JP2015055881A (ja) * 2013-09-10 2015-03-23 三菱電機株式会社 情報処理装置、情報表示装置および表示制御方法
JP2015109681A (ja) * 2015-01-09 2015-06-11 キヤノン株式会社 画像処理方法、画像処理装置、画像処理プログラムおよび撮像装置

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004144A (ja) * 2018-06-29 2020-01-09 国立大学法人金沢大学 障害物マップ生成装置、及び自律移動体
JP7121361B2 (ja) 2018-06-29 2022-08-18 国立大学法人金沢大学 自律移動体
EP3896963A4 (en) * 2018-12-11 2022-01-19 Sony Group Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING SYSTEM
US11603043B2 (en) 2018-12-11 2023-03-14 Sony Group Corporation Image processing apparatus, image processing method, and image processing system
CN113170083A (zh) * 2018-12-11 2021-07-23 索尼集团公司 图像处理装置、图像处理方法和图像处理系统
CN113170084A (zh) * 2018-12-11 2021-07-23 索尼集团公司 图像处理装置、图像处理方法和图像处理系统
US12296749B2 (en) 2018-12-11 2025-05-13 Sony Group Corporation Image processing apparatus, image processing method, and image processing system
JPWO2020122084A1 (ja) * 2018-12-11 2021-10-21 ソニーグループ株式会社 画像処理装置、画像処理方法および画像処理システム
JPWO2020122079A1 (ja) * 2018-12-11 2021-10-21 ソニーグループ株式会社 画像処理装置、画像処理方法および画像処理システム
JPWO2020122085A1 (ja) * 2018-12-11 2021-10-21 ソニーグループ株式会社 画像処理装置、画像処理方法および画像処理システム
WO2020122084A1 (ja) * 2018-12-11 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
EP3896961A4 (en) * 2018-12-11 2022-01-19 Sony Group Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND IMAGE PROCESSING SYSTEM
WO2020122085A1 (ja) * 2018-12-11 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
WO2020122079A1 (ja) * 2018-12-11 2020-06-18 ソニー株式会社 画像処理装置、画像処理方法および画像処理システム
US11813988B2 (en) 2018-12-11 2023-11-14 Sony Group Corporation Image processing apparatus, image processing method, and image processing system
JP7444073B2 (ja) 2018-12-11 2024-03-06 ソニーグループ株式会社 画像処理装置、画像処理方法および画像処理システム
JP7484722B2 (ja) 2018-12-11 2024-05-16 ソニーグループ株式会社 画像処理装置、画像処理方法および画像処理システム
EP4420930A3 (en) * 2018-12-11 2024-10-09 Sony Group Corporation Image processing device, image processing method, and image processing system
US11987182B2 (en) 2018-12-11 2024-05-21 Sony Group Corporation Image processing apparatus, image processing method, and image processing system
JP7494735B2 (ja) 2018-12-11 2024-06-04 ソニーグループ株式会社 画像処理装置、画像処理方法および画像処理システム
US12088952B2 (en) 2018-12-11 2024-09-10 Sony Group Corporation Image processing apparatus, image processing method, and image processing system
JP7484270B2 (ja) 2020-03-18 2024-05-16 株式会社デンソー 車両に搭載して用いられる計測装置ユニットおよび車両における障害物検出方法
JP2021148580A (ja) * 2020-03-18 2021-09-27 株式会社デンソー 車両に搭載して用いられる計測装置ユニットおよび車両における障害物検出方法

Similar Documents

Publication Publication Date Title
JP5099451B2 (ja) 車両周辺確認装置
EP2487906B1 (en) Control device and vehicle surrounding monitoring device
JP6524922B2 (ja) 運転支援装置、運転支援方法
CN107284356B (zh) 车辆视镜替代系统
JP6649914B2 (ja) 画像表示装置
JP2007104373A (ja) 車両用画像表示装置
JP2008193339A (ja) 後方監視装置
JP5708669B2 (ja) 車両用表示装置
JP2014229997A (ja) 車両用表示装置
JP7585456B2 (ja) 運転者による後方視認のための電子画像ディスプレイを含む車両視認システム及び方法
US20190100145A1 (en) Three-dimensional image driving assistance device
JP2018052216A (ja) 車両用視認装置及び車両用視認画像表示方法
JP2017111739A (ja) 運転支援装置、運転支援方法
EP3967554A1 (en) Vehicular display system
JP2009248721A (ja) 車両用情報表示装置
US20220144187A1 (en) Camera system for a trailer hitch system
WO2022224754A1 (ja) 車両用表示システム、車両用表示方法、及び車両用表示プログラム
JP2013207746A (ja) 車両の後側方撮影装置
JP6115278B2 (ja) 車両用表示装置
JP2014235640A (ja) 車両表示装置
KR20180094717A (ko) Avm을 이용한 운전 지원 장치 및 시스템
JP2018091908A (ja) ヘッドアップディスプレイ装置
CN104553985B (zh) 汽车转向辅助系统
JP2007302238A (ja) 車両の画像処理装置
JP2016213708A (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407