[go: up one dir, main page]

JP5699679B2 - 画像処理装置、画像処理システム、及び画像処理方法 - Google Patents

画像処理装置、画像処理システム、及び画像処理方法 Download PDF

Info

Publication number
JP5699679B2
JP5699679B2 JP2011037830A JP2011037830A JP5699679B2 JP 5699679 B2 JP5699679 B2 JP 5699679B2 JP 2011037830 A JP2011037830 A JP 2011037830A JP 2011037830 A JP2011037830 A JP 2011037830A JP 5699679 B2 JP5699679 B2 JP 5699679B2
Authority
JP
Japan
Prior art keywords
evaluation value
vehicle
captured images
traveling direction
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011037830A
Other languages
English (en)
Other versions
JP2012174152A (ja
Inventor
彰 熊谷
彰 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Semiconductor Ltd
Original Assignee
Fujitsu Semiconductor Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Semiconductor Ltd filed Critical Fujitsu Semiconductor Ltd
Priority to JP2011037830A priority Critical patent/JP5699679B2/ja
Priority to US13/316,513 priority patent/US8503729B2/en
Publication of JP2012174152A publication Critical patent/JP2012174152A/ja
Application granted granted Critical
Publication of JP5699679B2 publication Critical patent/JP5699679B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両周囲の撮像画像を処理する画像処理装置等に関する。
車両周囲の複数の方向の撮像画像をつなぎ合わせ、車両周囲をたとえば上方から俯瞰するような俯瞰画像を生成して表示する、画像処理装置が知られている(たとえば、特許文献1〜3)。かかる俯瞰画像は、たとえばナビゲーションシステムの表示画面に表示され、運転者の安全確認に用いられる。そのため、俯瞰画像は、車両周囲の物体をもれなく含むことと、良好な視認性とが要求される。
上記のような要求により、たとえば車両の前後左右の四方向を撮像するために車両の前部、後部、左側部、右側部にそれぞれ取り付けられた複数の撮像装置において、隣接する2つの撮像装置は、それぞれの撮像領域がある程度重複するように、取付け位置や角度が調節される。そうすることで、車両周囲の物体がもれなく撮像される。
この場合、生成される撮像画像には重複部分が生じる。よって、重複部分に2つの撮像画像の境界を設定し、その境界において2つの撮像画像をつなぎ合わせるような画像処理が行われる。しかし、撮像装置には製造誤差があり、隣接する撮像装置の光学特性等を完全に一致させることは困難である。よって、境界付近では、撮像画像の不連続が生じる。そこで、撮像画像の不連続性を目立たなくさせることで、視認性低下を防止する方法が提案されている。たとえば、境界付近では撮像画像を半透明にして重複させる画像処理方法などがある。
特開2009−137353号公報 特開2007−41791号公報 特開2007−36668号公報
しかしながら、単一の物体を異なる方向から撮像した撮像画像を重複させることで、その物体が二重に表示される場合がある。すると、たとえば境界付近に衝突回避動作などの対象とすべき物体が存在する場合において、その物体が二重に表示されると、運転者の混乱を招くおそれがある。かかる混乱が生じることは、安全上好ましくない。
そこで、本発明の目的は、俯瞰画像における撮像画像の不連続性による影響を抑制できる画像処理装置等を提供することにある。
上記の目的を達成するための一実施形態における画像処理装置は、車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当てる処理部と、前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部と、を有する。
以下に示す実施形態によれば、俯瞰画像における撮像画像の不連続性による影響を抑制できる。
本実施形態の画像処理装置が適用される画像処理システムの構成例を示す図である。 車両周囲の撮像画像と俯瞰画像について説明する図である。 画像処理装置の構成例である。 画像処理プログラムによる機能ブロック図である。 車両の前進時、後進時におけるポイント割当処理について説明する図である。 境界決定部の処理について説明する図である。 車両が曲折するときのポイント割当処理について説明する図である。 車両が前進する場合の、物体の変位方向とポイントの例を示す図である。 車両が前進する場合の、物体の変位方向とポイントの例を示す図である。 車両が後進する場合の、物体の変位方向とポイントの例を示す図である。 車両が後進する場合の、物体の変位方向とポイントの例を示す図である。 車両の曲折方向と物体の変位方向の例を示す図である。 車両の曲折方向と物体の変位方向の例を示す図である。 車両が前進または後進する場合の、物体の変位方向とポイントの例を示す図である。 車両が前進または後進する場合の、物体の変位方向とポイントの例を示す図である。 車両が左折する場合の、物体の変位方向とポイントの例を示す図である。 車両が左折する場合の、物体の変位方向とポイントの例を示す図である。 車両が右折する場合の、物体の変位方向とポイントの例を示す図である。 車両が右折する場合の、物体の変位方向とポイントの例を示す図である。 ポイントマップについて説明する図である。 画像処理手順を説明するフローチャート図である。 重複領域に含まれる物体が検出された例を示す図である。 物体について選択されるポイントマップの例を示す図である。 算出されたポイントの例を示す図である。
以下、図面にしたがって実施の形態について説明する。但し、適用される技術的範囲はこれらの実施の形態に限定されず、特許請求の範囲に記載された事項とその均等物まで及ぶものである。
図1は、本実施形態の画像処理装置が適用される画像処理システムの構成例を示す。この画像処理システムは、車両1の周囲の複数の撮像画像から、車両1の周囲を所定の視点から見た画像を生成して表示する画像処理システムである。車両1の周囲を所定の視点から見た画像は、たとえば、車両1の周囲を車両1の上方の仮想の視点から見た俯瞰画像である。
この画像処理システムは、前方または後方を進行方向とする車両1に搭載される。以下、車両1が前進するときは、前方が進行方向であり、後方が進行方向の反対方向である。反対に、車両1が後進するときは、後方が進行方向であり、前方が進行方向の反対方向である。いずれの場合も、車両1において、その中心部を通過する前後方向軸が進行方向軸Y―Y´軸である。
画像処理システムは、たとえば、撮像装置2_1、2_2、2_3、及び2_4と、画像処理装置4と、表示装置6とを有する。撮像装置2_1、2_2、2_3、及び2_4は、たとえば、車両1の前部、後部、左側部、及び右側部にそれぞれ取り付けられる。たとえば、撮像装置2_1は、車両1の前部のナンバープレートやフロントグリル近傍に取り付けられる。また、撮像装置2_2は、車両1の後部のナンバープレートやバンパー近傍に取り付けられる。また、撮像装置2_3、2_4は、車両1の左右側部のサイドミラー近傍にそれぞれ取り付けられる。撮像装置2_1、2_2、2_3、及び2_4は、車両の前方、後方、左方、及び右方の撮像領域2a_1、2a_2、2a_3、及び2a_4をそれぞれ撮像する。ここで、撮像装置2_1〜2_4は、撮像領域2a_1と撮像領域2a_3、2a_4がそれぞれハッチングで図示される重複領域2a_13、2a_14を有し、撮像領域2a_2と撮像領域2a_3、2a_4がそれぞれハッチングで図示される重複領域2a_23、2a_24を有するように、光学特性、取付け位置、取付け角度等が設定される。これにより、撮像領域2a_1〜2a_4において、物体をもれなく撮像することができる。
画像処理装置4は、撮像装置2_1〜2_4による撮像画像データを取り込んで画像処理を行い、各撮像画像をつなぎ合わせて俯瞰画像データを生成する。画像処理装置4は、たとえば、画像処理用ECU(Electronic Control Unit)内部やナビゲーションシステム内部に備えられる。俯瞰画像データは、表示装置6に送られる。表示装置6は、俯瞰画像データに基づいて俯瞰画像を表示する。表示装置6は、たとえば、ナビゲーションシステムの表示部である。
図2は、車両周囲の撮像画像と俯瞰画像について説明する図である。図2(A)には、撮像装置2_1、2_2、2_3、及び2_4による撮像画像G1、G2、G3、及びG4が模式的に示される。たとえば、車両1の進行方向軸Y−Y´に対応する、前方の撮像画像G1と後方の撮像画像G2が示される。ここで、車両1が前進するときには、進行方向(前方)に対応する撮像画像は撮像画像G1であり、進行方向と反対方向(後方)の撮像画像は撮像画像G2である。反対に、車両1が後進するときには、進行方向(後方)に対応する撮像画像は撮像画像G2であり、進行方向と反対方向(前方)の撮像画像は撮像画像G1である。また、進行方向軸Y−Y´に交差する方向に対応する、左方の撮像画像G3と右方の撮像画像G4が示される。図1で示したような撮像領域2a_1〜2a_4の設定により、撮像画像G1と撮像画像G3、G4は、ハッチングで図示される重複領域G13、G14をそれぞれ有し、撮像画像G2と撮像画像G3、G4は、ハッチングで図示される重複領域G23、G24をそれぞれ有する。
図2(B)には、撮像画像G1〜G4がつなぎ合わされて生成される、車両1の周囲の俯瞰画像G10が模式的に示される。画像処理装置4は、撮像画像G1と撮像画像G3、G4を、それぞれ重複領域G13、G14における境界E13、E14でつなぎ合わせる。また、画像処理装置4は、撮像画像G2と撮像画像G3、G4を、それぞれ重複領域G23、G24における境界E23、E24でつなぎ合わせる。かかる境界E13、E14、E23、及びE24は、後に詳述する方法により決定される。
図3は、画像処理装置4の構成例である。画像処理装置4は、撮像制御部10、CPU(Central Processing Unit)12、バス14、表示制御部16、タイミング発生器17、及びインターフェース部19を有する、たとえば画像処理LSI(Large Scale Integration)である。バス14には、入力フレームバッファ18、出力フレームバッファ20、ROM(Read Only Memory)22、RAM(Random Access Memory)23が接続される。
撮像制御部10は、撮像装置2_1〜2_4の撮像動作を制御する各種制御信号やタイミング信号を撮像装置2_1〜2_4に出力する。また、撮像制御部10は、撮像装置2_1〜2_4から撮像画像データが入力される。撮像制御部10は、撮像画像データを入力フレームバッファ18に格納する。入力フレームバッファ18や出力フレームバッファ20は、たとえばVideo RAMである。
CPU12は、ROM22から画像処理プログラムPRGをRAM23に読出し、画像処理プログラムPRGに従って動作する。CPU12は、入力フレームバッファ18から撮像画像データを読み出し、後述する画像処理を行って撮像画像をつなぎ合わせ、俯瞰画像データを生成する。俯瞰画像データは、出力フレームバッファ20に格納される。
出力フレームバッファ20に格納された俯瞰画像データは、表示制御部16により読み出される。表示制御部16は、タイミング発生器17が生成するタイミング信号に同期して、俯瞰画像データを表示装置6に出力し、表示装置6に俯瞰画像を表示させる。
インターフェース部19には、車両1の車速センサからの車速信号、操舵角センサからの操舵角信号、及びトランスミッションECUからの車両の進行方向を示す信号(例えばトランスミッション信号)が入力される。これらの信号は、CPU12に送られ、俯瞰画像生成の際にパラメータとして用いられる。
図4は、画像処理プログラムPRGに従って動作するCPU12の機能ブロック図である。CPU12は、個々の撮像画像データに対し所定の画像処理を行う画像処理部30と、俯瞰画像の生成のための物体検出部32、ポイント割当処理部34、境界決定部36、俯瞰画像生成部38とを有する。
画像処理部30による画像処理には、たとえば、撮像位置から見た撮像画像を車両1の上方の仮想の視点から見た撮像画像に変換する座標変換処理や、撮像画像の輪郭や色を補正する各種補正処理が含まれる。
物体検出部32は、各撮像画像G1〜G4において、たとえば隣接画素の階調差に基づきエッジ検出を行い、検出したエッジの形状と予めROM22に記憶された形状とのパターンマッチングにより、物体を検出する。物体は、たとえば、通行人、他の車両、ガードレールやポールといった路側設置物等である。また、物体検出部32は、物体の位置、大きさ、変位方向、変位速度などを検出する。物体の位置は、たとえば、水平面上において、車両1の所定の部位を原点とするX−Y平面での座標である。物体の大きさは、たとえば、パターンマッチングにより検出された物体の種類から検出される。また、物体の変位方向は、たとえば、物体の位置の経時変化に基づき検出される。物体検出部32は、たとえば、数十ミリ秒ごとの撮像サイクルまたは画像処理サイクルごとに、検出した物体の位置をRAM23に格納しておき、サイクルごとの位置の差分を算出する。そして、物体の変位速度は、単位時間あたり、たとえば撮像サイクルや画像処理サイクルあたりの物体の変位量である。物体検出部32は、たとえば、インターフェース部19を介して入力される車速信号から車両1の走行速度を検出し、これにより物体の変位速度を補正することができる。
また、物体検出部32は、車両1の進行方向または前記進行方向の反対方向に対応する第1の撮像画像(つまり前方の撮像画像G1、または後方の撮像画像G2)と、車両1の進行方向軸Y−Y´と交差する方向に対応する第2の撮像画像(つまり左方の撮像画像G3、または右方の撮像画像G4)との重複領域G13、G14、G23、G24に含まれる物体の位置を検出する。物体検出部34は、たとえば、インターフェース部19を介して入力されるトランスミッション信号に基づき、車両1の進行方向(つまり前方、または後方)を検出する。あるいは、物体検出部32は、たとえば、インターフェース部19を介して入力される操舵角信号に基づき、車両1の曲折方向(つまり左方、または右方)を検出する。
ポイント割当処理部34は、撮像画像G1、G2に、物体が第1の位置にあるときに第1の評価値( 以降ポイントと呼ぶ)、車両1の進行方向軸Y―Y´からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1のポイントより小さい第2のポイントを割り当て、撮像画像G3、G4に、物体が前記第1の位置にあるときに第3のポイント、前記第2の位置にあるときに前記第3のポイントより大きい第4のポイントを割り当てる。あるいは、ポイント割当処理部34は、後に詳述するように、車両1の曲折方向、物体の変位方向、単位時間当たりの変位量、または物体の大きさに基づくポイント割当処理を行う。
境界決定部36は、撮像画像とをつなぎ合わせるときの境界(つまり、境界E13、E14、E23、またはE24)を、前記撮像画像G1、G2とG3、G4のうちポイントが大きい方の撮像画像に物体が含まれるように決定する。以下、ポイントが大きい方の撮像画像を、優先画像という。
俯瞰画像生成部38は、撮像画像G1、G2とG3、G4を境界E13、E14、E23、E24でつなぎ合わせて、車両1の周囲を所定の視点から見た画像、たとえば、車両1の上方の視点から見た俯瞰画像G10を生成する。そして、俯瞰画像データが出力される。
次に、ポイント割当処理部34によるポイント割当処理について、詳細に説明する。ここでは、[1]車両1の進行方向と物体の位置に基づくポイント割当処理と、[2]車両1の進行方向と物体の変位方向とに基づくポイント割当処理とに場合分けして説明する。
[1]車両1の進行方向と物体の位置に基づくポイント割当処理
図5は、車両1の前進時、後進時におけるポイント割当処理について説明する図である。図5(A)、(B)は、車両1が前進する場合(進行方向Dr1)、及び後進する場合(進行方向Dr2)が示される。図5(A)には、前方の撮像画像G1において、右方の撮像画像G4との重複領域G14に含まれる物体の位置L21、位置L22がそれぞれ検出された場合が示される。また、後方の撮像画像G2において、右方の撮像画像G4との重複領域G24に含まれる物体の位置L41、位置L42がそれぞれ検出された場合が示される。ここで、位置L21、L41は、いずれも進行方向軸Y−Y´からの距離がd1であり、位置L22、L42は、いずれも進行方向軸Y−Y´からの距離がd2(>d1)である。なお、以下では、左方の撮像画像G3は右方の撮像画像G4の左右を反転させることで説明されるので、左方の撮像画像G3、並びに、左方の撮像画像G3と前方の撮像画像G1、後方の撮像画像G2との重複領域G13、G23についての説明は省略する。
ポイント割当処理部34は、物体の位置が進行方向軸Y−Y´に近いときに撮像画像G1、G2に割り当てられるポイントの方が、物体の位置が進行方向軸Y−Y´から遠いときに撮像画像G1、G2に割り当てられるポイントより大きくなるように、撮像画像G1、G2にポイントを割り当てる。たとえば、ポイント割当処理部34は、図中括弧付きで示すように、前方の撮像画像G1に対し、位置L21の場合ポイントP21を割り当て、位置L22の場合ポイントP22(<P21)を割り当てる。また、ポイント割当処理部34は、後方の撮像画像G2に対し、位置L41の場合ポイントP41を割り当て、位置L42の場合ポイントP42(<P41)を割り当てる。
次に、図5(B)には、右方の撮像画像G4において、図5で示した物体の位置L21、L22、L41、及びL42が検出された場合がそれぞれ示される。位置L21、L41、及び位置L22、L42の進行方向軸Y−Y´からの距離は、それぞれ図5(A)と同じd1、d2である。ポイント割当処理部34は、物体の位置が進行方向軸Y−Y´から遠いときに撮像画像G4に割り当てられるポイントの方が、物体の位置が進行方向軸Y−Y´に近いときに撮像画像G4に割り当てられるポイントより大きくなるように、撮像画像G4にポイントを割り当てる。たとえば、ポイント割当処理部34は、撮像画像G4に対し、位置L21の場合ポイントQ21を割り当て、位置L22の場合ポイントQ22(>Q21)を割り当てる。また、ポイント割当処理部34は、撮像画像G4に対し、位置L41の場合ポイントQ41を割り当て、位置L42の場合ポイントQ42(>Q41)を割り当てる。
図6は、境界決定部36の処理について説明する図である。図6(A)、(B)には、前方の撮像画像G1と右方の撮像画像G4をつなぎ合わせるときの境界E14を決定する場合が例として示される。境界決定部36は、前方の撮像画像G1と右方の撮像画像G4をつなぎ合わせるとき、ポイント割当処理部34により割り当てられたポイントが大きい方の撮像画像、つまり優先画像に物体が含まれるように、境界E14を決定する。たとえば、図6(A)において、重複領域G14に含まれる物体Obの位置に基づいて前方の撮像画像G1、右方の撮像画像G4にポイントが割り当てられる。そして、撮像画像G1に割り当てられたポイントが撮像画像G4に割り当てられたポイントより大きく、したがって撮像画像G1が優先画像の場合、物体Obが撮像画像G1に含まれるように境界E14が決定される。一方、図6(B)に示すように、撮像画像G4に割り当てられたポイントが撮像画像G1に割り当てられたポイントより大きく、したがって撮像画像G4が優先画像の場合、物体Obが撮像画像G4に含まれるように境界E14が決定される。
上記と同様にして、境界E13、E23、E24が決定される。そして、俯瞰画像生成部38により、上記のようにして決定された境界E14において撮像画像G1、G4がつなぎ合わせられる。また、境界E24において撮像画像G2、G4がつなぎ合わせられる。また、境界E13において撮像画像G1、G3がつなぎ合わせられる。そして、境界E23において撮像画像G2、G3がつなぎ合わせられる。このようにして、図2(B)で示したような俯瞰画像G10が生成される。なお、境界E13、E14、E23、E24において、隣接する撮像画像をある程度の幅で重複させてもよい。また、境界E13、E14、E23、E24の形状や位置は、図6(A)、(B)に示した例に限られず、また、それぞれ異なってもよい。
上記のような処理によれば、車両1に対する物体の相対的な位置がたとえば撮像サイクルや画像処理サイクルにともなって経時的に変化する場合に、物体が含まれる蓋然性がより大きい方の撮像画像を優先画像とすることができる。たとえば、重複領域G14の例では、車両1の進行方向軸Y−Y´からの距離に応じてポイントを割り当てることで、重複領域G14に含まれる物体の位置が車両1の前方寄りのときには撮像画像G1を優先画像とし、そうでないときには撮像画像G4を優先画像とすることができる。換言すれば、優先画像に物体が含まれるようにすることで、継続的に同じ撮像画像に物体を収めるとともに、物体付近に境界が設定されることを防止できる。さらに、たとえば重複領域G14で、物体Obから所定距離離間させて境界E14を決定することで、物体付近に境界が設定されるこをより確実に防止できる。この場合、物体Obから離間させる距離は、シミュレーション等により任意に設定される。あるいは、優先画像とされる撮像画像G1またはG4に重複領域G14全体が含まれるように、境界E41を決定してもよい。このようにすることで、境界付近で画像に不連続が生じるような場合であっても、その影響を抑え、俯瞰画像の視認性が低下することを防止できる。
図7は、車両1が曲折するときのポイント割当処理について説明する図である。図7(A)、(B)では、車両1が前進するときの進行方向Dr1から、左方向(曲折方向Dr3)または右方向(曲折方向Dr4)に曲折する場合が示される。図7(A)、(B)は、車両1が曲折する点を除き、図5(A)、(B)と同じである。
図7(A)において、ポイント割当処理部34は、図5(A)で説明したポイント割当処理と同様に、物体の位置が進行方向軸Y−Y´に近いときに撮像画像G1、G2に割り当てられるポイントP21、P41の方が、物体の位置が進行方向軸Y−Y´から遠いときに撮像画像G1、G2に割り当てられるポイントP22、P42より大きくなるように、ポイント割当処理を行う。
図7(B)において、ポイント割当処理部34は、図5(B)で説明したポイント割当処理と同様に、物体の位置が進行方向軸Y−Y´から遠いときに撮像画像G4に割り当てられるポイントQ22、Q42の方が、物体の位置が進行方向軸Y−Y´に近いときに撮像画像G4に割り当てられるポイントQ21、Q41より大きくなるように、ポイント割当処理を行う。
このようなポイント割当処理によれば、車両1が曲折する場合であっても、優先画像に物体が含まれるようにすることができる。よって、物体付近に境界が設定されることを防止でき、俯瞰画像の視認性低下を防止できる。
[2]車両1の進行方向と物体の変位方向に基づくポイント割当処理
ポイント割当処理部34は、物体の位置が同じ場合において、車両1の進行方向と物体の変位方向との組合せに応じて異なる大きさのポイントを撮像画像G1〜G4に割り当てる。
次では、車両1の進行方向または反対方向に物体が変位する場合と、車両の進行方向軸Y−Y´に近づくように、または遠くなるように物体が変位する場合とに場合分けして、説明する。
(1)物体の変位方向が車両1の進行方向またはその反対方向の場合
ポイント割当処理部34は、物体の位置が同じ場合において、車両1の進行方向と反対方向に物体が変位するときに撮像画像G1〜G4に割り当てるポイントが、進行方向に物体が変位するときに撮像画像G1〜G4に割り当てるポイントよりそれぞれ大きくなるように、撮像画像G1〜G4にポイントを割り当てる。図8〜図19に例を示す。
1)車両1が前進する場合
図8、図9は、車両1が前進する場合の、車両1の進行方向、物体の変位方向、及び撮像画像に割り当てられるポイントの例を示す図である。図8(A)、(B)、及び図9(A)、(B)は、車両1が進行方向Dr1に進行(前進)する場合を示す。
図8(A)、(B)では、前方の撮像画像G1において、右方の撮像画像G4との重複領域G14に含まれる物体の位置L21が検出された場合と、後方の撮像画像G2において、右方の撮像画像G4との重複領域G24に含まれる物体の位置L41が検出された場合とが示される。図8(A)では、位置L21、L41において、物体が車両1の進行方向Dr1と反対方向に変位する場合が示される。また、図8(B)では、位置L21、L41において、物体が車両1の進行方向Dr1に変位する場合が示される。なお、ここで示す位置L21、L41は、図5(A)で示した位置L21、L41に対応するが、図5(A)における位置L22、L42についても、以下の説明が適用される。
図8(A)において、ポイント割当処理部34は、物体が位置L21で進行方向Dr1と反対方向に変位するときに、図中括弧内に示すように、撮像画像G1にポイントP21aを割り当てる。また、ポイント割当処理部34は、物体の位置が位置L41で進行方向Dr1と反対方向に変位するときに、撮像画像G2にポイントP41aを割り当てる。また、図8(B)において、ポイント割当処理部34は、物体が位置L21で進行方向Dr1に変位するときに、撮像画像G1にポイントP21bを割り当てる。また、ポイント割当処理部34は、物体の位置が位置L41で進行方向Dr1に変位するときに、撮像画像G2にポイントP41bを割り当てる。
図8(A)、(B)において、撮像画像G1に割り当てられるポイントP21a、P21b、ならびに、撮像画像G2に割り当てられるポイントP41a、P41bの大小関係は、それぞれ次のとおりである。
P21a > P21b
P41a > P41b
図9(A)、(B)では、右方の撮像画像G4において、前方の撮像画像G1との重複領域G14に含まれる物体の位置L21が検出された場合と、後方の撮像画像G2との重複領域G24に含まれる物体の位置L41が検出された場合とが示される。図9(A)では、位置L21、L41において、物体が車両1の進行方向Dr1と反対方向に変位する場合が示される。また、図9(B)では、位置L21、L41において、物体が車両1の進行方向Dr1に変位する場合が示される。なお、ここで示す位置L21、L21は、図5(B)で示した位置L21、L41に対応するが図5(B)における位置L22、L42についても、同じ説明が適用される。
図9(A)において、ポイント割当処理部34は、物体が位置L21で進行方向Dr1と反対方向に変位するときに、撮像画像G4にポイントQ21aを割り当てる。また、ポイント割当処理部34は、物体の位置が位置L41で進行方向Dr1と反対方向に変位するときに、撮像画像G4にポイントQ41aを割り当てる。また、図9(B)において、ポイント割当処理部34は、物体が位置L21で進行方向Dr1に変位するときに、撮像画像G4にポイントQ21bを割り当てる。また、ポイント割当処理部34は、物体の位置が位置L41で進行方向Dr1に変位するときに、撮像画像G4にポイントQ41bを割り当てる。
図9(A)、(B)において、撮像画像G4に割り当てられるポイントQ21a、Q21b、ならびに、ポイントQ41a、Q41bの大小関係は、それぞれ次のとおりである。
Q21a > Q21b
Q41a > Q41b
2)車両1が後進する場合
図10、図11は、車両1が後進する場合の、車両1の進行方向、物体の変位方向、及び割り当てられるポイントの例を示す図である。図10(A)、(B)、及び図11(A)、(B)は、車両1が進行方向Dr2に進行(後進)する場合を示す。図10(A)、(B)は、車両1の進行方向以外は図8(A)、(B)と同じである。また、図11(A)、(B)は、車両1の進行方向以外は図9(A)、(B)と同じである。ここでは、図10(A)と図11(A)は、物体が車両の進行方向Dr2に変位する場合に対応し、図10(B)と図11(B)は、物体が車両の進行方向Dr2と反対方向に変位する場合に対応する。
図10(A)、(B)において、撮像画像G1に割り当てられるポイントP21a、P21b、ならびに、撮像画像G2に割り当てられるポイントP41a、P41bの大小関係は、それぞれ次のとおりである。
P21a < P21b
P41a < P41b
また、図11(A)、(B)において、撮像画像G4に割り当てられるポイントQ21a、Q21b、ならびに、ポイントQ41a、Q41bの大小関係は、それぞれ次のとおりである。
Q21a < Q21b
Q41a < Q41b
3)車両1が曲折する場合
図12、図13は、車両1の曲折方向と物体の変位方向の例を示す図である。図12(A)、(B)、及び、図13(A)、(B)は、車両1が前進するときの進行方向Dr1から、左方向(曲折方向Dr3)または右方向(曲折方向Dr4)に曲折する場合を示す。図12(A)、(B)は、車両1が曲折する点以外は、図8(A)、(B)と同じである。また、図13(A)、(B)は、車両1が曲折する点以外は、図9(A)、(B)と同じである。
図12(A)、(B)において、撮像画像G1に割り当てられるポイントP21a、P21b、ならびに、撮像画像G2に割り当てられるポイントP41a、P41bの大小関係は、それぞれ次のとおりである。
P21a > P21b
P41a > P41b
また、図13(A)、(B)において、撮像画像G4に割り当てられるポイントQ21a、Q21b、ならびに、ポイントQ41a、Q41bの大小関係は、それぞれ次のとおりである。
Q21a > Q21b
Q41a > Q41b
このように、車両1の前進時、後進時、及び曲折時において、物体の位置が同じ場合、車両1の進行方向と反対方向に物体が変位するときに撮像画像G1〜G4に割り当てるポイントが、進行方向に物体が変位するときに撮像画像G1〜G4に割り当てるポイントよりそれぞれ大きくなるように、撮像画像G1〜G4にポイントが割り当てられる。よって、たとえば、進行方向と反対方向に変位する物体、つまり車両1に対向してくる物体であってたとえば衝突回避動作などの対象となりうる物体が優先画像に含まれやすくなる。よって、かかる物体の付近に境界が設定されることを防止でき、俯瞰画像の視認性低下を防止できる。
(2)車両の進行方向軸Y−Y´に近づくように、または遠くなるように物体が変位する場合
1)車両の直進時
ポイント割当処理部34は、物体の位置が同じ場合、車両1の進行方向軸Y−Y´に近づくように物体が変位するときに撮像画像G1〜G4に割り当てるポイントが、進行方向軸Y−Y´から離れるように変位するときに撮像画像G1〜G4に割り当てるポイントよりそれぞれ大きくなるようにポイントを割り当てる。
図14、図15は、車両1が前進または後進する場合の、車両1の進行方向軸Y−Y´に対する物体の変位方向と、割り当てられるポイントの例を示す図である。図14(A)、(B)は、車両1の進行方向と、物体の変位方向以外は、図8(A)、(B)と同じである。また、図15(A)、(B)は、車両1の進行方向と、物体の変位方向以外は、図9(A)、(B)と同じである。図14(A)、(B)、及び、図15(A)、(B)は、車両1が進行方向Dr1に進行(つまり前進)する場合、またはDr2に進行(つまり後進)する場合を示す。そして、図14(A)と図15(A)は、位置L21、L41において物体が進行方向軸Y−Y´に近づくように変位する場合を示し、図14(B)と図15(B)は、位置L21、L41において物体が進行方向軸Y−Y´から遠くなるように変位する場合を示す。
図14(A)、(B)において、撮像画像G1に割り当てられるポイントP21a、P21b、ならびに、撮像画像G2に割り当てられるポイントP41a、P41bの大小関係は、それぞれ次のとおりである。
P21a > P21b
P41a > P41b
また、図15(A)、(B)において、撮像画像G4に割り当てられるポイントQ21a、Q21b、ならびに、ポイントQ41a、Q41bの大小関係は、それぞれ次のとおりである。
Q21a > Q21b
Q41a > Q41b
このように、車両1の直進時でのポイント割当処理では、物体が車両1の進行方向軸Y−Y´に近づくように変位するときに撮像画像G1〜G4に割り当てるポイントが、車両1の進行方向軸Y−Y´から遠くなるように変位するときに撮像画像G1〜G4に割り当てるポイントよりそれぞれ大きくなるように、ポイントが割り当てられる。そうすることで、車両1に対して接近する蓋然性が高く、したがってたとえば衝突回避動作などの対象となりうる物体を優先画像に含まれるようにすることができる。よって、かかる物体付近に境界が設定されることを防止でき、俯瞰画像の視認性低下を防止できる。
2)車両の曲折時
ポイント割当処理部34は、車両1が左右いずれかの方向に曲折する場合、物体の位置が同じとして、物体が車両1の曲折方向の反対方向に変位するときに撮像画像G1〜G4に割り当てるポイントが、物体が車両1の曲折方向に変位するときに撮像画像G1〜G4に割り当てるポイントよりそれぞれ大きくなるように、ポイントを割り当てる。
図16、図17は、車両1が左折する場合の、車両1の進行方向軸に対する物体の変位方向の例と、割り当てられるポイントの例を示す図である。図16(A)、(B)、及び図17(A)、(B)は、車両1が進行方向Dr1から左折(曲折方向Dr3)する場合を示す。図16(A)、(B)は、車両1が左折すること以外は、図14(A)、(B)と同じである。また、図17(A)、(B)は、車両1が左折すること以外は、図15(A)、(B)と同じである。
図16(A)、(B)において、撮像画像G1に割り当てられるポイントP21a、P21b、ならびに、撮像画像G2に割り当てられるポイントP41a、P41bの大小関係は、それぞれ次のとおりである。
P21a < P21b
P41a < P41b
また、図17(A)、(B)において、撮像画像G4に割り当てられるポイントQ21a、Q21b、ならびに、ポイントQ41a、Q41bの大小関係は、それぞれ次のとおりである。
Q21a < Q21b
Q41a < Q41b
図18、図19は、車両1が右折する場合の、車両1の進行方向軸に対する物体の変位方向の例と、割り当てられるポイントの例を示す図である。図18(A)、(B)、及び図19(A)、(B)は、車両1が進行方向Dr1から右折(曲折方向Dr4)する場合を示す。図18(A)、(B)は、車両1が右折すること以外は、図14(A)、(B)と同じである。また、図19(A)、(B)は、車両1が右折すること以外は、図15(A)、(B)と同じである。
図18(A)、(B)において、撮像画像G1に割り当てられるポイントP21a、P21b、ならびに、撮像画像G2に割り当てられるポイントP41a、P41bの大小関係は、それぞれ次のとおりである。
P21a > P21b
P41a > P41b
また、図19(A)、(B)において、撮像画像G4に割り当てられるポイントQ21a、Q21b、ならびに、ポイントQ41a、Q41bの大小関係は、それぞれ次のとおりである。
Q21a > Q21b
Q41a > Q41b
このように、車両1が左右いずれかの方向に曲折する場合のポイント割当処理では、物体の位置が同じ場合において、物体が車両1の曲折方向の反対方向に変位するときに撮像画像G1〜G4に割り当てるポイントが、物体が車両1の曲折方向に変位するときに撮像画像G1〜G4に割り当てるポイントよりそれぞれ大きくなるように、ポイントが割り当てられる。そうすることで、曲折方向において車両1に対向する蓋然性が高く、したがってたとえば衝突回避動作などの対象となりうる物体を優先画像に含まれるようにすることができる。よって、かかる物体付近に境界が設定されることを防止でき、俯瞰画像の視認性低下を防止できる。
上述したポイント割当処理において、たとえば、次に説明するようなポイントマップが用いられる。画像処理装置4は、たとえば、撮像画像データG1〜G4ごとに、車両1の進行方向と物体の変位方向とに対応するポイントマップをあらかじめROM22に格納する。ポイント割当処理部34は、車両1の進行方向と物体の変位方向とに対応するポイントマップを選択する。そして、ポイント割当処理部34は、選択したポイントマップにおいて物体の位置に対応するポイントを求め、ポイント割当処理を行う。
図20は、ポイントマップについて説明する図である。図20(A)は、前方の撮像画像データG1と後方の撮像画像データG2用のポイントマップを模式的に示す。図20(A)では、車両が前進または後進するときにおける、車両の進行方向ごとのポイントマップが示される。なお、以下では、物体の変位方向を、便宜上、次のように称する。
車両1の進行方向:「順方向」
車両1の進行方向と反対方向:「逆方向」
進行方向軸Y−Y´に近づく方向:「内向き」
進行方向軸Y−Y´から遠くなる方向:「外向き」
図20(A)では、縦軸に物体の変位方向ごとのポイントマップ、たとえば、「順方向ポイントマップ」、「逆方向ポイントマップ」、「内向きポイントマップ」、「外向きポイントマップ」が示される。また、横軸に、各ポイントマップにおける、物体の位置ごとのポイントが示される。物体の位置は、進行方向軸Y−Y´との距離「近」、「遠」として示される。図20(A)では、すべての変位方向のポイントマップにおいて、物体の位置「近」のときのポイントP101〜P104の方が、物体の位置「遠」のときのポイントP201〜P204より大きい。また、ポイントマップ間では、順方向ポイントマップのポイントP101、P201より、逆方向ポイントマップのポイントP102、P202の方が大きい。また、内向きポイントマップのポイントP103、P203の方が、外向きポイントマップのポイントP104、P204より大きい。
図20(B)は、車両が前進または後進するときにおける、左方の撮像画像データG3と右方の撮像画像データG4用のポイントマップを模式的に示す。ここでは、すべての変位方向のポイントマップにおいて、物体の位置「近」のときのポイントQ101〜Q104より、物体の位置「遠」のときのポイントQ201〜Q204の方が大きい。また、ポイントマップ間では、順方向ポイントマップのポイントQ101、Q201より、逆方向ポイントマップのポイントQ102、Q202の方が大きい。また、内向きポイントマップのポイントQ103、Q203の方が、外向きポイントマップのポイントQ104、Q204より大きい。
図20(C)は、車両が前進方向から曲折するときの、前方の撮像画像データG1と後方の撮像画像データG2用のポイントマップを模式的に示す。ここでは、すべての変位方向のポイントマップにおいて、物体の位置「近」のときのポイントP301〜P304の方が、物体の位置「遠」のときのポイントP401〜P404より大きい。また、ポイントマップ間では、順方向ポイントマップのポイントP301、P401より、逆方向ポイントマップのポイントP302、P402の方が大きい。一方、内向きポイントマップのポイントP303、P403の方が、外向きポイントマップのポイントP304、P404より大きい。
図20(D)は、車両が曲折するときの、撮像画像データG3またはG4のうち曲折方向に対応する撮像画像用のポイントマップを模式的に示す。順方向、逆方向は、車両が曲折する前の進行方向、つまり前方を基準とする方向である。また、内向きは曲折方向の反対方向に対応し、外向きは曲折方向に対応する。ここでは、すべての変位方向のポイントマップにおいて、物体の位置「近」のときのポイントQ301〜Q304より、物体の位置「遠」のときのポイントQ401〜Q404の方が大きい。また、ポイントマップ間では、順方向ポイントマップのポイントQ301、Q401より、逆方向ポイントマップのポイントQ302、Q402の方が大きい。また、内向きポイントマップのポイントQ303、Q403の方が、外向きポイントマップのポイントQ304、Q404より大きい。
図20(E)は、車両が曲折するときの、撮像画像データG3またはG4のうち曲折方向と反対方向に対応する撮像画像用のポイントマップを模式的に示す。順方向、逆方向は、車両が曲折する前の進行方向、つまり前方を基準とする方向である。また、内向きは曲折方向に対応し、外向きは曲折方向と反対方向に対応する。ここでは、すべての変位方向のポイントマップにおいて、物体の位置「近」のときのポイントQ305〜Q308より、物体の位置「遠」のときのポイントQ405〜Q408の方が大きい。また、ポイントマップ間では、順方向ポイントマップのポイントQ305、Q405より、逆方向ポイントマップのポイントQ306、Q406の方が大きい。一方、内向きポイントマップのポイントQ307、Q407より、外向きポイントマップのポイントQ308、Q408の方が大きい。
次に、より具体的なポイントマップを用いた処理の例について、図21に従って、適宜図22〜図24を参照しつつ説明する。
図21は、画像処理装置4の処理手順を説明するフローチャート図である。図21の手順は、画像処理部30、物体検出部32、ポイント割当処理部34、境界決定部36、及び俯瞰画像生成部38の手順に対応する。図21の手順は、たとえば一撮像サイクルごとに実行される。
画像処理部30は、撮像画像G1〜G4の撮像画像データを画像処理する(S2)。そして、物体検出部32は、撮像画像データG1〜G4から物体を検出する(S4)。ここで、図22に、検出される物体の例を示す。図22(A)では、車両1の前進時に、前方の撮像画像G1と右方の撮像画像G4のそれぞれで、重複領域G14に含まれる物体Ob1〜Ob3が検出された場合を示す。物体Ob1〜Ob3は、それぞれ、たとえば、車両1の付近を通過するボール、子供、大人である。
次いで、物体検出部32は、物体の位置、大きさを検出する(S6)。図22(A)の例では、物体Ob1の位置L10(進行方向軸Y−Y´からの距離D1)、物体Ob2の位置L20(進行方向軸Y−Y´からの距離D2(>D1))、及び物体Ob3の位置L30(進行方向軸Y−Y´からの距離D3(>D2))がそれぞれ検出される。また、物体Ob1〜Ob3の大きさは、たとえば物体Ob1が「小」、物体Ob2が「中」、物体Ob3が「中」である。各物体の検出された位置と大きさは、図22(B)の表に示される。
次いで、物体検出部32は、物体の変位方向と変位速度とを検出する(S8)。たとえば、図22(A)では、物体Ob1の変位方向は車両1の進行方向と反対方向、つまり逆方向である。また、物体Ob2の変位方向は車両1の進行方向軸Y−Y´に近づく方向、つまり内向きである。そして、物体Ob3の変位方向は車両1の進行方向軸Y−Y´から遠ざかる方向、つまり外向きである。また、物体Ob1〜Ob3の変位速度は、たとえば物体Ob1が「高」、物体Ob2が「低」、物体Ob3が「低」である。各物体の変位方向と変位速度は、図22(B)の表に示される。
次いで、ポイント割当処理部34は、車両の進行方向を取得し(S10)、進行方向と物体の変位方向に対応するポイントマップを選択する(S12)。そして、ポイント割当処理部34は、選択したポイントマップに基づき、位置に基づくポイントを算出する(S14)。
ここで、図23に、物体Ob1〜Ob3について選択されるポイントマップの例を示す。図23に示す各ポイントマップでは、X座標(X0〜X7)、Y座標(Y0〜Y7)ごとに、ポイント「5」〜「1」が対応付けられる。ここで、Y軸は車両1の進行方向軸Y−Y´に対応する。図23(A)には、車両前進時であって物体の変位方向が逆方向のときの、撮像画像G1用のポイントマップPM10と、撮像画像G4用のポイントマップPM12とが示される。また、図23(B)には、車両前進時であって物体の変位方向が内向きのときの、撮像画像G1用のポイントマップPM14と、撮像画像G4用のポイントマップPM16とが示される。そして、図23(C)には、車両前進時であって物体の変位方向が外向きのときの、撮像画像G1用のポイントマップPM18と、撮像画像G4用のポイントマップPM20とが示される。
逆方向に変位する物体Ob1について、図23(A)のポイントマップPM10、PM12が選択される。ここで、物体Ob1の位置L10の座標が、(X2,Y4)である。よって、ポイントマップPM10から、撮像画像G1に割り当てるポイント「5」が求められる。一方、ポイントマップPM12から、撮像画像G4に割り当てるポイント「2」が求められる。
また、内向きに変位する物体Ob2について、図23(B)のポイントマップPM14、PM16が選択される。ここで、物体Ob2の位置L20の座標が、(X2,Y3)である。よって、ポイントマップPM14から、撮像画像G1に割り当てるポイント「5」が求められる。一方、ポイントマップPM16から、撮像画像G4に割り当てるポイント「1」が求められる。
そして、外向きに変位する物体Ob3について、図23(C)のポイントマップPM18、PM20が選択される。ここで、物体Ob3の位置L30の座標が、(X4,Y3)である。よって、ポイントマップPM18から、撮像画像G1に割り当てるポイント「2」が求められる。一方、ポイントマップPM20から、撮像画像G4に割り当てるポイント「2」が求められる。
さらに、手順S14において、ポイント割当処理部34は、物体Ob1〜Ob3の大きさと変位速度とに基づいて、ポイントを求める。ここにおけるポイントは、たとえば、大きさや変位速度を分類してポイントを対応付けたマップデータを予めROM22に格納しておいてもよいし、演算により求めてもよい。
大きさに基づくポイント算出では、物体の大きさが大きいときのポイントが、小さいときのポイントより大きくなるようにポイントが求められる。図22の例では、「小」の物体Ob1にポイント「1」が算出され、「中」の物体Ob2、Ob3にポイント「2」が求められる。
また、変位速度に基づくポイント算出では、物体の位置が同じ場合において、変位速度が大きいときのポイントが、変位速度が小さいときのポイントより大きくなるようにポイントが求められる。図22の例では、速度「高」の物体Ob1に対応してポイント「3」が、速度「低」の物体Ob2、Ob3に対応してポイント「1」が求められる。このように、物体の大きさや変位速度に応じた大きさのポイントを撮像画像G1またはG4に割り当てることで、たとえば衝突回避制御の対象となりうるような大きい物体、または変位速度が速い物体が優先画像に含まれやすくなる。よって、かかる物体を含む俯瞰画像の視認性低下を防止できる。
手順S14で算出されたポイントは、図24に示される。図24(A)には、撮像画像G1に割り当てられるポイントが示される。ここには、物体ごとに選択されたポイントマップから位置に対応して求められたポイント、大きさ、及び変位速度に対応して求められたポイントが示される。また、図24(B)には、撮像画像G4に割り当てられるポイントが、同様に示される。
次いで、ポイント割当処理部34は、ポイントの重みづけ処理を行う(S16)。ポイントの重みづけ処理では、たとえば、物体の位置に基づくポイント、変位速度に基づくポイント、大きさに基づくポイントの順で重みが小さくなるように、各ポイントに重みづけされる。具体的には、位置に基づくポイントをPP、変位速度に基づくポイントをVP、大きさに基づくポイントをSPとしたとき、次の式によりポイントが算出される。
重みづけされたポイント=PP×p×VP×v×SP×s
(係数:p=3、v=2、s=1)
なお、上記の係数p、v、sを変更することで、ポイント割当処理で優先すべき要因を任意に設定できる。たとえば、ここでは、位置、変位速度、大きさの順に優先される。また、上記の式は一例であり、たとえば上記係数p、v、及びsで重みづけされたポイントPP、VP、及びSPの和を算出してもよい。
次いで、ポイント割当処理部34は、撮像画像ごとのポイントを累計する(S18)。図22の例では、上記の式により、図24(C)、(D)で示すポイント累計が求められる。図24(C)には、図24(A)におけるポイントの累計「174」が示される。このポイント累計値は撮像画像G1に割り当てられる。また、図24(D)には、図24(B)におけるポイントの累計「72」が示される。このポイント累計値は撮像画像G4に割り当てられる。
次いで、ポイント割当処理部34は、撮像画像間のポイント累計の差分の変化量が、基準量以上かを判定する(S20)。たとえば、上記の例では、撮像画像G1、G4間のポイント累計の差分は、102(=174−72)である。ポイント割当処理部34は、たとえば各撮像サイクルで、撮像画像間のポイント累計の差分を求め、RAM23に格納する。そして、サイクルごとの変化量が、基準量以上か否かを判断する。たとえば、前回の差分が90である場合、差分の変化量は+12である。ここで、基準量が10とすると判定結果は「Yes」となる。一方、変化量が基準量を下回ると、判定結果は「No」となる。
手順S20の判定結果が「No」の場合、ポイント割当処理部34は、前回サイクルの優先画像を維持する(S22)。一方、手順S20の判定結果が「Yes」の場合、ポイント割当処理部34は、算出したポイント累計に基づき、優先画像を決定する(S23)。たとえば、ポイント累計が大きい方の撮像画像が優先画像に決定される。図22の例では、撮像画像G1のポイント累計が174、撮像画像G4のポイント累計が72であり、撮像画像G1のポイント累計の方が大きいので、撮像画像G1が優先画像に決定される。このようにすることで、続く手順で、境界決定部36は、ポイントの差分の経時的な変化量が基準量以上のときに、過去に決定した前記境界を新たに決定した前記境界に変更し、前記変化量が前記基準量を下回るときに、過去に決定した前記境界を維持する。よって、優先画像が頻繁に入れ替わり境界が頻繁に変更されることを回避でき、俯瞰画像の視認性低下を防止できる。
次いで、境界決定部36は、基準値以上のポイントを有する物体を抽出する(S24)。そして、境界決定部36は、抽出した物体が優先画像に含まれる場合に(S26のYes)、境界を維持し(S27)、含まれない場合に(S26のNo)、優先画像に物体が含まれるように境界を変更する(S28)。基準値は、複数の物体をスクリーニングするための値であって、任意に設定される値である。物体の数が比較的多い場合において、かかる基準値を設けることで、手順S28に進んだときに頻繁に境界が変更されることを防止できる。
上記の処理は、撮像画像G2、G3についても実行される。そして、俯瞰画像生成部38が、撮像画像G1〜G4をつなぎ合わせて、俯瞰画像を生成する(S30)。
上述の説明では、ポイント割当処理部34は、各回の撮像サイクルごとに検出された物体の位置に基づき、ポイント割当処理を行った。ポイント割当処理部34は、検出された物体の位置の代わりに、過去の物体の位置から予測される予測位置に基づいて、上記のポイント割当処理を行ってもよい。その場合、物体検出部32が、たとえば、物体の変位方向と変位速度とに基づいて次の撮像サイクルまたは画像処理サイクルでの物体の位置を予測する。そうすることで、たとえば物体の変位速度が大きい場合において、物体が確実に優先画像に含まれるようにすることができる。よって、物体の位置が境界付近になることを防止でき、俯瞰画像の視認性低下を防止できる。
上記の実施形態によれば、優先画像に継続して物体が含まれるようにすることができる。よって、物体付近に境界が設定されることを防止できるので、境界付近の画像の不連続性の影響が抑えられ、物体の視認性低下を防止できる。
以上の実施の形態をまとめると、次の付記のとおりである。
(付記1)
車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当てる処理部と、
前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部と、
を有する画像処理装置。
(付記2)
付記1において、
前記処理部は、前記物体が前記車両の進行方向と反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記進行方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理装置。
(付記3)
付記1または2において、
前記処理部は、前記物体が前記車両の進行方向軸に近づくように変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記前後方向軸から離れるように変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理装置。
(付記4)
付記1乃至3のいずれかにおいて、
前記処理部は、前記車両が所定の方向に曲折する場合、前記物体が前記所定の方向の反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記所定の方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理装置。
(付記5)
付記1乃至4のいずれかにおいて、
前記処理部は、前記物体が前記第1、第2の位置で単位時間当たり第1の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が前記第1、第2の位置で前記単位時間当たり前記第1の変位量より小さい第2の変位量変位するときのときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理装置。
(付記6)
付記1乃至5のいずれかにおいて、
前記処理部は、前記物体の大きさが第1の大きさのときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体の大きさが前記第1の大きさより小さい第2の大きさであるときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理装置。
(付記7)
付記1乃至6のいずれかにおいて、
前記決定部は、前記第1、第2の撮像画像に割り当てられる評価値の差分の経時的な変化量が基準量以上のときに、過去に決定した前記境界を新たに決定した前記境界に変更し、前記変化量が前記基準量を下回るときに、過去に決定した前記境界を維持する画像処理装置。
(付記8)
付記1乃至7のいずれかにおいて、
前記決定部は、前記第1または第2の撮像画像に割り当てられる評価値が基準値以上のときに、過去に決定した前記境界を新たに決定した前記境界に変更し、前記変化量が前記基準量を下回るときに、過去に決定した前記境界を維持する画像処理装置。
(付記9)
車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像をそれぞれ撮像する撮像装置と、
前記第1、第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当てる処理部と、
前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部と、
前記車両の周囲を所定の視点から見た画像を表示する表示装置とを有する画像処理システム。
(付記10)
付記9において、
前記処理部は、前記物体が前記車両の進行方向と反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記進行方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理システム。
(付記11)
付記9または10において、
前記処理部は、前記物体が前記車両の進行方向軸に近づくように変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記前後方向軸から離れるように変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理システム。
(付記12)
付記9乃至11のいずれかにおいて、
前記処理部は、前記車両が所定の方向に曲折する場合、前記物体が前記所定の方向の反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記所定の方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理システム。
(付記13)
付記9乃至12のいずれかにおいて、
前記処理部は、前記物体が前記第1、第2の位置で単位時間当たり第1の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が前記第1、第2の位置で前記単位時間当たり前記第1の変位量より小さい第2の変位量変位するときのときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理システム。
(付記14)
付記9乃至13のいずれかにおいて、
前記処理部は、前記物体の大きさが第1の大きさのときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体の大きさが前記第1の大きさより小さい第2の大きさであるときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる画像処理システム。
(付記15)
車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出し、
前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、
前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定し、
前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する、
画像処理方法。
(付記16)
付記15において、
前記物体が前記車両の進行方向と反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記進行方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる、画像処理方法。
(付記17)
付記15または16において、
前記物体が前記車両の進行方向軸に近づくように変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記前後方向軸から離れるように変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる、画像処理方法。
(付記18)
付記15乃至17のいずれかにおいて、
前記車両が所定の方向に曲折する場合、前記物体が前記所定の方向の反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記所定の方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる、画像処理方法。
(付記19)
付記15乃至18のいずれかにおいて、
前記物体が前記第1、第2の位置で単位時間当たり第1の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が前記第1、第2の位置で前記単位時間当たり前記第1の変位量より小さい第2の変位量変位するときのときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる、画像処理方法。
2_1〜2_4:撮像装置、 G1〜G4:撮像画像、 G13、G14、G23、G24:重複領域、 4:画像処理装置、 32:物体検出部、 34:ポイント割当処理部、 36:境界決定部、 38:俯瞰画像生成部

Claims (14)

  1. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記車両の進行方向と反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記進行方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部とを有する画像処理装置。
  2. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記車両の進行方向軸に近づくように変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記前後方向軸から離れるように変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部とを有する画像処理装置。
  3. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記車両が所定の方向に曲折する場合、前記物体が前記所定の方向の反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記所定の方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部とを有する画像処理装置。
  4. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記第1、第2の位置で単位時間当たり第1の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が前記第1、第2の位置で前記単位時間当たり前記第1の変位量より小さい第2の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部とを有する画像処理装置。
  5. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部とを有し、
    前記決定部は、前記第1、第2の撮像画像に割り当てられる評価値の差分の経時的な変化量が基準量以上のときに、過去に決定した前記境界を新たに決定した前記境界に変更し、前記変化量が前記基準量を下回るときに、過去に決定した前記境界を維持する画像処理装置。
  6. 前記処理部は、前記物体の大きさが第1の大きさのときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体の大きさが前記第1の大きさより小さい第2の大きさであるときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像をそれぞれ撮像する撮像装置と、
    前記第1、第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記車両の進行方向と反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記進行方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部と、
    前記車両の周囲を所定の視点から見た画像を表示する表示装置とを有する画像処理システム。
  8. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像をそれぞれ撮像する撮像装置と、
    前記第1、第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記車両の進行方向軸に近づくように変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記前後方向軸から離れるように変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部と、
    前記車両の周囲を所定の視点から見た画像を表示する表示装置とを有する画像処理システム。
  9. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像をそれぞれ撮像する撮像装置と、
    前記第1、第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記車両が所定の方向に曲折する場合、前記物体が前記所定の方向の反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記所定の方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部と、
    前記車両の周囲を所定の視点から見た画像を表示する表示装置とを有する画像処理システム。
  10. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像をそれぞれ撮像する撮像装置と、
    前記第1、第2の撮像画像の重複領域に含まれる物体の位置を検出する検出部と、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記第1、第2の位置で単位時間当たり第1の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が前記第1、第2の位置で前記単位時間当たり前記第1の変位量より小さい第2の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる処理部と、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定する決定部と、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する生成部と、
    前記車両の周囲を所定の視点から見た画像を表示する表示装置とを有する画像処理システム。
  11. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出し、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記車両の進行方向と反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記進行方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当て
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定し、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する、
    画像処理方法。
  12. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出し、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記車両の進行方向軸に近づくように変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記前後方向軸から離れるように変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当て、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定し、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する、
    画像処理方法。
  13. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出し、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記車両が所定の方向に曲折する場合、前記物体が前記所定の方向の反対方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が同じ位置で前記所定の方向に変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当てる、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定し、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する、
    画像処理方法。
  14. 車両の進行方向または前記進行方向の反対方向に対応する第1の撮像画像と、前記車両の進行方向軸と交差する方向に対応する第2の撮像画像の重複領域に含まれる物体の位置を検出し、
    前記第1の撮像画像に、前記物体が第1の位置にあるときに第1の評価値、前記車両の進行方向軸からの距離が前記第1の位置より大きい第2の位置にあるときに前記第1の評価値より小さい第2の評価値を割り当て、前記第2の撮像画像に、前記物体が前記第1の位置にあるときに第3の評価値、前記第2の位置にあるときに前記第3の評価値より大きい第4の評価値を割り当て、更に、前記物体が前記第1、第2の位置で単位時間当たり第1の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値が、前記物体が前記第1、第2の位置で前記単位時間当たり前記第1の変位量より小さい第2の変位量変位するときに前記第1、第2の撮像画像に割り当てる評価値よりそれぞれ大きくなるように、前記第1、第2の撮像画像に評価値を割り当て、
    前記第1、第2の撮像画像をつなぎ合わせるときの当該第1、第2の撮像画像の境界を、前記第1、第2の撮像画像のうち前記評価値が大きい方の撮像画像に前記物体が含まれるように決定し、
    前記第1、第2の撮像画像を前記境界でつなぎ合わせて前記車両の周囲を所定の視点から見た画像を生成する、
    画像処理方法。
JP2011037830A 2011-02-24 2011-02-24 画像処理装置、画像処理システム、及び画像処理方法 Active JP5699679B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011037830A JP5699679B2 (ja) 2011-02-24 2011-02-24 画像処理装置、画像処理システム、及び画像処理方法
US13/316,513 US8503729B2 (en) 2011-02-24 2011-12-11 Image processing apparatus, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011037830A JP5699679B2 (ja) 2011-02-24 2011-02-24 画像処理装置、画像処理システム、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2012174152A JP2012174152A (ja) 2012-09-10
JP5699679B2 true JP5699679B2 (ja) 2015-04-15

Family

ID=46719020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011037830A Active JP5699679B2 (ja) 2011-02-24 2011-02-24 画像処理装置、画像処理システム、及び画像処理方法

Country Status (2)

Country Link
US (1) US8503729B2 (ja)
JP (1) JP5699679B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI578271B (zh) * 2012-10-23 2017-04-11 義晶科技股份有限公司 動態影像處理方法以及動態影像處理系統
JP6084434B2 (ja) 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
JP6324665B2 (ja) * 2013-05-16 2018-05-16 住友建機株式会社 作業機械用周辺監視装置
JP5892129B2 (ja) * 2013-08-29 2016-03-23 株式会社デンソー 道路形状認識方法、道路形状認識装置、プログラムおよび記録媒体
JP6032195B2 (ja) * 2013-12-26 2016-11-24 トヨタ自動車株式会社 センサ異常検出装置
JP6307895B2 (ja) * 2014-01-23 2018-04-11 トヨタ自動車株式会社 車両用周辺監視装置
JPWO2015129280A1 (ja) * 2014-02-26 2017-03-30 京セラ株式会社 画像処理装置および画像処理方法
JP6330383B2 (ja) * 2014-03-12 2018-05-30 株式会社デンソー 合成画像生成装置、および合成画像生成プログラム
US9283891B1 (en) * 2014-09-26 2016-03-15 GM Global Technology Operations LLC Alert systems and methods using a transparent display
JP2016225865A (ja) * 2015-06-01 2016-12-28 東芝アルパイン・オートモティブテクノロジー株式会社 俯瞰画像生成装置
US20170124881A1 (en) * 2015-10-28 2017-05-04 Velvac Incorporated Blind zone warning for semi-trailer
WO2017077650A1 (ja) 2015-11-06 2017-05-11 三菱電機株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6304272B2 (ja) * 2016-02-04 2018-04-04 トヨタ自動車株式会社 車両用注意喚起装置
JP6819431B2 (ja) 2017-04-12 2021-01-27 トヨタ自動車株式会社 注意喚起装置
US20190202372A1 (en) * 2018-01-03 2019-07-04 Getac Technology Corporation Vehicular image pickup device and image capturing method
JP6835004B2 (ja) * 2018-02-09 2021-02-24 株式会社デンソー 画像生成装置
KR102316960B1 (ko) * 2019-11-28 2021-10-22 광운대학교 산학협력단 무인 항공기 영상 내 실시간 객체 검출 방법 및 장치
JP6998360B2 (ja) * 2019-12-13 2022-01-18 本田技研工業株式会社 車両用表示装置及び駐車支援システム
KR102281609B1 (ko) * 2020-01-16 2021-07-29 현대모비스 주식회사 어라운드뷰 합성 시스템 및 방법
JP7440324B2 (ja) * 2020-03-31 2024-02-28 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2782990B2 (ja) * 1991-07-11 1998-08-06 日産自動車株式会社 車両用接近判定装置
JP2800531B2 (ja) * 1992-02-28 1998-09-21 三菱電機株式会社 車両用障害物検出装置
JPH0785280B2 (ja) * 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
US5529138A (en) * 1993-01-22 1996-06-25 Shaw; David C. H. Vehicle collision avoidance system
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5687249A (en) * 1993-09-06 1997-11-11 Nippon Telephone And Telegraph Method and apparatus for extracting features of moving objects
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
US7359782B2 (en) * 1994-05-23 2008-04-15 Automotive Technologies International, Inc. Vehicular impact reactive system and method
US7630806B2 (en) * 1994-05-23 2009-12-08 Automotive Technologies International, Inc. System and method for detecting and protecting pedestrians
JP3379324B2 (ja) * 1996-02-08 2003-02-24 トヨタ自動車株式会社 移動体検知方法及び装置
US6363326B1 (en) * 1997-11-05 2002-03-26 Robert Lawrence Scully Method and apparatus for detecting an object on a side of or backwards of a vehicle
CA2369648A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Limited Image processing device and monitoring system
JP2001315603A (ja) * 2000-05-09 2001-11-13 Matsushita Electric Ind Co Ltd 運転支援装置
JP2002019556A (ja) 2000-07-04 2002-01-23 Matsushita Electric Ind Co Ltd 監視システム
JP3695319B2 (ja) 2000-11-30 2005-09-14 トヨタ自動車株式会社 車両周辺モニタ装置
JP2005025692A (ja) * 2003-07-04 2005-01-27 Suzuki Motor Corp 車両用情報提供装置
JP4380561B2 (ja) * 2004-04-16 2009-12-09 株式会社デンソー 運転支援装置
JP4722433B2 (ja) * 2004-08-25 2011-07-13 アルパイン株式会社 車載用ナビゲーション装置
US7493202B2 (en) * 2004-11-12 2009-02-17 Takata Corporation Vehicle safety control system by image processing
JP4543983B2 (ja) * 2005-03-22 2010-09-15 株式会社豊田自動織機 駐車支援装置
JP4899367B2 (ja) 2005-07-27 2012-03-21 日産自動車株式会社 俯瞰画像表示システム及び俯瞰画像の表示方法
JP4725233B2 (ja) 2005-08-02 2011-07-13 日産自動車株式会社 俯瞰画像表示システム
JP4684954B2 (ja) * 2005-08-31 2011-05-18 本田技研工業株式会社 車両の走行安全装置
JP4720386B2 (ja) * 2005-09-07 2011-07-13 株式会社日立製作所 運転支援装置
JP4534922B2 (ja) * 2005-09-16 2010-09-01 株式会社デンソー 仮想先行車画像表示システム
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
JP4315968B2 (ja) * 2006-08-21 2009-08-19 三洋電機株式会社 画像処理装置並びに視界支援装置及び方法
JP5092613B2 (ja) * 2007-08-06 2012-12-05 日産自動車株式会社 距離計測方法および装置、ならびに距離計測装置を備えた車両
JP2009137353A (ja) 2007-12-04 2009-06-25 Alpine Electronics Inc 運転支援画像生成装置および運転支援画像生成方法
JP5177515B2 (ja) * 2008-06-02 2013-04-03 アイシン精機株式会社 周辺認知支援システム
JP5155042B2 (ja) 2008-07-04 2013-02-27 本田技研工業株式会社 車両周辺画像の切替装置
JP5523025B2 (ja) * 2008-09-16 2014-06-18 富士フイルム株式会社 放射線画像検出器の撮像面の設置誤差検出方法および画像補正方法
JP5182042B2 (ja) * 2008-11-28 2013-04-10 富士通株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP2010250640A (ja) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd 画像処理装置
JP5324310B2 (ja) * 2009-05-14 2013-10-23 富士通テン株式会社 車載照明装置、画像処理装置及び画像表示システム
TWI417639B (zh) * 2009-12-30 2013-12-01 Ind Tech Res Inst 全周鳥瞰影像無縫接合方法與系統

Also Published As

Publication number Publication date
US20120219190A1 (en) 2012-08-30
US8503729B2 (en) 2013-08-06
JP2012174152A (ja) 2012-09-10

Similar Documents

Publication Publication Date Title
JP5699679B2 (ja) 画像処理装置、画像処理システム、及び画像処理方法
JP5143235B2 (ja) 制御装置および車両周囲監視装置
JP6313646B2 (ja) 外界認識装置
US20030169902A1 (en) Vehicular image processing apparatus and related method
CN111095078A (zh) 用于控制用于机动车的增强现实平视显示器装置的显示的方法、装置和带有指令的计算机可读的存储介质
JPWO2017046937A1 (ja) 車両用表示装置及び車両用表示方法
WO2011108217A1 (ja) 車両の周辺監視装置
JP6277933B2 (ja) 表示制御装置、表示システム
EP4068220A1 (en) Image processing device, image processing method, moving device, and storage medium
US10965872B2 (en) Image display apparatus
WO2016051981A1 (ja) 車載画像認識装置
JP7613358B2 (ja) 表示装置
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
JP7073769B2 (ja) 運転支援システム及び運転支援方法
JP6808753B2 (ja) 画像補正装置および画像補正方法
CN115113397A (zh) 平视显示器、影像校正方法以及影像校正程序
JP7427594B2 (ja) 画像処理装置
JP2010257217A (ja) 車両周辺監視装置
JP7436331B2 (ja) 画像処理装置
Roslak et al. Active lighting systems for improved road safety
JP2016197280A (ja) 画像処理装置
JP6455193B2 (ja) 電子ミラーシステム及び画像表示制御プログラム
JP2019213108A (ja) キャリブレーション装置及び電子ミラーシステム
JP4598011B2 (ja) 車両用表示装置
JPWO2020075476A1 (ja) 車載システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150202

R150 Certificate of patent or registration of utility model

Ref document number: 5699679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350