JP5682735B2 - 立体物検出装置 - Google Patents
立体物検出装置 Download PDFInfo
- Publication number
- JP5682735B2 JP5682735B2 JP2014502223A JP2014502223A JP5682735B2 JP 5682735 B2 JP5682735 B2 JP 5682735B2 JP 2014502223 A JP2014502223 A JP 2014502223A JP 2014502223 A JP2014502223 A JP 2014502223A JP 5682735 B2 JP5682735 B2 JP 5682735B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional object
- light source
- threshold value
- object detection
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20064—Wavelet transform [DWT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Closed-Circuit Television Systems (AREA)
- Geometry (AREA)
Description
本発明は、立体物検出装置に関するものである。
本出願は、2012年3月1日に出願された日本国特許出願の特願2012−045352に基づく優先権を主張するものであり、文献の参照による組み込みが認められる指定国については、上記の出願に記載された内容を参照により本出願に組み込み、本出願の記載の一部とする。
本出願は、2012年3月1日に出願された日本国特許出願の特願2012−045352に基づく優先権を主張するものであり、文献の参照による組み込みが認められる指定国については、上記の出願に記載された内容を参照により本出願に組み込み、本出願の記載の一部とする。
従来より、異なる時刻に撮像された2枚の撮像画像を鳥瞰視画像に変換し、変換した2枚の鳥瞰視画像の差分に基づいて、障害物を検出する技術が知られている(特許文献1参照)。
夜間に、自車両後方を撮像した画像を用いて、自車両が走行する車線に隣接する隣接車線を走行する他車両を検出する場合、隣接車線に隣接する車線(以下、隣隣接車線ともいう)を走行する他車両のヘッドライトの光が検出領域に照射されると、このヘッドライトの光の像を、隣接車線を走行する他車両として誤検出してしまう場合がある。
本発明が解決しようとする課題は、自車両が走行する車線に隣接する隣接車線に存在する立体物(他車両)を検出する際に、隣接車線に隣接する隣隣接車線を走行する他車両のヘッドライトから照射される光の影響を排除し、隣接車線に存在する立体物を正確に検出することである。
本発明は、自車両後方に存在する光源を検出し、検出した光源と撮像装置とを結ぶ線よりも後方の領域の方が、線よりも前方の領域よりも立体物が検出され易いように、隣接車線を走行する他車両を検出するための閾値を低くすることで、上記課題を解決する。
隣隣接車線を走行する他車両のヘッドライトから照射される光は、その光源と撮像装置とを結ぶ線よりも前方を照射する一方、隣接車線に存在する立体物の像は、光源と撮像装置とを結ぶ線よりも後方に現れるため、ヘッドライト(光源)と撮像装置とを結ぶ線よりも後方において立体物が検出され易いように、隣接車線を走行する他車両を検出するための閾値を低く設定することにより、隣接車線に存在する立体物を適切に検出することができる。
《第1実施形態》
図1は、第1実施形態に係る立体物検出装置1を搭載した車両の概略構成図である。本実施形態に係る立体物検出装置1は、自車両V1が車線変更する際に接触の可能性がある隣接車線に存在する車両(以下、隣接車両V2ともいう。)を検出することを目的とする。本実施形態に係る立体物検出装置1は、図1に示すように、カメラ10と、車速センサ20と、計算機30とを備える。
図1は、第1実施形態に係る立体物検出装置1を搭載した車両の概略構成図である。本実施形態に係る立体物検出装置1は、自車両V1が車線変更する際に接触の可能性がある隣接車線に存在する車両(以下、隣接車両V2ともいう。)を検出することを目的とする。本実施形態に係る立体物検出装置1は、図1に示すように、カメラ10と、車速センサ20と、計算機30とを備える。
カメラ10は、図1に示すように、自車両V1の後方における高さhの箇所において、光軸が水平から下向きに角度θとなるように車両V1に取り付けられている。カメラ10は、この位置から自車両V1の周囲環境のうちの所定領域を撮像する。車速センサ20、自車両V1の走行速度を検出するものであって、例えば車輪に回転数を検知する車輪速センサで検出した車輪速から車速度を算出する。計算機30は、自車両後方の隣接車線に存在する隣接車両の検出を行う。
図2は、図1の自車両V1の走行状態を示す平面図である。同図に示すように、カメラ10は、所定の画角aで車両後方側を撮像する。このとき、カメラ10の画角aは、自車両V1が走行する車線に加えて、その左右の車線(隣接車線)についても撮像可能な画角に設定されている。
図3は、図1の計算機30の詳細を示すブロック図である。なお、図3においては、接続関係を明確とするためにカメラ10、車速センサ20についても図示する。
図3に示すように、計算機30は、視点変換部31と、位置合わせ部32と、立体物検出部33と、検出基準設定部34とを備える。以下に、それぞれの構成について説明する。
視点変換部31は、カメラ10による撮像にて得られた所定領域の撮像画像データを入力し、入力した撮像画像データを鳥瞰視される状態の鳥瞰画像データに視点変換する。鳥瞰視される状態とは、上空から例えば鉛直下向きに見下ろす仮想カメラの視点から見た状態である。この視点変換は、例えば特開2008−219063号公報に記載されるようにして実行することができる。撮像画像データを鳥瞰視画像データに視点変換するのは、立体物に特有の鉛直エッジは鳥瞰視画像データへの視点変換により特定の定点を通る直線群に変換されるという原理に基づき、これを利用すれば平面物と立体物とを識別できるからである。
位置合わせ部32は、視点変換部31の視点変換により得られた鳥瞰視画像データを順次入力し、入力した異なる時刻の鳥瞰視画像データの位置を合わせる。図4は、位置合わせ部32の処理の概要を説明するための図であり、(a)は自車両V1の移動状態を示す平面図、(b)は位置合わせの概要を示す画像である。
図4(a)に示すように、現時刻の自車両V1がP1に位置し、一時刻前の自車両V1がP1’に位置していたとする。また、自車両V1の後側方向に隣接車両V2が位置して自車両V1と並走状態にあり、現時刻の隣接車両V2がP2に位置し、一時刻前の隣接車両V2がP2’に位置していたとする。さらに、自車両V1は、一時刻で距離d移動したものとする。なお、一時刻前とは、現時刻から予め定められた時間(例えば1制御周期)だけ過去の時刻であってもよいし、任意の時間だけ過去の時刻であってもよい。
このような状態において、現時刻における鳥瞰視画像PBtは図4(b)に示すようになる。この鳥瞰視画像PBtでは、路面上に描かれる白線については矩形状となり、比較的正確に平面視された状態となるが、隣接車両V2(位置P2)については倒れ込みが発生する。また、一時刻前における鳥瞰視画像PBt−1についても同様に、路面上に描かれる白線については矩形状となり、比較的正確に平面視された状態となるが、隣接車両V2(位置P2’)については倒れ込みが発生する。既述したとおり、立体物の鉛直エッジ(厳密な意味の鉛直エッジ以外にも路面から三次元空間に立ち上がったエッジを含む)は、鳥瞰視画像データへの視点変換処理によって倒れ込み方向に沿った直線群として現れるのに対し、路面上の平面画像は鉛直エッジを含まないので、視点変換してもそのような倒れ込みが生じないからである。
位置合わせ部32は、上記のような鳥瞰視画像PBt,PBt−1の位置合わせをデータ上で実行する。この際、位置合わせ部32は、一時刻前における鳥瞰画像PBt−1をオフセットさせ、現時刻における鳥瞰視画像PBtと位置を一致させる。図4(b)の左側の画像と中央の画像は、移動距離d’だけオフセットした状態を示す。このオフセット量d’は、図4(a)に示した自車両V1の実際の移動距離dに対応する鳥瞰視画像データ上の移動量であり、車速センサ20からの信号と一時刻前から現時刻までの時間に基づいて決定される。
また、位置合わせ後において位置合わせ部32は、鳥瞰視画像PBt,PBt−1の差分をとり、差分画像PDtのデータを生成する。ここで、本実施形態において、位置合わせ部32は、照度環境の変化に対応するために、鳥瞰視画像PBt,PBt−1の画素値の差を絶対値化し、当該絶対値が所定の閾値th以上であるときに、差分画像PDtの画素値を「1」とし、絶対値が所定の閾値th未満であるときに、差分画像PDtの画素値を「0」とすることで、図4(b)の右側に示すような差分画像PDtのデータを生成することができる。
図3に戻り、立体物検出部33は、図4(b)に示す差分画像PDtのデータに基づいて立体物を検出する。この際、立体物検出部33は、実空間上における立体物の移動距離についても算出する。立体物の検出および移動距離の算出にあたり、立体物検出部33は、まず差分波形を生成する。
差分波形の生成にあたって立体物検出部33は、差分画像PDtにおいて検出領域を設定する。本例の立体物検出装置1は、自車両V1が車線変更する際に接触の可能性がある隣接車両について移動距離を算出することを目的とするものである。このため、本例では、図2に示すように自車両V1の後側方に矩形状の検出領域A1,A2を設定する。なお、このような検出領域A1,A2は、自車両V1に対する相対位置から設定してもよいし、白線の位置を基準に設定してもよい。白線の位置を基準に設定する場合に、立体物検出装置1は、例えば既存の白線認識技術等を利用するとよい。
また、立体物検出部33は、図2に示すように、設定した検出領域A1,A2の自車両V1側における辺(走行方向に沿う辺)を接地線L1,L2として認識する。一般に接地線は立体物が地面に接触する線を意味するが、本実施形態では地面に接触する線でなく上記の如くに設定される。なおこの場合であっても、経験上、本実施形態に係る接地線と、本来の隣接車両V2の位置から求められる接地線との差は大きくなり過ぎず、実用上は問題が無い。
図5は、立体物検出部33による差分波形の生成の様子を示す概略図である。図5に示すように、立体物検出部33は、位置合わせ部32で算出した差分画像PDt(図4(b)の右図)のうち検出領域A1,A2に相当する部分から、差分波形DWtを生成する。この際、立体物検出部33は、視点変換により立体物が倒れ込む方向に沿って、差分波形DWtを生成する。なお、図5に示す例では、便宜上検出領域A1のみを用いて説明するが、検出領域A2についても同様の手順で差分波形DWtを生成する。
具体的に説明すると、まず立体物検出部33は、差分画像PDtのデータ上において立体物が倒れ込む方向上の線Laを定義する。そして、立体物検出部33は、線La上において所定の差分を示す差分画素DPの数をカウントする。本実施形態では、所定の差分を示す差分画素DPは、差分画像PDtの画素値が「0」「1」で表現されており、「1」を示す画素が、差分画素DPとしてカウントされる。
立体物検出部33は、差分画素DPの数をカウントした後、線Laと接地線L1との交点CPを求める。そして、立体物検出部33は、交点CPとカウント数とを対応付け、交点CPの位置に基づいて横軸位置、すなわち図5右図の上下方向軸における位置を決定するとともに、カウント数から縦軸位置、すなわち図5右図の左右方向軸における位置を決定し、交点CPにおけるカウント数としてプロットする。
以下同様に、立体物検出部33は、立体物が倒れ込む方向上の線Lb,Lc…を定義して、差分画素DPの数をカウントし、各交点CPの位置に基づいて横軸位置を決定し、カウント数(差分画素DPの数)から縦軸位置を決定しプロットする。立体物検出部33は、上記を順次繰り返して度数分布化することで、図5右図に示すように差分波形DWtを生成する。
ここで、差分画像PDtのデータ上における差分画素PDは、異なる時刻の画像において変化があった画素であり、言い換えれば立体物が存在した箇所であるといえる。このため、立体物が存在した箇所において、立体物が倒れ込む方向に沿って画素数をカウントして度数分布化することで差分波形DWtを生成することとなる。特に、立体物が倒れ込む方向に沿って画素数をカウントすることから、立体物に対して高さ方向の情報から差分波形DWtを生成することとなる。
なお、図5左図に示すように、立体物が倒れ込む方向上の線Laと線Lbとは検出領域A1と重複する距離が異なっている。このため、検出領域A1が差分画素DPで満たされているとすると、線Lb上よりも線La上の方が差分画素DPの数が多くなる。このため、立体物検出部33は、差分画素DPのカウント数から縦軸位置を決定する場合に、立体物が倒れ込む方向上の線La,Lbと検出領域A1とが重複する距離に基づいて正規化する。具体例を挙げると、図5左図において線La上の差分画素DPは6つあり、線Lb上の差分画素DPは5つである。このため、図5においてカウント数から縦軸位置を決定するにあたり、立体物検出部33は、カウント数を重複距離で除算するなどして正規化する。これにより、差分波形DWtに示すように、立体物が倒れ込む方向上の線La,Lbに対応する差分波形DWtの値はほぼ同じとなっている。
差分波形DWtの生成後、立体物検出部33は、生成した差分波形DWtに基づいて、隣接車線に存在している隣接車両の検出を行う。ここで、図6は、立体物検出部33による隣接車両の検出方法を説明するための図であり、差分波形DWtおよび隣接車両を検出するための閾値αの一例を示している。立体物検出部33は、図6に示すように、生成した差分波形DWtのピークが、当該差分波形DWtのピーク位置に対応する閾値α以上であるか否かを判断する。そして、立体物検出部33は、差分波形DWtのピークが所定の閾値α未満である場合には、検出領域A1,A2に隣接車両は存在しないと判断し、一方、差分波形DWtのピークが所定の閾値α以上である場合には、検出領域A1,A2に隣接車両が存在すると判断することで、隣接車線に存在する隣接車両を検出する。
このように、差分波形DWtは、所定輝度差を示す画素の分布情報の一態様であり、本実施形態における「画素の分布情報」とは、撮像画像を鳥瞰視画像に視点変換した際における立体物が倒れ込む方向に沿って検出される「輝度差が所定閾値以上の画素」の分布の状態を示す情報と位置付けることができる。つまり、立体物検出部33は、視点変換部31により得られた鳥瞰視画像上で、鳥瞰視画像に視点変換した際に立体物が倒れ込む方向において、輝度差が所定閾値th以上の画素の分布情報を差分波形DWtとして検出し、さらに、立体物が倒れこむ方向における画素の分布の度合い(差分波形DWtにおける差分画素DPのカウント数)が閾値α以上である場合に、差分波形DWtに基づいて、立体物を検出する。
続いて、隣接車両を検出するための閾値αの設定方法について説明する。
閾値αは、図3に示す検出基準設定部34により設定される。検出基準設定部34は、図5左図に示す立体物が倒れ込む方向上の各線La,Lb,Lc…に対応する検出領域A1,A2内の位置(以下、検出領域A1,A2内の検出位置という)ごとに、検出領域A1,A2内の検出位置における輝度(たとえば、図5左図に示す立体物が倒れ込む方向上の各線La,Lb,Lc…上の差分画素DPの平均輝度など)、および、カメラ10と光源との位置関係に応じて、隣接車両を検出するための閾値αを設定する。ここで、図7は、検出領域A1,A2内の検出位置における輝度と閾値αとの関係の一例を示すグラフであり、図8は、カメラ10と光源との位置関係に応じて設定される閾値αのゲインの一例を示す図である。
具体的には、検出基準設定部34は、図7に示すように、検出領域A1,A2内の検出位置における輝度が高いほど、当該検出位置に対応する閾値αを高い値に設定する。これにより、たとえば、輝度の高い隣隣接車両(自車線の2車線隣の隣隣接車線に存在する車両)のヘッドライトの光が隣接車線に照射された場合でも、隣隣接車両のヘッドライトの光に基づく差分波形DWtのピークが閾値α未満となり、隣隣接車両のヘッドライトの光の影響を排除することができるため、隣隣接車両のヘッドライトの光の像を、隣接車両として誤検出してしまうことを有効に防止することができる。
さらに、検出基準設定部34は、図8に示すように、検出位置の自車両進行方向における位置に応じて、閾値αのゲインを変更する。本実施形態では、後述するように、図8に示す基準位置POが、隣隣接車両のヘッドライトなどの光源の位置に対応し、これにより、図8に示すように、基準位置POより前方においては、基準位置POより後方と比べて、閾値αのゲインが高く設定され、その結果、基準位置POより前方においては、基準位置POより後方と比べて、閾値αが高く設定されることとなる。
一方、図8に示すように、基準位置POよりも後方においては、基準位置POより前方と比べて、閾値αのゲインが低く設定されているため、輝度が同じ場合には、基準位置POより後方においては、基準位置POより前方と比べて、閾値αが低く設定されることとなる。
また、本実施形態において、検出基準設定部34は、図8に示す閾値αのゲインを、カメラ10と光源との位置関係に応じて調整する。以下に、図9および図10を参照して、図8に示す閾値αのゲインの調整方法について説明する。なお、図9および図10は、図8に示す閾値αのゲインの調整方法を説明するための図である。
検出基準設計部34は、図9(A)右図に示すように、まず、カメラ10により撮像された撮像画像から、隣隣接車両V3のヘッドライトなどの光源を検出する。そして、検出基準設定部34は、検出した光源の重心位置を検出し、光源の重心位置と、カメラ10の中心位置とを通る直線Lcを設定する。さらに、検出基準設定部34は、直線Lcと、検出領域A2の隣隣接車線側における辺(走行方向に沿う辺)L2’との交点Oを算出する。なお、検出基準設定部34による光源の検出方法については後述する。
そして、検出基準設定部34は、図9(A)左図に示すように、交点Oと、図8に示す基準位置POとが一致するように、図8に示す閾値αのゲインの調整を行う。ここで、図9(B)は、図9(A)に示す場面から、隣隣接車両V3が自車両V1に近接した場面を例示している。図9(B)に示す場面では、隣隣接車両V3が自車両V1に近接しているため、直線Lcと検出領域A2の線L2’との交点Oは、図9(A)に示す交点Oよりも、前方(Y軸負方向)に移動している。そのため、図10(B)左図に示すように、検出基準設定部34により、図9(B)右図に示す交点Oの位置と、図8に示す基準位置POとが一致するように、図8に示す閾値αのゲインを調整した場合、図9(B)左図に示すように、図8に示す閾値αのゲインは、図9(A)左図に示す閾値αのゲインと比べて、全体的に前方(Y軸負方向)にシフトされ、これにより、光源の位置と、図8に示す基準位置POとが対応することとなる。
これにより、図8、図9に示すように、光源の位置において閾値αのゲインが最も大きく、また、光源付近の位置においても、閾値αのゲインが大きくなる。そのため、光源の位置において、隣接車両を検出するための閾値αが最も高い値に設定され、また光源付近の位置において、隣接車両を検出するための閾値αが高い値に設定されることとなる。その結果、隣隣接車両の光源が隣接車線に照射された場合に、隣隣接車両のヘッドライド(光源)を隣接車両として誤検出してしまうことを有効に防止することができる。
また、光源が隣接車両のヘッドライトである場合に、光源よりも後方の領域Rrにおいて、ヘッドライト(光源)の後方に位置する隣接車両のタイヤホイールを検出し難い場合がある。一方、光源よりも後方の領域Rrでは、隣接車両のタイヤホイールが存在する可能性は高い。そこで、本実施形態では、光源よりも後方の領域Rrを、隣接車両が存在する可能性が所定値以上である領域と判断し、図8、図9に示すように、光源よりも後方の領域Rrにおいて、閾値αのゲインを低く設定することで、光源の後方に位置する隣接車両を適切に検出することができる。
また、図8、図9に示すように、光源よりも前方の領域Rf(すなわち、自車両の進行方向をY方向、車幅方向をX方向としたXY平面において、Y方向におけるカメラ10の位置を0、カメラ10よりも後方をY>0とし、直線LcをY=kXで示した場合に、Y<kXとなる領域)において、閾値αのゲインは高く設定され、ヘッドライト(光源)よりも後方の領域Rr(すなわち、自車両の進行方向をY方向、車幅方向をX方向としたXY平面において、Y方向におけるカメラ10の位置を0、カメラ10よりも後方をY>0とし、直線LcをY=kXで示した場合に、Y≧kXとなる領域)において、閾値αのゲインは低く設定される。そのため、輝度が同じ場合には、光源よりも前方の領域Rfにおいて、閾値αが高く設定され、ヘッドライト(光源)よりも後方の領域Rrにおいては、閾値αが低く設定される。
さらに、検出基準設定部34は、図8、図9に示すように、カメラ10の中心位置から光源の重心位置までの車幅方向(X軸方向)の距離Lに応じて、図8に示す閾値αのゲインを調整する。具体的には、検出基準設定部34は、カメラ10の中心位置から光源の重心位置までの距離Lが大きいほど、基準位置POよりも後方において設定される閾値αが大きくなるように、基準位置POよりも後方における閾値αのゲインの下げ幅dh(図8に示す基準位置POでの閾値αのゲインに対する下げ幅dh)を小さくする。たとえば、図10(A)に示す場面において図8に示す閾値αのゲインとなる場合に、図10(B)に示すように、図10(A)と比べて、カメラ10の中心位置から光源の重心位置までの距離Lが大きくなった場合には、検出基準設定部34は、図11に示すように、閾値αのゲインの下げ幅dhを、図8に示す閾値αのゲインの下げ幅dhよりも小さくするように、図8に示す閾値αのゲインを調整する。これにより、検出基準設定部34は、ヘッドライト(光源)よりも後方の領域Rrにおいて、カメラ10の中心位置から光源の重心位置までの車幅方向における距離Lが長いほど立体物が検出され難いように、検出基準となる閾値αを設定することができる。
なお、検出基準設定部34は、図11に示すように、カメラ10の中心位置から光源の重心位置までの距離Lに応じて、閾値αのゲインの下げ幅dhを変更する構成に代えて、あるいは、この構成に加えて、図12に示すように、カメラ10の中心位置から光源の重心位置までの距離Lが大きいほど、基準位置POにおける閾値αのゲインに対して、閾値αのゲインが低く推移する範囲dw(光源より後方に存在する隣接車両のタイヤホイールに対応する範囲)を狭くするような構成とすることもできる。たとえば、図10(A)に示す場面において図8に示す閾値αのゲインが得られる場合に、検出基準設定部34は、たとえば図10(B)に示すように、図10(A)と比べて、カメラ10の中心位置から光源の重心位置までの距離Lが大きくなった場合には、図12に示すように、基準位置POに対して閾値αのゲインが低く推移する範囲dwを狭くする。この場合も、光源の位置に対応する基準位置POより後方において閾値αが高く設定される範囲が広くなるため、光源よりも後方の領域Rrにおいても、隣隣接車両V3が存在する可能性が高い場合に、隣隣接車両V3のヘッドライトの影響をより適切に排除することができる。
なお、検出基準設定部34は、隣接車線に照射される隣隣接車両のヘッドライトの光を、隣接車両として誤検出してしまうことを有効に防止するために、閾値αを変更するものである。そのため、本実施形態では、検出基準設定部34による閾値αの変更を、隣隣接車両V2がヘッドライトを点灯する夜間のみ行う構成とすることができる。なお、検出基準設定部34は、たとえば、カメラ10により撮像した画像の輝度が所定値以下である場合に、夜間であると判断すればよい。
続いて、立体物検出部33の説明に戻る。隣接車線に存在する立体物を検出した後、立体物検出部33は、一時刻前の差分波形DWt−1と現時刻における差分波形DWtとの対比により、隣接車両に存在する立体物の移動距離を算出する。すなわち、立体物検出部33は、差分波形DWt,DWt−1の時間変化から移動距離を算出する。
詳細に説明すると、立体物検出部33は、図13に示すように差分波形DWtを複数の小領域DWt1〜DWtn(nは2以上の任意の整数)に分割する。図13は、立体物検出部33によって分割される小領域DWt1〜DWtnを示す図である。小領域DWt1〜DWtnは、例えば図13に示すように、互いに重複するようにして分割される。例えば小領域DWt1と小領域DWt2とは重複し、小領域DWt2と小領域DWt3とは重複する。
次いで、立体物検出部33は、小領域DWt1〜DWtn毎にオフセット量(差分波形の横軸方向(図13の上下方向)の移動量)を求める。ここで、オフセット量は、一時刻前における差分波形DWt−1と現時刻における差分波形DWtとの差(横軸方向の距離)から求められる。この際、立体物検出部33は、小領域DWt1〜DWtn毎に、一時刻前における差分波形DWt−1を横軸方向に移動させた際に、現時刻における差分波形DWtとの誤差が最小となる位置(横軸方向の位置)を判定し、差分波形DWt−1の元の位置と誤差が最小となる位置との横軸方向の移動量をオフセット量として求める。そして、立体物検出部33は、小領域DWt1〜DWtn毎に求めたオフセット量をカウントしてヒストグラム化する。
図14は、立体物検出部33により得られるヒストグラムの一例を示す図である。図14に示すように、各小領域DWt1〜DWtnと一時刻前における差分波形DWt−1との誤差が最小となる移動量であるオフセット量には、多少のバラつきが生じる。このため、立体物検出部33は、バラつきを含んだオフセット量をヒストグラム化し、ヒストグラムから移動距離を算出する。この際、立体物検出部33は、ヒストグラムの極大値から隣接車両の移動距離を算出する。すなわち、図14に示す例において、立体物検出部33は、ヒストグラムの極大値を示すオフセット量を移動距離τ*と算出する。このように、本実施形では、オフセット量にバラつきがあったとしても、その極大値から、より正確性の高い移動距離を算出することが可能となる。なお、移動距離τ*は、自車両に対する隣接車両の相対移動距離である。このため、立体物検出部33は、絶対移動距離を算出する場合には、得られた移動距離τ*と車速センサ20からの信号とに基づいて、絶対移動距離を算出することとなる。
このように、本実施形態では、異なる時刻に生成された差分波形DWtの誤差が最小となるときの差分波形DWtのオフセット量から立体物の移動距離を算出することで、波形という1次元の情報のオフセット量から移動距離を算出することとなり、移動距離の算出にあたり計算コストを抑制することができる。また、異なる時刻に生成された差分波形DWtを複数の小領域DWt1〜DWtnに分割することで、立体物のそれぞれの箇所を表わした波形を複数得ることができ、これにより、立体物のそれぞれの箇所毎にオフセット量を求めることができ、複数のオフセット量から移動距離を求めることができるため、移動距離の算出精度を向上させることができる。また、本実施形態では、高さ方向の情報を含む差分波形DWtの時間変化から立体物の移動距離を算出することで、単に1点の移動のみに着目するような場合と比較して、時間変化前の検出箇所と時間変化後の検出箇所とが高さ方向の情報を含んで特定されるため立体物において同じ箇所となり易く、同じ箇所の時間変化から移動距離を算出することとなり、移動距離の算出精度を向上させることができる。
なお、ヒストグラム化にあたり立体物検出部33は、複数の小領域DWt1〜DWtn毎に重み付けをし、小領域DWt1〜DWtn毎に求めたオフセット量を重みに応じてカウントしてヒストグラム化してもよい。図15は、立体物検出部33による重み付けを示す図である。
図15に示すように、小領域DWm(mは1以上n−1以下の整数)は平坦となっている。すなわち、小領域DWmは所定の差分を示す画素数のカウントの最大値と最小値との差が小さくなっている。立体物検出部33は、このような小領域DWmについて重みを小さくする。平坦な小領域DWmについては、特徴がなくオフセット量の算出にあたり誤差が大きくなる可能性が高いからである。
一方、小領域DWm+k(kはn−m以下の整数)は起伏に富んでいる。すなわち、小領域DWmは所定の差分を示す画素数のカウントの最大値と最小値との差が大きくなっている。立体物検出部33は、このような小領域DWmについて重みを大きくする。起伏に富む小領域DWm+kについては、特徴的でありオフセット量の算出を正確に行える可能性が高いからである。このように重み付けすることにより、移動距離の算出精度を向上することができる。
なお、移動距離の算出精度を向上するために上記実施形態では差分波形DWtを複数の小領域DWt1〜DWtnに分割したが、移動距離の算出精度がさほど要求されない場合は小領域DWt1〜DWtnに分割しなくてもよい。この場合に、立体物検出部33は、差分波形DWtと差分波形DWt−1との誤差が最小となるときの差分波形DWtのオフセット量から移動距離を算出することとなる。すなわち、一時刻前における差分波形DWt−1と現時刻における差分波形DWtとのオフセット量を求める方法は上記内容に限定されない。
なお、本実施形態において立体物検出部33は、自車両V1(カメラ10)の移動速度を求め、求めた移動速度から静止物についてのオフセット量を求める。静止物のオフセット量を求めた後、立体物検出部33は、ヒストグラムの極大値のうち静止物に該当するオフセット量を無視したうえで、隣接車両の移動距離を算出する。
図16は、立体物検出部33により得られるヒストグラムの他の例を示す図である。カメラ10の画角内に隣接車両の他に静止物が存在する場合に、得られるヒストグラムには2つの極大値τ1,τ2が現れる。この場合、2つの極大値τ1,τ2のうち、いずれか一方は静止物のオフセット量である。このため、立体物検出部33は、移動速度から静止物についてのオフセット量を求め、そのオフセット量に該当する極大値について無視し、残り一方の極大値を採用して立体物の移動距離を算出する。これにより、静止物により立体物の移動距離の算出精度が低下してしまう事態を防止することができる。
なお、静止物に該当するオフセット量を無視したとしても、極大値が複数存在する場合、カメラ10の画角内に隣接車両が複数台存在すると想定される。しかし、検出領域A1,A2内に複数の隣接車両が存在することは極めて稀である。このため、立体物検出部33は、移動距離の算出を中止する。これにより、本実施形態では、極大値が複数あるような誤った移動距離を算出してしまう事態を防止することができる。
次に、本実施形態に係る隣接車両検出処理について説明する。図17は、本実施形態の隣接車両検出処理を示すフローチャートである。図17に示すように、まず、計算機30により、カメラ10から撮像画像Pのデータの取得が行われ(ステップS101)、視点変換部31により、取得した撮像画像Pのデータに基づいて、鳥瞰視画像PBtのデータが生成される(ステップS102)。
次いで、位置合わせ部33は、鳥瞰視画像PBtのデータと、一時刻前の鳥瞰視画像PBt−1のデータとを位置合わせをし、差分画像PDtのデータを生成する(ステップS103)。その後、立体物検出部33は、差分画像PDtのデータから、画素値が「1」の差分画素DPの数をカウントして、差分波形DWtを生成する(ステップS104)。
検出基準設定部34は、隣接車両を検出するための閾値αの設定を行う(ステップS105)。ここで、図18は、ステップS105の閾値αの設定処理を示すフローチャートである。検出基準設定部34は、図18に示すように、まず、カメラ10により撮像された撮像画像から、隣隣接車両のヘッドライトなどの光源を検出する(ステップS201)。
ここで、検出基準設定部34は、ノイズの影響を排除し、他車両のヘッドライトを光源として適切に検出するために、撮像画像のうち、周辺との明るさの差が所定値sd以上であり、かつ、所定値sl以上の大きさである画像領域を、光源に対応する領域として検出する。
そのため、検出基準設定部34は、まず、撮像画像のエッジ処理を行い、周辺との明るさの差が所定値sd以上の領域を、光源候補として検出する。なお、本実施形態において、検出基準設定部34は、光源を適切に検出するために、所定値sdを一定の値に限定せず、たとえば、カメラ10から光源候補までの後方距離や、光源候補が存在する領域の輝度に基づいて、所定値sdを変更することができる。たとえば、検出基準設定部34は、輝度に応じて所定値sdが設定された閾値マップと、カメラ10から光源候補までの後方距離に応じて所定値sdが設定された閾値マップとを有し、これら2つの閾値マップを比較し、それぞれの閾値マップで得られた所定値sdのうち高いほうの所定値sdを、光源候補を検出するための所定値sdとして選択することができる。
そして、検出基準設定部34は、検出された光源候補のうち、所定値sl以上の大きさである画像領域を、光源に対応する領域として検出する。なお、所定値slも一定の値に限定されず、たとえば、検出基準設定部34は、カメラ10から光源候補までの後方距離に応じて、所定値slを変更してもよい。たとえば、検出領域A1,A2の自車両進行方向における長さが10mである場合、検出基準設定部34は、検出領域A1,A2を、検出領域A1,A2のうちカメラ10から最も近い位置から、車両進行方向に0〜1.5mまでの領域R1と、1.5〜6mの領域R2と、6m〜10mの領域R3との3つの領域に分割する。そして、検出基準設定部34は、検出領域A1,A2のうち、自車両から近い領域R1、および自車両から遠い領域R3では、たとえば、縦×横が5×5画素以上となる画像領域を、光源に対応する領域として検出し、検出領域A1,A2のうち、中央の領域R2では、たとえば、縦×横が7×7画素以上となる画像領域を、光源に対応する領域として検出することができる。
なお、ステップS201において、光源を検出できない場合には、図7に示す閾値αを、隣接車両を検出するための閾値αとして算出し、ステップS105の閾値αの設定処理を終了する。
次に、検出基準設定部34は、図10(A)右図に示すように、検出した光源の重心位置とカメラ10の中心位置とを通る直線Lcを設定し(ステップS202)、さらに、検出基準設定部34は、設定した直線Lcと、検出領域A2の隣隣接車線側の辺L2’との交点Oを算出する(ステップS203)。そして、検出基準設定部34は、図10(B)左図に示すように、ステップS203で算出した交点Oと、図8に示す基準位置POとが一致するように、閾値αのゲインを調整する(ステップS204)。
そして、検出基準設定部34は、図7に示すように、輝度に応じて設定された閾値αを、ステップS204で調整した閾値αのゲインで変更することで、隣接車両を検出するための閾値αを算出する(ステップS205)。そして、検出基準設定部34は、検出領域A1,A2内における全て検出位置ごとに閾値αを算出し、検出領域A1,A2内における全て検出位置において閾値αを算出することで(ステップS206=Yes)、図6に示すように、差分波形DWtに基づいて隣接車両を検出するための閾値αを設定する。
図17に戻り、立体物検出部33は、ステップS105で設定された閾値αに基づいて、ステップS104で生成された差分波形DWtのピークが、当該差分波形DWtのピークが検出された位置に対応する閾値α以上となるか否かの判断を行う(ステップS106)。差分波形DWtのピークが閾値α以上でない場合、すなわち差分が殆どない場合には、撮像画像P内には隣接車両が存在しないと考えられる。このため、差分波形DWtのピークが閾値α以上でないと判断した場合には(ステップS106=No)、立体物検出部33は、隣接車線に隣接車両が存在しないと判断し(ステップS115)、図17に示す処理を終了する。
一方、差分波形DWtのピークが閾値α以上であると判断した場合には(ステップS106=Yes)、立体物検出部33は、隣接車線に立体物が存在すると判断し、ステップS107に進み、立体物検出部33により、差分波形DWtが、複数の小領域DWt1〜DWtnに分割される。次いで、立体物検出部33は、小領域DWt1〜DWtn毎に重み付けを行い(ステップS108)、小領域DWt1〜DWtn毎のオフセット量を算出し(ステップS109)、重みを加味してヒストグラムを生成する(ステップS110)。
そして、立体物検出部33は、ヒストグラムに基づいて自車両に対する隣接車両の移動距離である相対移動距離を算出する(ステップS111)。さらに、立体物検出部33は、相対移動距離から隣接車両の絶対移動速度を算出する(ステップS112)。このとき、立体物検出部33は、相対移動距離を時間微分して相対移動速度を算出すると共に、車速センサ20で検出された自車速を加算して、隣接車両の絶対移動速度を算出する。
その後、立体物検出部33は、隣接車両の絶対移動速度が10km/h以上、且つ、隣接車両の自車両に対する相対移動速度が+60km/h以下であるか否かを判断する(ステップS113)。双方を満たす場合には(ステップS113=Yes)、立体物検出部33は、隣接車線に隣接車両が存在すると判断する(ステップS114)。そして、図17に示す処理を終了する。一方、いずれか一方でも満たさない場合には(ステップS113=No)、立体物検出部33は、隣接車線に隣接車両が存在しないと判断する(ステップS115)。そして、図17に示す処理を終了する。
なお、本実施形態では自車両の後側方を検出領域A1,A2とし、自車両が車線変更した場合に接触する可能性があるか否かに重点を置いている。このため、ステップS113の処理が実行されている。すなわち、本実施形態にけるシステムを高速道路で作動させることを前提とすると、隣接車両の速度が10km/h未満である場合、たとえ隣接車両が存在したとしても、車線変更する際には自車両の遠く後方に位置するため問題となることが少ない。同様に、隣接車両の自車両に対する相対移動速度が+60km/hを超える場合(すなわち、隣接車両が自車両の速度よりも60km/hより大きな速度で移動している場合)、車線変更する際には自車両の前方に移動しているため問題となることが少ない。このため、ステップS113では車線変更の際に問題となる隣接車両を判断しているともいえる。
また、ステップS113において隣接車両の絶対移動速度が10km/h以上、且つ、隣接車両の自車両に対する相対移動速度が+60km/h以下であるかを判断することにより、以下の効果がある。例えば、カメラ10の取り付け誤差によっては、静止物の絶対移動速度を数km/hであると検出してしまう場合があり得る。よって、10km/h以上であるかを判断することにより、静止物を隣接車両であると判断してしまう可能性を低減することができる。また、ノイズによっては隣接車両の自車両に対する相対速度を+60km/hを超える速度に検出してしまうことがあり得る。よって、相対速度が+60km/h以下であるかを判断することにより、ノイズによる誤検出の可能性を低減できる。
さらに、ステップS113の処理に代えて、隣接車両の絶対移動速度がマイナスでないことや、0km/hでないことを判断してもよい。また、本実施形態では自車両が車線変更した場合に接触する可能性がある否かに重点を置いているため、ステップS114において隣接車両が検出された場合に、自車両の運転者に警告音を発したり、所定の表示装置により警告相当の表示を行ったりしてもよい。
以上のように、第1実施形態では、自車両後方の検出領域A1,A2を異なる時刻で撮像し、撮像した撮像画像を鳥瞰視画像に変換し、異なる時刻の鳥瞰視画像の差分に基づいて、差分画像PDtを生成する。そして、視点変換により立体物が倒れ込む方向に沿って、所定の差分を示す画素数をカウントして度数分布化することで、差分画像PDtのデータから差分波形DWtを生成する。そして、生成した差分波形DWtのピークが、カメラ10と光源との位置関係に応じて設定された所定の閾値α以上であるか否かを判断し、差分波形DWtのピークが閾値α以上である場合には、隣接車線に隣接車両が存在すると判断することで、隣接車線に存在する隣接車両を適切に検出することができる。
すなわち、本実施形態では、図7に示すように、輝度に応じて閾値αを変更する。これにより、隣接車両の検出において、輝度の高い隣隣接車両のヘッドライトの光の影響を排除することができ、隣接車両を適切に検出することができる。さらに、本実施形態では、自車両後側方の光源を検出し、検出した光源の位置に応じて、隣接車両を検出するための閾値αを変更する。具体的には、本実施形態では、図8に示すように、閾値αのゲインが、光源の位置に対応する基準位置POよりも前方において高く、基準位置POよりも後方において低くなるように設定されている。これにより、たとえば、カメラ10のレンズの汚れにより、ヘッドライト(光源)周辺の輝度が高くなり、ヘッドライト(光源)の後方に位置する隣接車両のタイヤホイールが検出し難い場合でも、本実施形態によれば、ヘッドライト(光源)の後方において、隣接車両を検出するための閾値αを低くすることができるため、ヘッドライト(光源)後方に存在する隣接車両のタイヤホイールを適切に検出することができる。
また、隣隣接車両のヘッドライト(光源)の光が隣接車線に照射された場合に、ヘッドライト(光源)の光が隣接車線に反射し、この反射光がヘッドライト(光源)よりも前方の領域で検出される場合がある。このような場合でも、本実施形態によれば、ヘッドライト(光源)より前方の領域において、隣接車両を検出するための閾値αを、輝度に対して大きくすることができるため、隣隣接車両のヘッドライト(光源)の光が隣接車両に反射した反射光の像を、隣接車両として誤検出してしまうことを有効に防止することができる。
さらに、本実施形態では、カメラ10の中心位置から光源の重心位置までの車幅方向の距離Lに応じて、図9に示す閾値αのゲインを調整する。具体的には、図11に示すように、カメラ10の中心位置から光源の重心位置までの距離Lが大きいほど、光源の後方における閾値αが大きくなるように、基準位置POよりも後方における閾値αのゲインの下げ幅dhを小さくする。ここで、検出されたヘッドライト(光源)が車幅方向(X軸方向)においてカメラ10から離れているほど、検出されたヘッドライトが、隣接車両のヘッドライトである可能性よりも、隣隣接車両のヘッドライトである可能性のほうが高い。そのため、本実施形態では、カメラ10の中心位置から光源の重心位置までの距離Lが大きいほど、検出されたヘッドライトは、隣隣接車両のヘッドライトであるものと判断し、図11に示すように、基準位置POより後方における閾値αのゲインの下げ幅dhを小さくする。これにより、図8に示す場合と比べて、光源の位置に対応する基準位置POよりも後方における閾値αを高くすることができ、光源よりも後方の領域においても、隣隣接車両のヘッドライトの影響をより適切に排除することができる。また、図12に示すように、基準位置POより後方において、カメラ10の中心位置から光源の重心位置までの距離Lが大きいほど、基準位置POにおける閾値αのゲインに対して、閾値αのゲインが低く推移する範囲dwを狭くした場合でも、同様に、隣隣接車両のヘッドライトの影響をより適切に排除することができる。
《第2実施形態》
続いて、第2実施形態に係る立体物検出装置1aについて説明する。第2実施形態に係る立体物検出装置1aは、図19に示すように、第1実施形態の計算機30に代えて、計算機30aを備えており、以下に説明するように動作すること以外は、第1実施形態と同様である。ここで、図19は、第2実施形態に係る計算機30aの詳細を示すブロック図である。
続いて、第2実施形態に係る立体物検出装置1aについて説明する。第2実施形態に係る立体物検出装置1aは、図19に示すように、第1実施形態の計算機30に代えて、計算機30aを備えており、以下に説明するように動作すること以外は、第1実施形態と同様である。ここで、図19は、第2実施形態に係る計算機30aの詳細を示すブロック図である。
第2実施形態にかかる立体物検出装置1aは、図19に示すように、カメラ10と計算機30aとを備えており、計算機30aは、視点変換部31、輝度差算出部35、エッジ線検出部36、立体物検出部33a、および検出基準設定部34aから構成されている。以下に、第2実施形態に係る立体物検出装置1aの各構成について説明する。
図20は、図19のカメラ10の撮像範囲等を示す図であり、図20(a)は平面図、図20(b)は、自車両V1から後側方における実空間上の斜視図を示す。図20(a)に示すように、カメラ10は所定の画角aとされ、この所定の画角aに含まれる自車両V1から後側方を撮像する。カメラ10の画角aは、図2に示す場合と同様に、カメラ10の撮像範囲に自車両V1が走行する車線に加えて、隣接する車線も含まれるように設定されている。
本例の検出領域A1,A2は、平面視(鳥瞰視された状態)において台形状とされ、これら検出領域A1,A2の位置、大きさ及び形状は、距離d1〜d4に基づいて決定される。なお、同図に示す例の検出領域A1,A2は台形状に限らず、図2に示すように鳥瞰視された状態で矩形など他の形状であってもよい。
ここで、距離d1は、自車両V1から接地線L1,L2までの距離である。接地線L1,L2は、自車両V1が走行する車線に隣接する車線に存在する立体物が地面に接触する線を意味する。本実施形態においては、自車両V1の後側方において自車両V1の車線に隣接する左右の車線を走行する隣接車両V2等(2輪車等を含む)を検出することが目的である。このため、自車両V1から白線Wまでの距離d11及び白線Wから隣接車両V2が走行すると予測される位置までの距離d12から、隣接車両V2の接地線L1,L2となる位置である距離d1を略固定的に決定しておくことができる。
また、距離d1については、固定的に決定されている場合に限らず、可変としてもよい。この場合に、計算機30aは、白線認識等の技術により自車両V1に対する白線Wの位置を認識し、認識した白線Wの位置に基づいて距離d11を決定する。これにより、距離d1は、決定された距離d11を用いて可変的に設定される。以下の本実施形態においては、隣接車両V2が走行する位置(白線Wからの距離d12)及び自車両V1が走行する位置(白線Wからの距離d11)は大凡決まっていることから、距離d1は固定的に決定されているものとする。
距離d2は、自車両V1の後端部から車両進行方向に伸びる距離である。この距離d2は、検出領域A1,A2が少なくともカメラ10の画角a内に収まるように決定されている。特に本実施形態において、距離d2は、画角aに区分される範囲に接するよう設定されている。距離d3は、検出領域A1,A2の車両進行方向における長さを示す距離である。この距離d3は、検出対象となる立体物の大きさに基づいて決定される。本実施形態においては、検出対象が隣接車両V2等であるため、距離d3は、隣接車両V2を含む長さに設定される。
距離d4は、図20(b)に示すように、実空間において隣接車両V2等のタイヤを含むように設定された高さを示す距離である。距離d4は、鳥瞰視画像においては図20(a)に示す長さとされる。なお、距離d4は、鳥瞰視画像において左右の隣接車線よりも更に隣接する車線(すなわち2車線隣りの隣隣接車線)を含まない長さとすることもできる。自車両V1の車線から2車線隣の車線を含んでしまうと、自車両V1が走行している車線である自車線の左右の隣接車線に隣接車両V2が存在するのか、2車線隣りの隣隣接車線に隣隣接車両が存在するのかについて、区別が付かなくなってしまうためである。
以上のように、距離d1〜距離d4が決定され、これにより検出領域A1,A2の位置、大きさ及び形状が決定される。具体的に説明すると、距離d1により、台形をなす検出領域A1,A2の上辺b1の位置が決定される。距離d2により、上辺b1の始点位置C1が決定される。距離d3により、上辺b1の終点位置C2が決定される。カメラ10から始点位置C1に向かって伸びる直線L3により、台形をなす検出領域A1,A2の側辺b2が決定される。同様に、カメラ10から終点位置C2に向かって伸びる直線L4により、台形をなす検出領域A1,A2の側辺b3が決定される。距離d4により、台形をなす検出領域A1,A2の下辺b4の位置が決定される。このように、各辺b1〜b4により囲まれる領域が検出領域A1,A2とされる。この検出領域A1,A2は、図20(b)に示すように、自車両V1から後側方における実空間上では真四角(長方形)となる。
図19に戻り、視点変換部31は、カメラ10による撮像にて得られた所定領域の撮像画像データを入力する。視点変換部31は、入力した撮像画像データに対して、鳥瞰視される状態の鳥瞰画像データに視点変換処理を行う。鳥瞰視される状態とは、上空から例えば鉛直下向き(又は、やや斜め下向き)に見下ろす仮想カメラの視点から見た状態である。この視点変換処理は、例えば特開2008−219063号公報に記載された技術によって実現することができる。
輝度差算出部35は、鳥瞰視画像に含まれる立体物のエッジを検出するために、視点変換部31により視点変換された鳥瞰視画像データに対して、輝度差の算出を行う。輝度差算出部35は、実空間における鉛直方向に伸びる鉛直仮想線に沿った複数の位置ごとに、当該各位置の近傍の2つの画素間の輝度差を算出する。輝度差算出部35は、実空間における鉛直方向に伸びる鉛直仮想線を1本だけ設定する手法と、鉛直仮想線を2本設定する手法との何れかによって輝度差を算出することができる。
ここでは、鉛直仮想線を2本設定する具体的な手法について説明する。輝度差算出部35は、視点変換された鳥瞰視画像に対して、実空間で鉛直方向に伸びる線分に該当する第1鉛直仮想線と、第1鉛直仮想線と異なり実空間で鉛直方向に伸びる線分に該当する第2鉛直仮想線とを設定する。輝度差算出部35は、第1鉛直仮想線上の点と第2鉛直仮想線上の点との輝度差を、第1鉛直仮想線及び第2鉛直仮想線に沿って連続的に求める。以下、この輝度差算出部35の動作について詳細に説明する。
輝度差算出部35は、図21(a)に示すように、実空間で鉛直方向に伸びる線分に該当し、且つ、検出領域A1を通過する第1鉛直仮想線La(以下、注目線Laという)を設定する。また輝度差算出部35は、注目線Laと異なり、実空間で鉛直方向に伸びる線分に該当し、且つ、検出領域A1を通過する第2鉛直仮想線Lr(以下、参照線Lrという)を設定する。ここで参照線Lrは、実空間における所定距離だけ注目線Laから離間する位置に設定される。なお、実空間で鉛直方向に伸びる線分に該当する線とは、鳥瞰視画像においてはカメラ10の位置Psから放射状に広がる線となる。この放射状に広がる線は、鳥瞰視に変換した際に立体物が倒れ込む方向に沿う線である。
輝度差算出部35は、注目線La上に注目点Pa(第1鉛直仮想線上の点)を設定する。また輝度差算出部35は、参照線Lr上に参照点Pr(第2鉛直板想線上の点)を設定する。これら注目線La、注目点Pa、参照線Lr、参照点Prは、実空間上において図21(b)に示す関係となる。図21(b)から明らかなように、注目線La及び参照線Lrは、実空間上において鉛直方向に伸びた線であり、注目点Paと参照点Prとは、実空間上において略同じ高さに設定される点である。なお、注目点Paと参照点Prとは必ずしも厳密に同じ高さである必要はなく、注目点Paと参照点Prとが同じ高さとみなせる程度の誤差は許容される。
輝度差算出部35は、注目点Paと参照点Prとの輝度差を求める。仮に、注目点Paと参照点Prとの輝度差が大きいと、注目点Paと参照点Prとの間にエッジが存在すると考えられる。特に、第2実施形態では、検出領域A1,A2に存在する立体物を検出するために、鳥瞰視画像に対して実空間において鉛直方向に伸びる線分として鉛直仮想線を設定しているため、注目線Laと参照線Lrとの輝度差が高い場合には、注目線Laの設定箇所に立体物のエッジがある可能性が高い。このため、図19に示すエッジ線検出部36は、注目点Paと参照点Prとの輝度差に基づいてエッジ線を検出する。
この点をより詳細に説明する。図22は、輝度差算出部35の詳細動作を示す図であり、図22(a)は鳥瞰視された状態の鳥瞰視画像を示し、図22(b)は、図22(a)に示した鳥瞰視画像の一部B1を拡大した図である。なお図22についても検出領域A1のみを図示して説明するが、検出領域A2についても同様の手順で輝度差を算出する。
カメラ10が撮像した撮像画像内に隣接車両V2が映っていた場合に、図22(a)に示すように、鳥瞰視画像内の検出領域A1に隣接車両V2が現れる。図22(b)に図22(a)中の領域B1の拡大図を示すように、鳥瞰視画像上において、隣接車両V2のタイヤのゴム部分上に注目線Laが設定されていたとする。この状態において、輝度差算出部35は、先ず参照線Lrを設定する。参照線Lrは、注目線Laから実空間上において所定の距離だけ離れた位置に、鉛直方向に沿って設定される。具体的には、本実施形態に係る立体物検出装置1aにおいて、参照線Lrは、注目線Laから実空間上において10cmだけ離れた位置に設定される。これにより、参照線Lrは、鳥瞰視画像上において、例えば隣接車両V2のタイヤのゴムから10cm相当だけ離れた隣接車両V2のタイヤのホイール上に設定される。
次に、輝度差算出部35は、注目線La上に複数の注目点Pa1〜PaNを設定する。図22(b)においては、説明の便宜上、6つの注目点Pa1〜Pa6(以下、任意の点を示す場合には単に注目点Paiという)を設定している。なお、注目線La上に設定する注目点Paの数は任意でよい。以下の説明では、N個の注目点Paが注目線La上に設定されたものとして説明する。
次に、輝度差算出部35は、実空間上において各注目点Pa1〜PaNと同じ高さとなるように各参照点Pr1〜PrNを設定する。そして、輝度差算出部35は、同じ高さ同士の注目点Paと参照点Prとの輝度差を算出する。これにより、輝度差算出部35は、実空間における鉛直方向に伸びる鉛直仮想線に沿った複数の位置(1〜N)ごとに、2つの画素の輝度差を算出する。輝度差算出部35は、例えば第1注目点Pa1とは、第1参照点Pr1との間で輝度差を算出し、第2注目点Pa2とは、第2参照点Pr2との間で輝度差を算出することとなる。これにより、輝度差算出部35は、注目線La及び参照線Lrに沿って、連続的に輝度差を求める。すなわち、輝度差算出部35は、第3〜第N注目点Pa3〜PaNと第3〜第N参照点Pr3〜PrNとの輝度差を順次求めていくこととなる。
輝度差算出部35は、検出領域A1内において注目線Laをずらしながら、上記の参照線Lrの設定、注目点Pa及び参照点Prの設定、輝度差の算出といった処理を繰り返し実行する。すなわち、輝度差算出部35は、注目線La及び参照線Lrのそれぞれを、実空間上において接地線L1の延在方向に同一距離だけ位置を変えながら上記の処理を繰り返し実行する。輝度差算出部35は、例えば、前回処理において参照線Lrとなっていた線を注目線Laに設定し、この注目線Laに対して参照線Lrを設定して、順次輝度差を求めていくことになる。
このように、第2実施形態では、実空間上で略同じ高さとなる注目線La上の注目点Paと参照線Lr上の参照点Prとから輝度差を求めることで、鉛直方向に伸びるエッジが存在する場合における輝度差を明確に検出することができる。また、実空間において鉛直方向に伸びる鉛直仮想線同士の輝度比較を行うために、鳥瞰視画像に変換することによって立体物が路面からの高さに応じて引き伸ばされてしまっても、立体物の検出処理が影響されることはなく、立体物の検出精度を向上させることができる。
図19に戻り、エッジ線検出部36は、輝度差算出部35により算出された連続的な輝度差から、エッジ線を検出する。例えば、図22(b)に示す場合、第1注目点Pa1と第1参照点Pr1とは、同じタイヤ部分に位置するために、輝度差は、小さい。一方、第2〜第6注目点Pa2〜Pa6はタイヤのゴム部分に位置し、第2〜第6参照点Pr2〜Pr6はタイヤのホイール部分に位置する。したがって、第2〜第6注目点Pa2〜Pa6と第2〜第6参照点Pr2〜Pr6との輝度差は大きくなる。このため、エッジ線検出部36は、輝度差が大きい第2〜第6注目点Pa2〜Pa6と第2〜第6参照点Pr2〜Pr6との間にエッジ線が存在することを検出することができる。
具体的には、エッジ線検出部36は、エッジ線を検出するにあたり、先ず下記の数式1に従って、i番目の注目点Pai(座標(xi,yi))とi番目の参照点Pri(座標(xi’,yi’))との輝度差から、i番目の注目点Paiに属性付けを行う。
[数1]
I(xi,yi)>I(xi’,yi’)+tのとき
s(xi,yi)=1
I(xi,yi)<I(xi’,yi’)−tのとき
s(xi,yi)=−1
上記以外のとき
s(xi,yi)=0
[数1]
I(xi,yi)>I(xi’,yi’)+tのとき
s(xi,yi)=1
I(xi,yi)<I(xi’,yi’)−tのとき
s(xi,yi)=−1
上記以外のとき
s(xi,yi)=0
上記数式1において、tは所定の閾値を示し、I(xi,yi)はi番目の注目点Paiの輝度値を示し、I(xi’,yi’)はi番目の参照点Priの輝度値を示す。上記数式1によれば、注目点Paiの輝度値が、参照点Priに閾値tを加えた輝度値よりも高い場合には、当該注目点Paiの属性s(xi,yi)は‘1’となる。一方、注目点Paiの輝度値が、参照点Priから輝度閾値tを減じた輝度値よりも低い場合には、当該注目点Paiの属性s(xi,yi)は‘−1’となる。注目点Paiの輝度値と参照点Priの輝度値とがそれ以外の関係である場合には、注目点Paiの属性s(xi,yi)は‘0’となる。
次にエッジ線検出部36は、下記数式2に基づいて、注目線Laに沿った属性sの連続性c(xi,yi)から、注目線Laがエッジ線であるか否かを判定する。
[数2]
s(xi,yi)=s(xi+1,yi+1)のとき(且つ0=0を除く)、
c(xi,yi)=1
上記以外のとき、
c(xi,yi)=0
[数2]
s(xi,yi)=s(xi+1,yi+1)のとき(且つ0=0を除く)、
c(xi,yi)=1
上記以外のとき、
c(xi,yi)=0
注目点Paiの属性s(xi,yi)と隣接する注目点Pai+1の属性s(xi+1,yi+1)とが同じである場合には、連続性c(xi,yi)は‘1’となる。注目点Paiの属性s(xi,yi)と隣接する注目点Pai+1の属性s(xi+1,yi+1)とが同じではない場合には、連続性c(xi,yi)は‘0’となる。
次にエッジ線検出部36は、注目線La上の全ての注目点Paの連続性cについて総和を求める。エッジ線検出部36は、求めた連続性cの総和を注目点Paの数Nで割ることにより、連続性cを正規化する。そして、エッジ線検出部36は、正規化した値が閾値θを超えた場合に、注目線Laをエッジ線と判断する。なお、閾値θは、予め実験等によって設定された値である。
すなわち、エッジ線検出部36は、下記数式3に基づいて注目線Laがエッジ線であるか否かを判断する。そして、エッジ線検出部36は、検出領域A1上に描かれた注目線Laの全てについてエッジ線であるか否かを判断する。
[数3]
Σc(xi,yi)/N>θ
[数3]
Σc(xi,yi)/N>θ
このように、第2実施形態では、注目線La上の注目点Paと参照線Lr上の参照点Prとの輝度差に基づいて注目点Paに属性付けを行い、注目線Laに沿った属性の連続性cに基づいて当該注目線Laがエッジ線であるかを判断するので、輝度の高い領域と輝度の低い領域との境界をエッジ線として検出し、人間の自然な感覚に沿ったエッジ検出を行うことができる。この効果について詳細に説明する。図23は、エッジ線検出部36の処理を説明する画像例を示す図である。この画像例は、輝度の高い領域と輝度の低い領域とが繰り返される縞模様を示す第1縞模様101と、輝度の低い領域と輝度の高い領域とが繰り返される縞模様を示す第2縞模様102とが隣接した画像である。また、この画像例は、第1縞模様101の輝度が高い領域と第2縞模様102の輝度の低い領域とが隣接すると共に、第1縞模様101の輝度が低い領域と第2縞模様102の輝度が高い領域とが隣接している。この第1縞模様101と第2縞模様102との境界に位置する部位103は、人間の感覚によってはエッジとは知覚されない傾向にある。
これに対し、輝度の低い領域と輝度が高い領域とが隣接しているために、輝度差のみでエッジを検出すると、当該部位103はエッジとして認識されてしまう。しかし、エッジ線検出部36は、部位103における輝度差に加えて、当該輝度差の属性に連続性がある場合にのみ部位103をエッジ線として判定するので、エッジ線検出部36は、人間の感覚としてエッジ線として認識しない部位103をエッジ線として認識してしまう誤判定を抑制でき、人間の感覚に沿ったエッジ検出を行うことができる。
図19に戻り、立体物検出部33aは、エッジ線検出部36により検出されたエッジ線の量に基づいて立体物を検出する。上述したように、本実施形態に係る立体物検出装置1aは、実空間上において鉛直方向に伸びるエッジ線を検出する。鉛直方向に伸びるエッジ線が多く検出されるということは、検出領域A1,A2に立体物が存在する可能性が高いということである。このため、立体物検出部33aは、エッジ線検出部36により検出されたエッジ線の量に基づいて立体物を検出する。具体的には、立体物検出部33aは、エッジ線検出部36により検出されたエッジ線の量が、所定の閾値β以上であるか否かを判断し、エッジ線の量が所定の閾値β以上である場合には、エッジ線検出部36により検出されたエッジ線は、立体物のエッジ線であるものと判断し、これにより、エッジ線に基づく立体物を隣接車両V2として検出する。
このように、エッジ線は、所定輝度差を示す画素の分布情報の一態様であり、本実施形態における「画素の分布情報」は、撮像画像を鳥瞰視画像に視点変換した際における立体物が倒れ込む方向に沿って検出される「輝度差が所定閾値以上の画素」の分布の状態を示す情報と位置付けることができる。つまり、立体物検出部33aは、視点変換部31により得られた鳥瞰視画像において、鳥瞰視画像に視点変換した際に立体物が倒れ込む方向に沿って輝度差が閾値t以上の画素の分布情報を検出し、立体物が倒れこむ方向における画素の分布の度合い(エッジ線の量)が所定閾値β以上である場合に、画素の分布情報(エッジ線)に基づいて、立体物を検出する。
なお、第2実施形態において、隣接車両を検出するための閾値βは、検出基準設定部34により設定される。すなわち、第2実施形態において、検出基準設定部34aは、第1実施形態と同様に、図24に示すように、輝度に応じて閾値βを設定し、さらに、図25に示すように、自車両後方において検出した光源の位置に応じて、閾値βのゲインを変更する。さらに、検出基準設定部34は、第1実施形態と同様に、光源の位置と、図25に示す基準位置POとを一致させて、図25に示す閾値βのゲインを調整するとともに、第1実施形態と同様に、カメラ10の中心位置から光源の重心位置までの車幅方向における距離Lに応じて、図25に示す閾値βのゲインの下げ幅dhや、閾値βのゲインが低く推移する範囲dwを調整する。そして、検出基準設定部34aは、自車両進行方向における検出領域A1,A2内の各位置における閾値βを、図24に示すように、輝度に応じて設定するとともに、設定した閾値βを、光源の位置に応じて調整した閾値βのゲインに応じて変更する。
また、立体物検出部33aは、立体物を検出するに先立って、エッジ線検出部36により検出されたエッジ線が正しいものであるか否かを判定する。立体物検出部33aは、エッジ線上の鳥瞰視画像のエッジ線に沿った輝度変化が所定の閾値tb以上であるか否かを判定する。エッジ線上の鳥瞰視画像の輝度変化が閾値tb以上である場合には、当該エッジ線が誤判定により検出されたものと判断する。一方、エッジ線上の鳥瞰視画像の輝度変化が閾値tb未満である場合には、当該エッジ線が正しいものと判定する。なお、この閾値tbは、実験等により予め設定された値である。
図26は、エッジ線の輝度分布を示す図であり、図26(a)は検出領域A1に立体物としての隣接車両V2が存在した場合のエッジ線及び輝度分布を示し、図26(b)は検出領域A1に立体物が存在しない場合のエッジ線及び輝度分布を示す。
図26(a)に示すように、鳥瞰視画像において隣接車両V2のタイヤゴム部分に設定された注目線Laがエッジ線であると判断されていたとする。この場合、注目線La上の鳥瞰視画像の輝度変化はなだらかなものとなる。これは、カメラ10により撮像された画像が鳥瞰視画像に視点変換されたことにより、隣接車両V2のタイヤが鳥瞰視画像内で引き延ばされたことによる。一方、図26(b)に示すように、鳥瞰視画像において路面に描かれた「50」という白色文字部分に設定された注目線Laがエッジ線であると誤判定されていたとする。この場合、注目線La上の鳥瞰視画像の輝度変化は起伏の大きいものとなる。これは、エッジ線上に、白色文字における輝度が高い部分と、路面等の輝度が低い部分とが混在しているからである。
以上のような注目線La上の輝度分布の相違に基づいて、立体物検出部33aは、エッジ線が誤判定により検出されたものか否かを判定する。立体物検出部33aは、エッジ線に沿った輝度変化が所定の閾値tb以上である場合には、当該エッジ線が誤判定により検出されたものであり、当該エッジ線は、立体物に起因するものではないと判断する。これにより、路面上の「50」といった白色文字や路肩の雑草等がエッジ線として判定されてしまい、立体物の検出精度が低下することを抑制する。一方、立体物検出部33aは、エッジ線に沿った輝度変化が所定の閾値tb未満である場合には、当該エッジ線は、立体物のエッジ線であると判断し、立体物が存在するものと判断する。
具体的には、立体物検出部33aは、下記数式4,5の何れかにより、エッジ線の輝度変化を算出する。このエッジ線の輝度変化は、実空間上における鉛直方向の評価値に相当する。下記数式4は、注目線La上のi番目の輝度値I(xi,yi)と、隣接するi+1番目の輝度値I(xi+1,yi+1)との差分の二乗の合計値によって輝度分布を評価する。また、下記数式5は、注目線La上のi番目の輝度値I(xi,yi)と、隣接するi+1番目の輝度値I(xi+1,yi+1)との差分の絶対値の合計値よって輝度分布を評価する。
[数4]
鉛直相当方向の評価値=Σ[{I(xi,yi)−I(xi+1,yi+1)}2]
[数5]
鉛直相当方向の評価値=Σ|I(xi,yi)−I(xi+1,yi+1)|
[数4]
鉛直相当方向の評価値=Σ[{I(xi,yi)−I(xi+1,yi+1)}2]
[数5]
鉛直相当方向の評価値=Σ|I(xi,yi)−I(xi+1,yi+1)|
なお、数式5に限らず、下記数式6のように、閾値t2を用いて隣接する輝度値の属性bを二値化して、当該二値化した属性bを全ての注目点Paについて総和してもよい。
[数6]
鉛直相当方向の評価値=Σb(xi,yi)
但し、|I(xi,yi)−I(xi+1,yi+1)|>t2のとき、
b(xi,yi)=1
上記以外のとき、
b(xi,yi)=0
[数6]
鉛直相当方向の評価値=Σb(xi,yi)
但し、|I(xi,yi)−I(xi+1,yi+1)|>t2のとき、
b(xi,yi)=1
上記以外のとき、
b(xi,yi)=0
注目点Paiの輝度値と参照点Priの輝度値との輝度差の絶対値が閾値t2よりも大きい場合、当該注目点Pa(xi,yi)の属性b(xi,yi)は‘1’となる。それ以外の関係である場合には、注目点Paiの属性b(xi,yi)は‘0’となる。この閾値t2は、注目線Laが同じ立体物上にないことを判定するために実験等によって予め設定されている。そして、立体物検出部33aは、注目線La上の全注目点Paについての属性bを総和して、鉛直相当方向の評価値を求めることで、エッジ線が立体物に起因するものであり、立体物が存在するか否かを判定する。
次に、第2実施形態に係る隣接車両検出方法について説明する。図27は、本実施形態に係る隣接車両検出方法の詳細を示すフローチャートである。なお、図27においては、便宜上、検出領域A1を対象とする処理について説明するが、検出領域A2についても同様の処理が実行される。
まず、ステップS301では、カメラ10により、画角a及び取付位置によって特定された所定領域の撮像が行われ、計算機30aにより、カメラ10により撮像された撮像画像Pの画像データが取得される。次に視点変換部31は、ステップS302において、取得した画像データについて視点変換を行い、鳥瞰視画像データを生成する。
次に、輝度差算出部35は、ステップS303において、検出領域A1上に注目線Laを設定する。このとき、輝度差算出部35は、実空間上において鉛直方向に伸びる線に相当する線を注目線Laとして設定する。次に輝度差算出部35は、ステップS304において、検出領域A1上に参照線Lrを設定する。このとき、輝度差算出部35は、実空間上において鉛直方向に伸びる線分に該当し、且つ、注目線Laと実空間上において所定距離離れた線を参照線Lrとして設定する。
次に輝度差算出部35は、ステップS305において、注目線La上に複数の注目点Paを設定する。この際に、輝度差算出部35は、エッジ線検出部36によるエッジ検出時に問題とならない程度の数の注目点Paを設定する。また、輝度差算出部35は、ステップS306において、実空間上において注目点Paと参照点Prとが略同じ高さとなるように、参照点Prを設定する。これにより、注目点Paと参照点Prとが略水平方向に並ぶこととなり、実空間上において鉛直方向に伸びるエッジ線を検出しやすくなる。
次に輝度差算出部35は、ステップS307において、実空間上において同じ高さとなる注目点Paと参照点Prとの輝度差を算出する。次にエッジ線検出部36は、上記の数式1に従って、各注目点Paの属性sを算出する。次にエッジ線検出部36は、ステップS308において、上記の数式2に従って、各注目点Paの属性sの連続性cを算出する。次にエッジ線検出部36は、ステップS309において、上記数式3に従って、連続性cの総和を正規化した値が閾値θより大きいか否かを判定する。そして、正規化した値が閾値θよりも大きいと判断した場合(ステップS309=Yes)、エッジ線検出部36は、ステップS310において、当該注目線Laをエッジ線として検出する。そして、処理はステップS311に移行する。正規化した値が閾値θより大きくないと判断した場合(ステップS309=No)、エッジ線検出部36は、当該注目線Laをエッジ線として検出せず、処理はステップS311に移行する。
ステップS311において、計算機30aは、検出領域A1上に設定可能な注目線Laの全てについて上記のステップS303〜ステップS310の処理を実行したか否かを判断する。全ての注目線Laについて上記処理をしていないと判断した場合(ステップS311=No)、ステップS303に処理を戻して、新たに注目線Laを設定して、ステップS311までの処理を繰り返す。一方、全ての注目線Laについて上記処理をしたと判断した場合(ステップS311=Yes)、処理はステップS312に移行する。
ステップS312において、立体物検出部33aは、ステップS310において検出された各エッジ線について、当該エッジ線に沿った輝度変化を算出する。立体物検出部33aは、上記数式4,5,6の何れかの式に従って、エッジ線の輝度変化を算出する。次に立体物検出部33aは、ステップS313において、エッジ線のうち、輝度変化が所定の閾値tb以上であるエッジ線を除外する。すなわち、輝度変化の大きいエッジ線は正しいエッジ線ではないと判定し、エッジ線を立体物の検出には使用しない。これは、上述したように、検出領域A1に含まれる路面上の文字や路肩の雑草等がエッジ線として検出されてしまうことを抑制するためである。したがって、所定の閾値tbとは、予め実験等によって求められた、路面上の文字や路肩の雑草等によって発生する輝度変化に基づいて設定された値となる。一方、立体物検出部33aは、エッジ線のうち、輝度変化が所定の閾値tb未満であるエッジ線を、立体物のエッジ線と判断し、これにより、隣接車両に存在する立体物を検出する。
次いで、ステップS314では、検出基準設定部34aにより、ステップS310で検出した立体物が隣接車両であるか否かを判定するための閾値βの設定が行われる。具体的には、ステップS314において、検出基準設定部34aは、第1実施形態のステップS105と同様に、図24に示すように、エッジ線の数から検出領域A1,A2内において出現する四輪車であると判定できる閾値βを、輝度に応じて設定するとともに、設定した閾値βを、図25に示すように、光源の位置に応じて設定された閾値βのゲインに応じて変更する。なお、この際に、検出基準設定部34aは、第1実施形態と同様に、検出した光源の位置と、図25に示す制御マップの基準位置POとを対応させて、図25に示す制御マップを調整するとともに、カメラ10の中心位置から光源の重心位置までの車幅方向における距離Lに応じて、図25に示す制御マップを調整する。
そして、ステップS315では、立体物検出部33aにより、エッジ線の量が、ステップS314で設定した閾値β以上であるか否かの判断が行われる。エッジ線の量が閾値β以上であると判定された場合(ステップS315=Yes)は、立体物検出部33aは、ステップS316において、検出領域A1内に隣接車両が存在すると判定する。一方、エッジ線の量が閾値β以上ではないと判定された場合(ステップS315=No)、立体物検出部33aは、ステップS317において、検出領域A1内に隣接車両が存在しないと判定する。その後、図27に示す処理を終了する。
以上のように、第2実施形態では、撮像画像を鳥瞰視画像に変換し、変換した鳥瞰視画像から立体物のエッジ情報を検出する。そして、鳥瞰視画像で検出したエッジ線の量が、カメラ10と光源との位置関係に応じて設定された閾値β以上であるか否かを判断し、エッジ線の量が閾値β以上である場合に、隣接車線に立体物が存在すると判定することで、隣接車線に存在する立体物を適切に検出することができる。これにより、第2実施形態では、第1実施形態の効果に加えて、エッジ情報に基づいて隣接車両を検出する際において、レンズの汚れや、隣隣接車両のヘッドライトの光が道路に反射した反射光などによる隣接車両の誤検出を有効に防止することができるとともに、ヘッドライト(光源)の後方に存在する隣接車両の特徴的な部分である隣接車両のタイヤホイールを適切に検出することができ、隣接車両を適切に検出することができる。さらに、本実施形態によれば、エッジ情報に基づいて隣接車両を検出する際において、カメラ10の中心位置から光源の重心位置までの車幅方向における距離Lが大きく、検出した光源が隣隣接車両のヘッドライトである可能性が高い場合に、カメラ10の中心位置から光源の重心位置までの車幅方向における距離Lが小さい場合と比較して、光源よりも後方の領域において閾値βを高く設定することで、隣隣接車両のヘッドライト(光源)の影響をより適切に排除することができ、隣接車両の誤検出をより有効に防止することができる。
なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。
たとえば、上述した第1実施形態においては、鳥瞰視画像PBt,PBt−1の画素値の差を絶対値化し、当該絶対値が所定の閾値th以上であるときに、差分画像PDtの画素値を「1」とし、絶対値が所定の閾値th未満であるときに、差分画像PDtの画素値を「0」とする構成を例示したが、この閾値thを、カメラ10と光源との位置関係に応じて変更する構成としてもよい。
具体的には、検出基準設定部34は、たとえば図9(A)右図に示すように、検出領域A1,A2のうち、光源より後方の領域Rrにおいては、光源の前方の領域Rfよりも、閾値thのゲインを小さくする構成としてもよい。これにより、光源より後方の領域Rrにおいて、輝度に対して閾値thが低い値に設定されるため、光源より後方に存在する隣接車両のタイヤホイールを、差分波形DWtとして検出し易くなり、その結果、隣接車両をより適切に検出することができる。なお、この構成に加えて、さらに、検出領域A1,A2内の検出位置における輝度に応じて、閾値thを変更する構成とすることもできる。
また、この場合、カメラ10から光源までの車幅方向における距離Lに応じて、閾値thのゲインを変更する構成としてもよい。すなわち、カメラ10から光源までの車幅方向における距離Lが長く、検出した光源が隣隣接車両のヘッドライトである可能性が高い場合には、カメラ10から光源までの車幅方向における距離Lが小さい場合と比較して、光源よりも後方において、閾値thのゲインを大きくする構成としてもよい。これにより、検出した光源が隣隣接車両のヘッドライトである可能性が高い場合に、光源よりも後方においても、隣隣接車両のヘッドライトの光を差分波形DWtとして検出し難くなり、隣接車両の誤検出をより有効に防止することができる。
また、上述した第1実施形態では、位置合わせ部32により、差分画像PDtの画素値を「0」または「1」で検出し、この差分画像PDtに基づいて、立体物検出部33により、差分画像PDtの画素値が「1」の画素を、差分画素DPとしてカウントすることで、立体物を検出する構成を例示したが、この構成に限定されるものではなく、たとえば、位置合わせ部32により、差分画像PDtの画素値を、鳥瞰視画像PBt,PBt−1の画素値の差を絶対値化した値で検出し、立体物検出部33により、所定の差分閾値を超える画素を、差分画素DPとしてカウントする構成としてもよい。
さらに、上述した第1実施形態では、撮像した現時刻の画像と一時刻前の画像とを鳥瞰図に変換し、変換した鳥瞰図の位置合わせを行ったうえで差分画像PDtを生成し、生成した差分画像PDtを倒れ込み方向(撮像した画像を鳥瞰図に変換した際の立体物の倒れ込み方向)に沿って評価して差分波形DWtを生成する構成を例示したが、これに限定される物ではなく、以下のような構成とすることもできる。たとえば、一時刻前の画像のみを鳥瞰図に変換し、変換した鳥瞰図を位置合わせした後に再び撮像した画像相当に変換し、この画像と現時刻の画像とで差分画像PDtを生成し、生成した差分画像PDtを倒れ込み方向に相当する方向(すなわち、倒れ込み方向を撮像画像上の方向に変換した方向)に沿って評価することによって差分波形DWtを生成する構成としてもよい。すなわち、現時刻の画像と一時刻前の画像との位置合わせを行い、位置合わせを行った両画像の差分から差分画像PDtを生成し、差分画像PDtを鳥瞰図に変換した際の立体物の倒れ込み方向に沿って評価できれば、必ずしも明確に鳥瞰図を生成しなくともよい。
さらに、上述した第1実施形態では、自車両V1の車速を速度センサ20からの信号に基づいて判断しているが、これに限らず、異なる時刻の複数の画像から速度を推定する構成としてもよい。この場合、車速センサ20が不要となり、構成の簡素化を図ることができる。
また、上述した第2実施形態においては、注目点Paiと参照点Priの輝度差が閾値t以上である場合に、注目点Paiの属性sを「1」または「−1」に設定し、注目点Paiの属性s(xi,yi)と隣接する注目点Pai+1の属性s(xi+1,yi+1)とが所定の閾値θ以上連続して「1」または「−1」である注目線Laを、エッジ線として検出する構成を例示したが、この構成に加えて、この閾値t、閾値θを、検出された光源の位置に応じて変更する構成としてもよい。
具体的には、検出基準設定部34aにより、たとえば図9(A)に示すように、検出領域A1,A2のうち、光源より後方の領域Rrにおいては、光源より前方の領域Rfよりも、閾値t、閾値θのゲインを小さくする構成としてもよい。これにより、光源より後方の領域Rrにおいて、輝度に対して閾値t、閾値θが低い値に設定されるため、光源より後方に存在する隣接車両のタイヤホイールを、エッジ線として検出し易くなり、その結果、隣接車両を適切に検出することができる。なお、この構成に加えて、さらに、検出領域A1,A2内の検出位置における輝度に応じて、閾値t、閾値θのゲインを変更する構成とすることもできる。
また、この場合、カメラ10から光源までの車幅方向における距離Lに応じて、閾値t、閾値θのゲインを変更する構成としてもよい。すなわち、カメラ10から光源までの車幅方向における距離Lが大きく、検出した光源が隣隣接車両のヘッドライトである可能性が高い場合には、カメラ10から光源までの車幅方向における距離Lが小さい場合と比較して、光源よりも後方において、閾値t、閾値θのゲインを大きくする構成としてもよい。これにより、検出した光源が隣隣接車両のヘッドライトである可能性が高い場合に、光源よりも後方においても、隣隣接車両のヘッドライトの光をエッジ線として検出し難くなり、隣接車両の誤検出をより有効に防止することができる。
加えて、上述した第2実施形態では、上記数式4,5,6の何れかの式に従って、エッジ線の輝度変化を算出し、エッジ線のうち、輝度変化が所定の閾値tb以上のエッジ線を除外する構成を例示しているが、この構成に加えて、この閾値tbを、検出された光源の位置に応じて変更する構成としてもよい。
具体的には、検出基準設定部34aにより、図10(A)に示すように、検出領域A1,A2のうち、光源より後方の領域Rrにおいては、光源より前方の領域Rfよりも、閾値tbのゲインを小さくする構成としてもよい。これにより、光源より後方の領域Rrにおいて、輝度に対して閾値tbが低い値に設定されるため、光源より後方に存在する隣接車両のタイヤホイールのエッジ線をより高い精度で検出することができる。さらに、この構成に加えて、さらに、検出領域A1,A2内の検出位置における輝度に応じて、閾値tbを変更する構成とすることもできる。
また、この場合、カメラ10から光源までの車幅方向における距離Lに応じて、閾値tbのゲインを変更する構成としてもよい。すなわち、カメラ10から光源までの車幅方向における距離Lが大きく、検出した光源が隣隣接車両のヘッドライトである可能性が高い場合には、カメラ10から光源までの車幅方向における距離Lが小さい場合と比較して、光源よりも後方において、閾値tbのゲインを大きくする構成としてもよい。これにより、検出した光源が隣隣接車両のヘッドライトである可能性が高い場合に、光源よりも後方においても、隣隣接車両のヘッドライトの光をエッジ線として検出し難くなり、隣接車両の誤検出をより有効に防止することができる。
さらに、上述した実施形態では、ヘッドライト(光源)よりも後方の領域Rrにおいて、立体物が検出され易いように、閾値αなどの検出基準を低い値に設定する構成を例示したが、この構成に限定されず、たとえば、検出基準が高いほど立体物を検出し易い場合には、ヘッドライト(光源)よりも後方の領域Rrにおいて、立体物が検出し易いように、検出基準を高い値に設定する構成としてもよい。
なお、上述した実施形態のカメラ10は本発明の撮像手段に相当し、視点変換部31は本発明の画像変換手段に相当し、位置合わせ部32、立体物検出部33,33a、検出基準設定部34,34a、輝度差算出部35、およびエッジ線検出部36は本発明の立体物検出手段に、検出基準設定部34,34aは本発明の距離算出手段に相当する。
1,1a…立体物検出装置
10…カメラ
20…車速センサ
30,30a…計算機
31…視点変換部
32…位置合わせ部
33,33a…立体物検出部
34,34a…検出基準設定部
35…輝度差算出部
36…エッジ線検出部
a…画角
A1,A2…検出領域
CP…交点
DP…差分画素
DWt,DWt’…差分波形
DWt1〜DWm,DWm+k〜DWtn…小領域
L1,L2…接地線
La,Lb…立体物が倒れ込む方向上の線
P…撮像画像
PBt…鳥瞰視画像
PDt…差分画像
V1…自車両
V2…隣接車両
V3…隣隣接車両
10…カメラ
20…車速センサ
30,30a…計算機
31…視点変換部
32…位置合わせ部
33,33a…立体物検出部
34,34a…検出基準設定部
35…輝度差算出部
36…エッジ線検出部
a…画角
A1,A2…検出領域
CP…交点
DP…差分画素
DWt,DWt’…差分波形
DWt1〜DWm,DWm+k〜DWtn…小領域
L1,L2…接地線
La,Lb…立体物が倒れ込む方向上の線
P…撮像画像
PBt…鳥瞰視画像
PDt…差分画像
V1…自車両
V2…隣接車両
V3…隣隣接車両
Claims (7)
- 自車両後方の隣接車線を基準とする所定領域を撮像する撮像手段と、
前記撮像手段により得られた撮像画像を鳥瞰視画像に視点変換する画像変換手段と、
前記画像変換手段により得られた異なる時刻の鳥瞰視画像の位置を鳥瞰視上で位置合わせし、当該位置合わせされた鳥瞰視画像の差分画像上で、所定の第1閾値以上の差分を示す画素数をカウントして度数分布化することで差分波形情報を生成し、当該差分波形情報が所定の第2閾値以上である場合に、前記差分波形情報に基づいて隣接車線に存在する立体物を検出する立体物検出手段と、
前記撮像手段により得られた前記撮像画像に基づいて、自車両後方に存在する光源を検出する光源検出手段と、を備え、
前記立体物検出手段は、前記所定領域のうち、前記光源検出手段により検出された前記光源と前記撮像手段とを結ぶ線よりも後方の後方領域の方が、前記線よりも前方の前方領域と比較して前記立体物が検出され易いように、前記第1閾値または前記第2閾値を低く設定することを特徴とする立体物検出装置。 - 請求項1に記載の立体物検出装置であって、
前記撮像手段から前記光源までの車幅方向における距離を算出する距離算出手段をさらに備え、
前記立体物検出手段は、前記撮像手段から前記光源までの車幅方向における距離が長いほど前記立体物が検出され難いように、前記後方領域の前記第1閾値または前記第2閾値を高く設定することを特徴とする立体物検出装置。 - 請求項1または2に記載の立体物検出装置であって、
前記立体物検出手段は、前記所定領域のうち前記後方領域においては、前記前方領域と比較して前記立体物が検出され易いように、前記第1閾値および前記第2閾値を低く設定することを特徴とする立体物検出装置。 - 自車両後方の隣接車線を基準とする所定領域を撮像する撮像手段と、
前記撮像手段により得られた撮像画像を鳥瞰視画像に視点変換する画像変換手段と、
前記画像変換手段により得られた鳥瞰視画像から所定の第1閾値以上のエッジ情報を検出し、当該エッジ情報が所定の第2閾値以上である場合に、前記エッジ情報に基づいて隣接車線に存在する立体物を検出する立体物検出手段と、
前記撮像手段により得られた前記撮像画像に基づいて、自車両後方に存在する光源を検出する光源検出手段と、を備え、
前記立体物検出手段は、前記所定領域のうち、前記光源検出手段により検出された前記光源と前記撮像手段とを結ぶ線よりも後方の後方領域の方が、前記線よりも前方の前方領域と比較して前記立体物が検出され易いように、前記第1閾値または前記第2閾値を低く設定することを特徴とする立体物検出装置。 - 請求項4に記載の立体物検出装置であって、
前記撮像手段から前記光源までの車幅方向における距離を算出する距離算出手段をさらに備え、
前記立体物検出手段は、前記撮像手段から前記光源までの車幅方向における距離が長いほど前記立体物が検出され難いように、前記後方領域の前記第1閾値または前記第2閾値を高く設定することを特徴とする立体物検出装置。 - 請求項4または5に記載の立体物検出装置であって、
前記立体物検出手段は、前記所定領域のうち前記後方領域においては、前記前方領域と比較して前記立体物が検出され易いように、前記第1閾値および前記第2閾値を低くすることを特徴とする立体物検出装置。 - 自車両後方の隣接車線を基準とする所定領域を撮像する撮像手段と、
前記撮像手段により得られた撮像画像を鳥瞰視画像に視点変換する画像変換手段と、
前記画像変換手段により得られた前記鳥瞰視画像上で、前記鳥瞰視画像に視点変換した際に立体物が倒れこむ方向において、輝度差が所定の第1閾値以上の画素の分布情報を検出し、前記立体物が倒れこむ方向における前記画素の分布の度合いが所定の第2閾値以上である場合に、前記画素の分布情報に基づいて、前記立体物の検出を行う立体物検出手段と、
前記撮像手段により得られた前記撮像画像に基づいて、自車両後方に存在する光源を検出する光源検出手段と、を備え、
前記立体物検出手段は、前記光源検出手段により検出された前記光源の検出位置に基づいて、前記所定領域において、隣接車線を走行する他車両が存在する可能性が所定値以上となる領域を検出対象領域として特定し、前記検出対象領域において、前記第1閾値または前記第2閾値を低く設定することを特徴とする立体物検出装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014502223A JP5682735B2 (ja) | 2012-03-01 | 2013-02-26 | 立体物検出装置 |
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012045352 | 2012-03-01 | ||
| JP2012045352 | 2012-03-01 | ||
| PCT/JP2013/054855 WO2013129354A1 (ja) | 2012-03-01 | 2013-02-26 | 立体物検出装置 |
| JP2014502223A JP5682735B2 (ja) | 2012-03-01 | 2013-02-26 | 立体物検出装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP5682735B2 true JP5682735B2 (ja) | 2015-03-11 |
| JPWO2013129354A1 JPWO2013129354A1 (ja) | 2015-07-30 |
Family
ID=49082551
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014502223A Active JP5682735B2 (ja) | 2012-03-01 | 2013-02-26 | 立体物検出装置 |
Country Status (9)
| Country | Link |
|---|---|
| US (1) | US9832444B2 (ja) |
| EP (1) | EP2821982B1 (ja) |
| JP (1) | JP5682735B2 (ja) |
| CN (1) | CN104115203B (ja) |
| BR (1) | BR112014020407B1 (ja) |
| MX (1) | MX349873B (ja) |
| MY (1) | MY179329A (ja) |
| RU (1) | RU2635280C2 (ja) |
| WO (1) | WO2013129354A1 (ja) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6177632B2 (ja) * | 2013-09-11 | 2017-08-09 | アルパイン株式会社 | 車両位置検出装置および車両後側方警報装置 |
| JP6426455B2 (ja) * | 2014-12-09 | 2018-11-21 | クラリオン株式会社 | 接近車両検出装置 |
| US20190051033A1 (en) * | 2016-02-24 | 2019-02-14 | Superb Reality Ltd. | System and method for object differentiation in three-dimensional space |
| JP6599031B2 (ja) * | 2017-02-06 | 2019-10-30 | 三菱電機株式会社 | 監視装置 |
| JP6776213B2 (ja) * | 2017-11-01 | 2020-10-28 | 株式会社東芝 | 軌道識別装置 |
| CN112639877A (zh) * | 2018-09-12 | 2021-04-09 | 日立汽车系统株式会社 | 图像识别装置 |
| JP7327992B2 (ja) * | 2019-05-10 | 2023-08-16 | フォルシアクラリオン・エレクトロニクス株式会社 | 立体物検出装置、及び立体物検出方法 |
| CN113822841B (zh) * | 2021-01-29 | 2022-05-20 | 深圳信息职业技术学院 | 一种污水杂质结块检测方法、装置及相关设备 |
| JP2023174087A (ja) * | 2022-05-27 | 2023-12-07 | 株式会社Subaru | 停止線認識装置 |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6411204B1 (en) * | 1999-11-15 | 2002-06-25 | Donnelly Corporation | Deceleration based anti-collision safety light control for vehicle |
| JP4644550B2 (ja) * | 2005-07-20 | 2011-03-02 | 株式会社オートネットワーク技術研究所 | カメラシステム |
| JP4906437B2 (ja) * | 2006-08-22 | 2012-03-28 | アルパイン株式会社 | 周辺監視システム |
| JP2008219063A (ja) | 2007-02-28 | 2008-09-18 | Sanyo Electric Co Ltd | 車両周辺監視装置及び方法 |
| JP2008227646A (ja) | 2007-03-09 | 2008-09-25 | Clarion Co Ltd | 障害物検知装置 |
| JP4930256B2 (ja) * | 2007-08-03 | 2012-05-16 | 日産自動車株式会社 | 隣接車両検出装置および隣接車両検出方法 |
| JP5355209B2 (ja) * | 2009-05-01 | 2013-11-27 | アルパイン株式会社 | ナビゲーション装置、自車の走行車線の判定方法および判定プログラム |
| JP5336325B2 (ja) * | 2009-10-30 | 2013-11-06 | 大日本スクリーン製造株式会社 | 画像処理方法 |
| RU2533645C2 (ru) * | 2010-05-27 | 2014-11-20 | Сергей Анатольевич Королев | Интеллектуальная транспортная система и способ её использования |
| JP5251927B2 (ja) * | 2010-06-21 | 2013-07-31 | 日産自動車株式会社 | 移動距離検出装置及び移動距離検出方法 |
| JP5809785B2 (ja) * | 2010-07-30 | 2015-11-11 | 日立オートモティブシステムズ株式会社 | 車両用外界認識装置およびそれを用いた配光制御システム |
-
2013
- 2013-02-26 US US14/373,054 patent/US9832444B2/en active Active
- 2013-02-26 JP JP2014502223A patent/JP5682735B2/ja active Active
- 2013-02-26 BR BR112014020407-1A patent/BR112014020407B1/pt active IP Right Grant
- 2013-02-26 RU RU2014139676A patent/RU2635280C2/ru active
- 2013-02-26 CN CN201380009565.XA patent/CN104115203B/zh active Active
- 2013-02-26 MY MYPI2014702377A patent/MY179329A/en unknown
- 2013-02-26 WO PCT/JP2013/054855 patent/WO2013129354A1/ja not_active Ceased
- 2013-02-26 EP EP13755644.5A patent/EP2821982B1/en active Active
- 2013-02-26 MX MX2014010244A patent/MX349873B/es active IP Right Grant
Also Published As
| Publication number | Publication date |
|---|---|
| MX349873B (es) | 2017-08-17 |
| BR112014020407A2 (pt) | 2021-05-25 |
| US9832444B2 (en) | 2017-11-28 |
| WO2013129354A1 (ja) | 2013-09-06 |
| MY179329A (en) | 2020-11-04 |
| US20150009292A1 (en) | 2015-01-08 |
| EP2821982A1 (en) | 2015-01-07 |
| BR112014020407B1 (pt) | 2021-09-14 |
| CN104115203B (zh) | 2016-10-19 |
| MX2014010244A (es) | 2014-11-12 |
| JPWO2013129354A1 (ja) | 2015-07-30 |
| RU2014139676A (ru) | 2016-04-20 |
| EP2821982A4 (en) | 2015-06-03 |
| EP2821982B1 (en) | 2018-06-27 |
| RU2635280C2 (ru) | 2017-11-09 |
| CN104115203A (zh) | 2014-10-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5804180B2 (ja) | 立体物検出装置 | |
| JP5682735B2 (ja) | 立体物検出装置 | |
| JP5787024B2 (ja) | 立体物検出装置 | |
| JP5776795B2 (ja) | 立体物検出装置 | |
| JP5733467B2 (ja) | 立体物検出装置 | |
| JP5874831B2 (ja) | 立体物検出装置 | |
| JP5743020B2 (ja) | 立体物検出装置 | |
| JP5943077B2 (ja) | 立体物検出装置および立体物検出方法 | |
| JP5682734B2 (ja) | 立体物検出装置 | |
| JP5835459B2 (ja) | 立体物検出装置 | |
| WO2013125335A1 (ja) | 立体物検出装置及び立体物検出方法 | |
| JPWO2013121911A1 (ja) | 立体物検出装置及び立体物検出方法 | |
| JP5783319B2 (ja) | 立体物検出装置及び立体物検出方法 | |
| JP5790867B2 (ja) | 立体物検出装置 | |
| JP5768927B2 (ja) | 立体物検出装置 | |
| JP5999183B2 (ja) | 立体物検出装置および立体物検出方法 | |
| JP5668891B2 (ja) | 立体物検出装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141216 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141229 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 5682735 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |