[go: up one dir, main page]

JP2004098792A - White line recognition device for vehicles - Google Patents

White line recognition device for vehicles Download PDF

Info

Publication number
JP2004098792A
JP2004098792A JP2002261860A JP2002261860A JP2004098792A JP 2004098792 A JP2004098792 A JP 2004098792A JP 2002261860 A JP2002261860 A JP 2002261860A JP 2002261860 A JP2002261860 A JP 2002261860A JP 2004098792 A JP2004098792 A JP 2004098792A
Authority
JP
Japan
Prior art keywords
white line
distance
vehicle
line
white
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002261860A
Other languages
Japanese (ja)
Inventor
Seiji Takeda
武田 誠司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002261860A priority Critical patent/JP2004098792A/en
Publication of JP2004098792A publication Critical patent/JP2004098792A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a white line recognition device capable of more precisely distinguishing a white line on a traveling road from a road side article without a high precision radar device. <P>SOLUTION: This white line recognition device 1 is equipped with a camera 2 taking an image in front of a vehicle itself, and a white line detecting part 6 for detecting a white line candidate line on the traveling road based on the image taken by the camera 2. The device also comprises a laser radar 4 for measuring a distance from the vehicle itself to a forward article; and a genuine white line judging part 7 for judging that the white candidate line is not the white line on the traveling road when the distance from the vehicle to the white line candidate line exceeds the distance measured by the laser radar 4. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、自車両前方の道路上に存在する白線を認識する車両用白線認識装置に関する。
【0002】
【従来の技術】
従来より、車両の自動操舵等を目的として、自車両前方の路面を撮影し、これにより取得された画像の輝度変化に基づいて、走行路上の白線を認識する車両用白線認識装置が知られている。
【0003】
【発明が解決しようとする課題】
しかし、この車両用白線認識装置では、取得された画像に白線と路側物が共に描かれている場合には、白線と路側物とを正確に区別することが容易でなかった。
【0004】
一方、高精度のレーダ装置を用いて路側物の外形を認識し、これにより白線と路側物とを区別する技術も提案されている。しかし、高精度のレーダ装置は高価であるため、この技術には、コストがかかるという問題点があった。
【0005】
本発明はこのような従来の課題を解決するためになされたものであり、その主に目的とするところは、高精度のレーダ装置を用いることなく、走行路上の白線と路側物とをより正確に区別することができる車両用白線認識装置を提供することである。
【0006】
【課題を解決するための手段】
上記目的を達成するため、本願特許請求の範囲に記載の発明は、自車両前方を撮影する撮影手段と、この撮影手段により取得された画像に基づいて、走行路上の白線候補線を検出する白線検出手段と、を備えた車両用白線認識装置において、自車両前方に検出波を発射して、この検出波を反射する前方物体を検出し、自車両からこの前方物体までの距離を計測する距離計測手段と、撮影手段によって取得された画像に基づいて、自車両から白線検出手段により検出された白線候補線までの距離を算出する距離算出手段と、距離算出手段により算出された距離が、距離計測手段により計測された距離以上である場合には、白線候補線は走行路上の白線ではないと判定する判定手段と、を備えたことを主に特徴とする。
【0007】
【発明の効果】
請求項1の発明では、判定手段は、距離算出手段により算出された距離が、距離計測手段により計測された距離以上である場合には、白線候補線は走行路上の白線ではないと判定する。
【0008】
ここで、撮影手段が前方物体を撮影した場合、撮影手段が取得する画像では、前方物体の画像が自車両に対して路面の奥側に射影されている。
【0009】
一方、白線検出手段は、撮影手段により取得された画像に基づいて、白線候補線を検出する。
【0010】
したがって、白線検出手段が、距離計測手段により検出された前方物体を白線候補線として検出した場合には、距離算出手段により算出される距離は、距離計測手段により計測される距離以上となる。よって、当該判定が可能となる。
【0011】
以上により、本発明では、白線候補線が走行路上の白線かどうかを正確に判定することができるので、高精度のレーダ装置を用いることなく、走行路上の白線と路側物とを正確に区別することができる。
【0012】
【発明の実施の形態】
以下、本発明の実施形態を図面に基づいて説明する。
【0013】
まず、本発明に係る車両用白線認識装置1の構成について、図1及び図2に基づいて説明する。
【0014】
ここで、図1は、車両用白線認識装置1の構成を示したブロック図であり、図2は、カメラ2等の設置位置を示した概略側断面図である。
【0015】
車両用白線認識装置1は、図2に示すように、自車両100に搭載されており、図1に示すように、カメラ(撮影手段)2、画像メモリ3、レーザレーダ(距離計測手段)4、及び処理部5を備えている。
【0016】
カメラ2は、図2に示すように、自車両100の室内天井部分に設置されており、自車両前方の走行路101及びその周辺を撮影して、自車両前方の走行路101及びその周辺の画像を取得する。そして、取得された画像を画像メモリ3に保存する。
【0017】
画像メモリ3は、カメラ2から与えられた画像を保存する。
【0018】
レーザレーダ4は、図2に示すように、自車両100の前部に設置されており、自車両前方にレーザ光(検出波)を発射して、このレーザ光を反射する前方物体を検出する。
【0019】
そして、自車両100からこの前方物体までの距離(具体的には、カメラ2から前方物体までの距離)を計測して、距離計測情報を作成し、処理部5に出力する。
【0020】
処理部5は、白線検出部(白線検出手段)6、及び白線真偽判定部(距離算出手段、判定手段)7を備えている。
【0021】
白線検出部6は、ウインドウ設定部60、白線候補点検出部61、白線候補線検出部62、道路パラメータ推定部63、ウインドウ再設定部64、白線候補点再検出部65、白線候補線再検出部66、及び道路パラメータ再推定部67を備えている。
【0022】
ウインドウ設定部60は、画像メモリ3から画像を取得し、この画像上に所定のウインドウを設定する。
【0023】
白線候補点検出部61は、ウインドウ設定部60により設定されたウインドウ内から白線候補点を検出する。
【0024】
白線候補線検出部62は、白線候補点検出部61による検出結果に基づいて、白線候補線を検出する。
【0025】
道路パラメータ推定部63は、白線候補線検出部62による検出結果に基づいて、道路パラメータを推定し、この推定された道路パラメータを道路パラメータ情報として白線検出メモリ68に保存する。
【0026】
ここで、道路パラメータは、自車両100の走行路101に対する横変位A、走行路101の曲率B、自車両100の走行路101に対するヨー角C、自車両100のピッチ角D、及びカメラ2の路面からの高さHで構成されている。
【0027】
そして、これら道路パラメータは、以下の式(1)を満たすことが知られており、道路パラメータ推定部63は、この式(1)を用いて、道路パラメータを推定する。
【0028】
【数1】

Figure 2004098792
ここで、式(1)中の(x、y)は、白線候補点の座標であり、A、B、C、D、Hは、上述した道路パラメータである。また、E0は、車線幅(左右道路白線の内側間の距離)を示す定数、fはカメラ透視変換定数である。
【0029】
また、jは左右の道路白線を区別するパラメータであり、(x、y)が左側の白線候補点の座標である場合には、j=0となり、右側の白線候補点の座標である場合には、j=1となる。
【0030】
ウインドウ再設定部64は、白線真偽判定部7による判定の結果に基づいて、画像メモリ3から画像を取得し、この画像上にウインドウを再度設定する。
【0031】
白線候補点再検出部65は、ウインドウ再設定部64により設定されたウインドウ内から白線候補点を再度検出する。
【0032】
白線候補線再検出部66は、白線候補点再検出部65による検出結果に基づいて、白線候補線を再度検出する。
【0033】
道路パラメータ再推定部67は、白線候補線再検出部66による検出結果に基づいて、道路パラメータを再度推定する。そして、推定された道路パラメータを道路パラメータ情報として、白線検出メモリ68に保存する。
【0034】
白線検出メモリ68は、道路パラメータ推定部63から与えられた道路パラメータ情報等を保存する。
【0035】
ここで、白線検出メモリ68は、道路パラメータ推定部63から道路パラメータ情報が与えられていない状態では、道路パラメータの初期値を保存する。
【0036】
また、カメラ2の路面からの高さHの値及びレーザレーダ4の路面からの高さhの値に関する高さ情報を保存する。
【0037】
白線真偽判定部7は、自車両100から白線検出部6により検出された白線候補線までの距離を算出し、この算出された距離と、レーザレーダ4により計測された距離とを比較する。
【0038】
そして、この結果に基づいて、白線候補線が走行路上の白線(以下、「道路白線」と称する)かどうかを判定する。
【0039】
次に、車両用白線認識装置1による処理の手順について、図1〜図14に基づいて説明する。
【0040】
ここで、図3は、自車両100の前方の様子を示した概略平面図であり、図4及び図12は、車両用白線認識装置1による処理の手順を示したフローチャートである。
【0041】
また、図5及び図14は、カメラ2により取得される画像を示した説明図であり、図6〜図11は、白線候補線を検出する方法を示した説明図であり、図13は、自車両100の前方の様子を示した概略側面図である。
【0042】
本実施の形態では、図3に示すように、自車両100の進行方向左側(以下、「左側」と称する)に道路白線102が、進行方向右側(以下、「右側」と称する)に道路白線103及びデリニエータ104が存在する場合を例にとって説明する。なお、車両用白線認識装置1は、左側にデリニエータが存在する場合等の他の場合であっても本処理を行うことができるのは勿論である。
【0043】
図4に示すステップS1にて、図1に示すカメラ2は、図3に示すように、自車両前方の領域2aを撮影する。
【0044】
これにより、カメラ2は、図5に示すように、左側の道路白線102に対応すると思われる左側白線画像102aと、右側の道路白線103に対応すると思われる右側白線画像105aとが描かれた画像を取得する。
【0045】
次いで、カメラ2は、取得された画像を画像メモリ3に保存する。なお、この画像は、画素毎の輝度データとして表される。
【0046】
一方、レーザレーダ4は、図3に示すように、自車両前方の領域4aにレーザ光を発射して、このレーザ光を反射する前方物体、即ちデリニエータ104を検出する。
【0047】
次いで、レーザレーダ4は、カメラ2からレーザレーダ4により検出された各デリニエータ104までの距離を計測して距離計測情報を作成し、処理部5に出力する。
【0048】
なお、この距離計測情報には、デリニエータ104が自車両100の進行方向に対して何れの側(右側か左側か)に存在するかに関する情報も含まれる。
【0049】
ステップS2にて、ウインドウ設定部60は、画像メモリ3から画像を取得すると共に、白線検出メモリ68から、道路パラメータ情報を取得する。
【0050】
次いで、ウインドウ設定部60は、これら画像及び道路パラメータ情報に基づいて、図5に示すように、画像上の左右両側にそれぞれm個のウインドウ60aを設定する。
【0051】
具体的には、ウインドウ設定部60は、まず、図5に示すように、画像上に所定のxy平面を定義する。
【0052】
次いで、ウインドウ設定部60は、各ウインドウ60aの上端部の中点座標(xest、yn)が以下の式(2)を満たすように、各ウインドウ60aを設定する(尚、A(−1)、B(−1)、C(−1)、D(−1)、H(−1)は前回のパラメータ推定結果を表わす。)。
【0053】
白線候補点の座標は上述した式(1)を満たすことが知られているので、このように設定することで、ウインドウ60a内に白線候補点がより確実に含まれるようになるからである。
【0054】
【数2】
Figure 2004098792
ここで、左側のウインドウ60aを設定する場合には、j=0とし、右側のウインドウ60aを設定する場合には、j=1とする。
【0055】
なお、各ウインドウ60aのx方向の幅については、道路パラメータの分散値に基づいて設定しても、固定値としても良い。
【0056】
次いで、ウインドウ設定部60は、設定されたウインドウ60aに関するウインドウ情報を作成して、白線検出メモリ68に保存する。
【0057】
次いで、白線検出部6は、左右両側の白線候補線を検出する。まず、左側の白線候補線を検出する手順を説明する。
【0058】
即ち、ステップS3にて、白線候補点検出部61は、ステップS4〜ステップS7の処理を繰り返して行うための制御パラメータiを定義する。
【0059】
次いで、この制御パラメータiを1に初期化して、制御パラメータiの値を制御パラメータ情報として白線検出メモリ68に保存する。
【0060】
次いで、ステップS4にて、白線候補点検出部61は、白線検出メモリ68から、i番目のウインドウ(以下、「ウインドウi」と称する)に関するウインドウ情報を取得する。
【0061】
次いで、白線候補点検出部61は、当該ウインドウ情報に基づいて、ソーベルフィルタ処理等のエッジ検知処理により、ウインドウi内の画像から白線候補点を検出する。
【0062】
具体的には、白線候補点検出部61は、図6に示すように、ウインドウi内の隣接する画素について、左側の画素の輝度と右側の画素の輝度との輝度差を計測する。
【0063】
次いで、白線候補点検出部61は、計測された輝度差と、この輝度について予め定められた基準変化量とを比較する。ここで、基準変化量は、固定値としても、画像全体またはウインドウ毎の平均輝度等により適宜設定されても良い。
【0064】
この結果、計測された輝度差が基準変化量以上の場合には、以下の処理を行う。
【0065】
即ち、左側の画素の輝度が右側の画素の輝度よりも大きい場合には、図6に示すように、この左側の画素を白線候補点61aとする。ここで、白線候補点61aは、左側白線画像102aの右端部上の点となる。
【0066】
次いで、白線候補点検出部61は、検出された白線候補点の座標等に関する白線候補点情報を作成して、白線検出メモリ68に保存する。
【0067】
なお、上述した処理により、白線候補点が検出されなかった場合には、ステップS6以降の処理が行われる。
【0068】
次いで、ステップS5にて、白線候補線検出部62は、白線検出メモリ68からウインドウiに関する白線候補点情報を取得し、この白線候補点情報に基づいて、白線候補線を検出する。
【0069】
ここで、白線候補線の検出には、ハフ変換や最小自乗法等を用いることができるが、本実施の形態では、ハフ変換を用いることとする。即ち、図7に示すように、ウインドウi内を通過する直線のうち、最も多くの白線候補点61aを貫くものを白線候補線とする。
【0070】
具体的には、まず、白線候補線検出部62は、ある白線候補点61aを通過する直線を、以下の式(3)で表す。
【0071】
x=a・y+b …(3)
ここで、aは、直線の傾き(∂x/∂y)であり、bは直線のx切片である。
【0072】
次いで、白線候補線検出部62は、aの値を所定値ずつ変えながら、当該aの値に対応するbの値を算出する。ここで、所定値については、予め定められる。
【0073】
次いで、白線候補線検出部62は、当該算出の結果に基づいて、図8に示す配列表を作成する。
【0074】
この配列表の各配列要素には、それぞれaとbの各種組み合わせが対応している。
【0075】
また、この配列表は、「1」が立っている配列要素と、空欄の配列要素とを有し、「1」が立っている配列要素に対応するaとbの組み合わせは、式(3)を満たす。
【0076】
なお、以下の説明において、あるaとbの組み合わせに対応する配列要素を、「配列要素(a、b)」と称する。
【0077】
次いで、白線候補線検出部62は、ウインドウiに含まれる全ての白線候補点61aについて、同様の処理により、配列表を作成する。
【0078】
次いで、白線候補線検出部62は、これら作成された配列表を重ね合わせて、図9及び図10に示すような結合表を作成する。
【0079】
この結合表は、図8の配列表と同様の構成となっており、数字が記載された配列要素と空欄の配列要素とを有する。なお、図9及び図10では、これら数字を「zk」(k=1、2、3、…、r)で表している。
【0080】
ここで、例えば、図9に示すように、結合表の配列要素(ar、br)に記載されたzrは、以下の式(4)で表される直線が貫く白線候補点61aの数を表している。
【0081】
x=ar・y+br …(4)
次いで、白線候補線検出部62は、当該作成された結合表に基づいて、白線候補点61aを最も多く貫く直線を検出し、この直線を白線候補線62aとする(図6参照)。
【0082】
次いで、白線候補線検出部62は、図11に示すように、ウインドウiにおける白線候補線62aと、ウインドウiの上端部との交点62bの座標(xi、yi)を算出する。
【0083】
具体的には、yiはウインドウiの固有値として既知なので、以下の式(5)に基づいて、xiを算出する。
【0084】
xi=ai・yi+bi …(5)
ここで、aiは白線候補線62aの傾きであり、biは白線候補線62aのx切片である。
【0085】
次いで、白線候補線検出部62は、検出された白線候補線62a及び交点62bに関する白線候補線情報を作成して、白線検出メモリ68に保存する。
【0086】
次いで、図4に示すステップS6にて、白線候補線検出部62は、制御パラメータiの値を1増加させ、当該制御パラメータiの値を制御パラメータ情報として白線検出メモリ68に保存する。
【0087】
ステップS7にて、白線候補線検出部62は、制御パラメータiの値とmを比較する。
【0088】
この結果、制御パラメータiの値がmより大きくなっている場合には、m個のウインドウ60aの全てについて白線候補線検出処理が終了したこととなるので、車両用白線認識装置1は、ステップS20以降の処理を行う。
【0089】
一方、制御パラメータiの値がm以下の場合には、車両用白線認識装置1は、ステップS4以降の処理を繰り返す。
【0090】
即ち、車両用白線認識装置1は、上述したステップS3〜ステップS7の処理を繰り返して行うことにより、m個のウインドウ60aの全てについて、白線候補線検出処理を行う。
【0091】
一方、車両用白線認識装置1は、右側の白線候補線62cを、上述したステップS3〜ステップS7の処理と同様の処理を繰り返して行うことにより検出する(図5参照)。
【0092】
ここで、右側の白線候補線62cを検出する場合には、ステップS4にて、白線候補点検出部61は、輝度差が基準変化量以上で、且つ右側の画素の輝度が左側の画素の輝度よりも大きい場合に、この右側の画素を白線候補点とする。言い換えれば、右側白線画像105a(図5参照)の左端部上の点を白線候補点とする。
【0093】
次いで、図4に示すステップS20にて、図1に示す道路パラメータ推定部63は、白線検出メモリ68から、左側の白線候補線62aに関する白線候補線情報または右側の白線候補線62cに関する白線候補線情報を取得し、この白線候補線情報に基づいて、道路パラメータを推定する。
【0094】
なお、本実施の形態における推定方法は、いかなる道路幅であっても適用可能である。まず、その理由について説明する。
【0095】
即ち、上述した式(1)(即ち、本推定方法に用いられる式)をyで偏微分して以下に示す式(6)を得る。
【0096】
【数3】
Figure 2004098792
そして、式(1)と式(6)からAを消去すると以下に示す式(7)を得る。
【0097】
【数4】
Figure 2004098792
ここで、Aは自車両100の車線に対する横変位のパラメータであり、このAを消去すると、式(7)によって表されるように、E0も同時に消去される。つまり、いかなる道路幅であっても式(7)が成立する。
【0098】
したがって、本推定方法は、いかなる道路幅であっても適用可能であることが理解される。
【0099】
次に、本推定方法について、図12等に基づいて説明する。
【0100】
まず、図12に示すステップS21にて、図1に示す道路パラメータ推定部63は、制御パラメータiを1に初期化し、当該制御パラメータiの値を制御パラメータ情報として白線検出メモリ68に保存する。
【0101】
ステップS22にて、道路パラメータ推定部63は、以下に示す式(8)を、道路パラメータA、B、C、D、Hでそれぞれ偏微分する。
【0102】
これにより、Mi1(=∂fz/∂A)、Mi2(=∂fz/∂B)、Mi3(=∂fz/∂C)、Mi4(=∂fz/∂D)、Mi5(=∂fz/∂H)を算出する。
【0103】
【数5】
Figure 2004098792
ここで、式(8)は、上述した式(1)の(x、y)に、白線候補線62aとウインドウiの上端部との交点62bの座標(xi、yi)(図11参照)を代入したものである。
【0104】
なお、式(8)は、その右辺を線形近似することで、以下の式(9)として表される。
【0105】
xi=Mi1・A+Mi2・B+Mi3・C+Mi4・D+Mi5・H …(9)
次いで、道路パラメータ推定部63は、算出されたMi1〜Mi5の値を偏微分値情報として白線検出メモリ68に保存する。
【0106】
次いで、ステップS23にて、制御パラメータiの値を1増加させ、制御パラメータiの値を制御パラメータ情報として白線検出メモリ68に保存する。
【0107】
ステップS24にて、道路パラメータ推定部63は、制御パラメータiの値とmとを比較する。
【0108】
この結果、道路パラメータ推定部63は、制御パラメータiの値がmより大きい場合には、ステップS25以降の処理を行い、制御パラメータiの値がm以下の場合には、ステップS22以降の処理を繰り返す。
【0109】
これにより、道路パラメータ推定部63は、m個のウインドウ60aの全てについて、Mi1〜Mi5を算出する。
【0110】
次いで、道路パラメータ推定部63は、ステップS25にて、カルマンフィルタ処理により、道路パラメータA、B、C、D、Hを推定する。
【0111】
ここで、カルマンフィルタ処理とは、以下の式(10)が与えられる場合に、パラメータzの値を推定することができるというものである。
【0112】
yy=fw(z) …(10)
ここで、式(10)中のパラメータyyの値及び関数fwの構造はそれぞれ既知とし、一般にyyはベクトルとなる。
【0113】
具体的には、道路パラメータ推定部63は、白線検出メモリ68から、M11〜Mm5の値に関する偏微分値情報を取得し、更に、式(9)に基づいて、以下の式(11)を取得する。
【0114】
【数6】
Figure 2004098792
次いで、道路パラメータ推定部63は、式(11)にM11〜Mm5の値を代入して、道路パラメータA、B、C、D、Hの値を推定する。
【0115】
次いで、当該推定された道路パラメータA、B、C、D、Hの値を道路パラメータ情報として白線検出メモリ68に保存して、図4に示すメインフローに戻る。
【0116】
次いで、図4に示すステップS30にて、図1に示す白線真偽判定部7は、右側の白線候補線62c及び左側の白線候補線62a(図5参照)が道路白線かどうかを判定する。
【0117】
ここで、左側の白線候補線62aが道路白線かどうかを判定する方法は、右側の白線候補線62cが道路白線かどうかを判定する方法と同様なので、以下、右側の白線候補線62cが道路白線かどうかを判定する方法について説明する。
【0118】
白線真偽判定部7は、まず、レーザレーダ4から与えられる距離計測情報に基づいて、白線候補線62cとデリニエータ104とが自車両100に対して同一の側に存在するかどうかを判定する。
【0119】
この結果、白線真偽判定部7は、これらが自車両100に対して同一の側に存在しない場合には、白線候補線62cの周囲には前方物体が存在しないので、この白線候補線62cを道路白線と判定する。
【0120】
一方、白線真偽判定部7は、これらが自車両100に対して同一の側に存在する場合(本例の場合)には、以下の処理を行う。
【0121】
即ち、白線真偽判定部7は、白線検出メモリ68から右側の白線候補線62cに関する白線候補線情報を取得し、この白線候補線情報に基づいて、カメラ2から白線候補線62cまでの距離L1(図13参照)を算出する。
【0122】
次いで、白線真偽判定部7は、当該算出された距離L1と、レーザレーダ4から与えられる距離計測情報とに基づいて、距離L1と、カメラ2からデリニエータ104までの距離L2とを比較する。
【0123】
この結果、白線真偽判定部7は、距離L1が距離L2よりも短い場合には、右側の白線候補線62cを道路白線と判定し、距離L1が距離L2以上である場合(本例の場合)には、以下の処理を行う。
【0124】
即ち、まず、白線真偽判定部7は、距離L1と距離L2との距離差を算出する。
【0125】
一方、白線真偽判定部7は、白線検出メモリ68からカメラ高さHの値及びレーダ高さhの値に関する高さ情報を取得し、これらの値と算出された距離L2を以下の式(12)に代入することで、基準距離差を算出する。
【0126】
(基準距離差)=L2・h/(H−h) …(12)
次いで、白線真偽判定部7は、算出された距離差と、基準距離差とを比較する。
【0127】
この結果、白線真偽判定部7は、距離差が基準距離差以下の場合には、白線候補線62cは道路白線ではないと判定し、距離差が基準距離差よりも大きい場合には、白線候補線62cは道路白線であると判定する。
【0128】
本例の場合では、白線真偽判定部7は、右側の白線候補線62cは道路白線ではないと判定し、左側の白線候補線62aは道路白線であると判定する。
【0129】
ここで、当該判定が可能な理由について説明する。
【0130】
即ち、図13に示すように、カメラ2が自車両前方のデリニエータ104を撮影した場合、カメラ2が取得する画像では、デリニエータ104の画像104a(図14参照、以下、「デリニエータ画像104a」と称する)が自車両100に対して路面の奥側に射影されている。
【0131】
一方、白線候補線検出部62は、上述したように、カメラ2により取得された画像に基づいて、白線候補線を検出する。
【0132】
したがって、白線候補線検出部62が、レーザレーダ4により検出されたデリニエータ104を白線候補線として検出した場合には、白線真偽判定部7により算出される距離L1は、レーザレーダ4により計測される距離L2以上となる。
【0133】
また、図13に示すように、レーザレーダ4によりデリニエータ104が検出される場合には、デリニエータ104の高さは、レーダ高さh以上となる。
【0134】
したがって、白線候補線検出部62が、レーザレーダ4により検出されたデリニエータ104を白線候補線として検出した場合には、距離L1と距離L2との距離差は、L2・h/(H−h)で表される。
【0135】
即ち、この場合の距離差は、上述した基準距離差となる。
【0136】
したがって、距離L1が距離L2以上で、且つ距離L1と距離L2との距離差が基準距離差以下の場合には、白線候補線検出部62は、デリニエータ104を白線候補線として検出したといえる。言い換えれば、この場合には、白線候補線は道路白線ではないといえるので、上述した判定が可能となる。
【0137】
なお、本例では、白線候補線検出部62は、上述した理由により、デリニエータ104を右側の白線候補線62cとして検出していることとなる。即ち、図5に示す白線画像105aは、実際にはデリニエータ画像104aである。
【0138】
次いで、車両用白線認識装置1は、道路白線でない白線候補線62cが存在する場合(ステップS30にてNO)には、図4に示すステップS8以降の処理を行う。
【0139】
即ち、ステップS8にて、図1に示すウインドウ再設定部64は、画像メモリ3から画像を取得する。
【0140】
次いで、ウインドウ再設定部64は、図14に示すように、この画像上において、道路白線でない画像上の白線候補線62c(即ち、デリニエータ画像104a)よりも車線内側の領域に、m個のウインドウ60bを設定する。
【0141】
これにより、本例では、図14に示すように、ウインドウ60b内に白線画像(図3に示す道路白線103に対応する画像)103aが含まれることとなる。
【0142】
次いで、ウインドウ再設定部64は、ウインドウ60bの位置及び大きさに関するウインドウ再設定情報を作成し、白線検出メモリ68に保存する。
【0143】
次いで、ステップS9にて、白線候補点再検出部65は、制御パラメータiの値を1に初期化して、この制御パラメータiの値を制御パラメータ情報として白線検出メモリ68に保存する。
【0144】
次いで、ステップS10にて、白線候補点再検出部65は、白線検出メモリ68から、i番目のウインドウ60bに関するウインドウ再設定情報を取得する。
【0145】
次いで、白線候補点再検出部65は、当該ウインドウ再設定情報に基づいて、ステップS4と同様に、i番目のウインドウ60b内の画像から白線候補点を検出する。
【0146】
ここで、白線候補点の検出に際しては、白線候補点を検出するための基準変化量は、ステップS4の処理にて使用された基準変化量よりも低い値に設定される。
【0147】
次いで、白線候補点検出部61は、検出された白線候補点の座標等に関する白線候補点再検出情報を作成して、白線検出メモリ68に保存する。
【0148】
なお、白線候補点が検出されなかった場合には、ステップS12以降の処理が行われる。
【0149】
次いで、ステップS11にて、白線候補線再検出部66は、白線検出メモリ68から白線候補点再検出情報を取得し、この白線候補点再検出情報に基づいて、ステップS5と同様に、白線候補線62dを検出する(図14参照)。
【0150】
次いで、白線候補線再検出部66は、検出された白線候補線に関する白線候補線再検出情報を作成し、白線検出メモリ68に保存する。
【0151】
ステップS12にて、白線候補線再検出部66は、制御パラメータiの値を1増加させ、当該制御パラメータiの値を制御パラメータ情報として白線検出メモリ68に保存する。
【0152】
ステップS13にて、白線候補線再検出部66は、制御パラメータiの値とmを比較する。
【0153】
この結果、制御パラメータiの値がmより大きくなっている場合には、m個のウインドウ60bの全てについて白線候補線再検出処理が終了したこととなるので、車両用白線認識装置1は、ステップS40以降の処理を行う。
【0154】
一方、制御パラメータiの値がm以下の場合には、車両用白線認識装置1は、ステップS10以降の処理を繰り返す。
【0155】
即ち、車両用白線認識装置1は、上述したステップS10〜ステップS13の処理を繰り返して行うことにより、m個のウインドウ60bの全てについて、白線候補線再検出処理を行う。
【0156】
これにより、車両用白線認識装置1は、図14に示すように、道路白線103の内側端部を白線候補線62dとして検出する。
【0157】
次いで、ステップS40にて、道路パラメータ再推定部67は、白線検出メモリ68から白線候補線再検出情報を取得する。
【0158】
次いで、道路パラメータ再推定部67は、この白線候補線再検出情報に基づいて、図12に示すステップS20〜ステップS25と同様に、道路パラメータA、B、C、D、Hの値を再度推定する。
【0159】
次いで、道路パラメータ再推定部67は、再度推定された道路パラメータA、B、C、D、Hの値を道路パラメータ情報として白線検出メモリ68に保存する。
【0160】
次いで、車両用白線認識装置1は、ステップS1以降の処理を繰り返す。なお、車両用白線認識装置1は、自車両走行中であれば、例えば30〔msec〕毎にステップS1以降の処理を繰り返す。
【0161】
以上により、本実施の形態によれば、以下の効果を得ることができる。
【0162】
即ち、白線真偽判定部7は、白線真偽判定部7により算出された距離L1が、レーザレーダ4により計測された距離L2以上である場合には、上述した理由(ステップS30の説明を参照)により、白線候補線検出部62により検出された白線候補線は道路白線ではないと判定する。
【0163】
これにより、車両用白線認識装置1は、道路白線以外のもの(例えば、デリニエータ104等の路側物)を道路白線と判定することを防止することができる。
【0164】
したがって、車両用白線認識装置1は、高精度のレーダ装置を用いることなく、道路白線とそれ以外の前方物体とを正確に区別することができる(請求項1記載の発明に対応する効果)。
【0165】
さらに、白線真偽判定部7は、距離L1が距離L2以上であり、且つ、これら距離L1と距離L2との距離差が、基準距離差以下である場合には、白線候補線62aは道路白線ではないと判定する。
【0166】
これにより、車両用白線認識装置1は、例えば画像に基づいて検出された道路白線が正しいにもかかわらず、自車両と道路白線の間の物体(例えば自車両近傍を走行する二輪車)をレーザレーダ4で検出した場合の様に、距離L1が距離L2以上で、且つ距離L1と距離L2との距離差が基準距離差よりも大きい場合に、白線候補線62aは道路白線ではないと判定することを防止することができる(請求項2記載の発明に対応する効果)。
【0167】
さらに、この基準距離差は、上述したように、式(12)で表される。
【0168】
したがって、車両用白線認識装置1は、上述した理由(ステップS30の説明を参照)により、白線候補線が道路白線であるかどうかをより正確に判定することができる(請求項3記載の発明に対応する効果)。
【0169】
さらに、白線検出部6は、白線候補線が道路白線ではないと判定された場合には、画像上の白線候補線よりも内側の領域から、白線候補線を再度検出する(図4に示すステップS10〜ステップS13)。
【0170】
したがって、車両用白線認識装置1は、白線候補線が道路白線ではないと判定された場合であっても、この白線候補線の内側の領域から、道路白線を検出することができる(請求項4記載の発明に対応する効果)。
【0171】
さらに、この場合、白線候補点を検出するための輝度の基準変化量は、図4に示すステップS4における基準変化量よりも低い値に設定される。
【0172】
したがって、車両用白線認識装置1は、道路白線が汚れている場合等のように、道路白線の輝度が低下している場合であっても、道路白線をより確実に検出することができる(請求項5記載の発明に対応する効果)。
【0173】
さらに、車両用白線認識装置1は、道路パラメータを再度推定した後には、この道路パラメータを用いてウインドウを設定することができる。したがって、ウインドウ内に白線候補点をより確実に含めることができる。
【0174】
なお、本実施の形態では、距離計測手段としてレーザレーダを用いることとしたが、電磁波を発射するミリ波レーダを用いても良い。
【図面の簡単な説明】
【図1】車両用白線認識装置の構成を示したブロック図である。
【図2】カメラ等の設置位置を示した概略側断面図である。
【図3】自車両前方の様子を示した概略平面図である。
【図4】車両用白線認識装置による処理の手順を示したフローチャートである。
【図5】カメラにより取得される画像の一例を示した説明図である。
【図6】白線候補点が検出される様子を示した説明図である。
【図7】白線候補線が検出される様子を示した説明図である。
【図8】白線候補線の傾きaとx切片bとの関係に関する配列表を示した説明図である。
【図9】白線候補線の傾きaとx切片bとの関係に関する結合表を示した説明図である。
【図10】白線候補線の傾きaとx切片bとの関係に関する結合表を示した説明図である。
【図11】白線候補線とウインドウの上端部との交点を示した説明図である。
【図12】道路パラメータを推定する手順を示したフローチャートである。
【図13】自車両前方の様子を示した概略側断面図である。
【図14】カメラにより取得される画像の一例を示した説明図である。
【符号の説明】
1 車両用白線認識装置
2 カメラ(撮影手段)
4 レーザレーダ(距離計測手段)
6 白線検出部(白線検出手段)
7 白線真偽判定部(距離算出手段、判定手段)
60 ウインドウ設定部
61 白線候補点検出部
62 白線候補線検出部
63 道路パラメータ推定部
64 ウインドウ再設定部
65 白線候補点再検出部
66 白線候補線再検出部
67 道路パラメータ再推定部
68 白線検出メモリ[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a vehicle white line recognition device that recognizes a white line existing on a road ahead of a host vehicle.
[0002]
[Prior art]
BACKGROUND ART Conventionally, there has been known a vehicle white line recognition device that photographs a road surface in front of a host vehicle for the purpose of automatic steering of a vehicle, and recognizes a white line on a traveling road based on a luminance change of an image obtained thereby. I have.
[0003]
[Problems to be solved by the invention]
However, in the vehicle white line recognition device, when both the white line and the roadside object are drawn in the acquired image, it is not easy to accurately distinguish the white line and the roadside object.
[0004]
On the other hand, there has also been proposed a technique for recognizing the outer shape of a roadside object using a high-accuracy radar device, thereby distinguishing a white line from a roadside object. However, since a high-precision radar device is expensive, this technique has a problem that it is costly.
[0005]
The present invention has been made to solve such a conventional problem, and its main object is to more accurately detect a white line on a traveling road and a roadside object without using a high-precision radar device. It is an object of the present invention to provide a white line recognition device for a vehicle which can be distinguished from a vehicle.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the invention described in the claims of the present application comprises a photographing means for photographing the front of the host vehicle, and a white line for detecting a white line candidate line on a traveling road based on an image acquired by the photographing means. Detecting means for emitting a detection wave in front of the host vehicle, detecting a front object reflecting the detection wave, and measuring a distance from the host vehicle to the front object. A measuring unit, a distance calculating unit that calculates a distance from the own vehicle to the white line candidate line detected by the white line detecting unit based on the image obtained by the photographing unit, and a distance calculated by the distance calculating unit. When the distance is equal to or longer than the distance measured by the measuring unit, the determining unit mainly determines that the white line candidate line is not a white line on the traveling road.
[0007]
【The invention's effect】
According to the first aspect of the present invention, when the distance calculated by the distance calculating means is equal to or longer than the distance measured by the distance measuring means, the determining means determines that the white line candidate line is not a white line on the traveling road.
[0008]
Here, when the photographing means photographs the front object, in the image acquired by the photographing means, the image of the front object is projected to the host vehicle on the far side of the road surface.
[0009]
On the other hand, the white line detecting means detects a white line candidate line based on the image acquired by the photographing means.
[0010]
Therefore, when the white line detection unit detects the forward object detected by the distance measurement unit as a white line candidate line, the distance calculated by the distance calculation unit is equal to or greater than the distance measured by the distance measurement unit. Therefore, the determination can be made.
[0011]
As described above, according to the present invention, it is possible to accurately determine whether or not a white line candidate line is a white line on a traveling road. Therefore, the white line on the traveling road and the roadside object can be accurately distinguished without using a high-accuracy radar device. be able to.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0013]
First, a configuration of a vehicle white line recognition device 1 according to the present invention will be described with reference to FIGS.
[0014]
Here, FIG. 1 is a block diagram showing a configuration of the vehicle white line recognition device 1, and FIG. 2 is a schematic side sectional view showing an installation position of the camera 2 and the like.
[0015]
The vehicle white line recognition device 1 is mounted on the host vehicle 100 as shown in FIG. 2, and as shown in FIG. 1, a camera (photographing means) 2, an image memory 3, and a laser radar (distance measuring means) 4 , And a processing unit 5.
[0016]
As shown in FIG. 2, the camera 2 is installed on an indoor ceiling portion of the host vehicle 100, and captures an image of the running path 101 in front of the host vehicle and its surroundings, and shoots the running path 101 in front of the host vehicle and its surroundings. Get an image. Then, the obtained image is stored in the image memory 3.
[0017]
The image memory 3 stores an image given from the camera 2.
[0018]
As shown in FIG. 2, the laser radar 4 is installed in front of the host vehicle 100, emits laser light (detection wave) in front of the host vehicle, and detects a forward object that reflects the laser light. .
[0019]
Then, the distance from the host vehicle 100 to the front object (specifically, the distance from the camera 2 to the front object) is measured, and distance measurement information is created and output to the processing unit 5.
[0020]
The processing unit 5 includes a white line detection unit (white line detection unit) 6 and a white line authenticity determination unit (distance calculation unit, determination unit) 7.
[0021]
The white line detection unit 6 includes a window setting unit 60, a white line candidate point detection unit 61, a white line candidate line detection unit 62, a road parameter estimation unit 63, a window resetting unit 64, a white line candidate point redetection unit 65, and a white line candidate line redetection. A section 66 and a road parameter re-estimating section 67 are provided.
[0022]
The window setting unit 60 acquires an image from the image memory 3 and sets a predetermined window on the image.
[0023]
The white line candidate point detection unit 61 detects a white line candidate point from within the window set by the window setting unit 60.
[0024]
The white line candidate line detection unit 62 detects a white line candidate line based on the detection result by the white line candidate point detection unit 61.
[0025]
The road parameter estimating unit 63 estimates road parameters based on the detection result of the white line candidate line detecting unit 62, and stores the estimated road parameters in the white line detection memory 68 as road parameter information.
[0026]
Here, the road parameters are the lateral displacement A of the vehicle 100 with respect to the travel path 101, the curvature B of the travel path 101, the yaw angle C of the vehicle 100 with respect to the travel path 101, the pitch angle D of the vehicle 100, and the camera 2 It is configured with a height H from the road surface.
[0027]
It is known that these road parameters satisfy the following equation (1), and the road parameter estimating unit 63 estimates the road parameters using the equation (1).
[0028]
(Equation 1)
Figure 2004098792
Here, (x, y) in Expression (1) is the coordinates of the white line candidate point, and A, B, C, D, and H are the above-described road parameters. E0 is a constant indicating the lane width (the distance between the insides of the left and right road white lines), and f is a camera perspective conversion constant.
[0029]
Also, j is a parameter for distinguishing the left and right road white lines. When (x, y) is the coordinates of the left white line candidate point, j = 0, and when (x, y) is the coordinates of the right white line candidate point. Is j = 1.
[0030]
The window resetting unit 64 acquires an image from the image memory 3 based on the result of the determination by the white line authenticity determining unit 7, and sets a window again on this image.
[0031]
The white line candidate point re-detection section 65 detects the white line candidate point again from within the window set by the window resetting section 64.
[0032]
The white line candidate line re-detection unit 66 detects the white line candidate line again based on the detection result by the white line candidate point re-detection unit 65.
[0033]
The road parameter re-estimating unit 67 re-estimates the road parameters based on the detection result by the white line candidate line re-detecting unit 66. Then, the estimated road parameters are stored in the white line detection memory 68 as road parameter information.
[0034]
The white line detection memory 68 stores the road parameter information and the like provided from the road parameter estimation unit 63.
[0035]
Here, the white line detection memory 68 stores the initial values of the road parameters when the road parameter information is not given from the road parameter estimating unit 63.
[0036]
Also, height information on the value of the height H of the camera 2 from the road surface and the value of the height h of the laser radar 4 from the road surface are stored.
[0037]
The white line authenticity determination unit 7 calculates the distance from the vehicle 100 to the white line candidate line detected by the white line detection unit 6, and compares the calculated distance with the distance measured by the laser radar 4.
[0038]
Then, based on the result, it is determined whether or not the white line candidate line is a white line on the traveling road (hereinafter, referred to as “road white line”).
[0039]
Next, a procedure of processing by the vehicle white line recognition device 1 will be described with reference to FIGS.
[0040]
Here, FIG. 3 is a schematic plan view showing a state in front of the host vehicle 100, and FIGS. 4 and 12 are flowcharts showing processing procedures by the vehicle white line recognition device 1.
[0041]
FIGS. 5 and 14 are explanatory diagrams showing images acquired by the camera 2, FIGS. 6 to 11 are explanatory diagrams showing a method for detecting a white line candidate line, and FIG. FIG. 2 is a schematic side view showing a state in front of a host vehicle 100.
[0042]
In the present embodiment, as shown in FIG. 3, a road white line 102 is provided on the left side (hereinafter, referred to as “left side”) in the traveling direction of the vehicle 100, and a road white line 102 is provided on the right side (hereinafter, referred to as “right side”) in the traveling direction. Description will be made by taking as an example the case where the 103 and the delineator 104 are present. Note that the vehicle white line recognition device 1 can of course perform this processing even in other cases such as when a delineator is present on the left side.
[0043]
In step S1 shown in FIG. 4, the camera 2 shown in FIG. 1 captures an image of an area 2a in front of the host vehicle as shown in FIG.
[0044]
Thereby, as shown in FIG. 5, the camera 2 draws the left white line image 102a which seems to correspond to the left road white line 102 and the right white line image 105a which seems to correspond to the right road white line 103. To get.
[0045]
Next, the camera 2 stores the obtained image in the image memory 3. This image is represented as luminance data for each pixel.
[0046]
On the other hand, as shown in FIG. 3, the laser radar 4 emits laser light to an area 4a in front of the host vehicle, and detects a forward object that reflects the laser light, that is, a delineator 104.
[0047]
Next, the laser radar 4 measures the distance from the camera 2 to each delineator 104 detected by the laser radar 4, creates distance measurement information, and outputs the distance measurement information to the processing unit 5.
[0048]
Note that the distance measurement information also includes information on which side (right side or left side) the delineator 104 is located in the traveling direction of the vehicle 100.
[0049]
In step S2, the window setting unit 60 acquires an image from the image memory 3 and acquires road parameter information from the white line detection memory 68.
[0050]
Next, based on the image and the road parameter information, the window setting unit 60 sets m windows 60a on both left and right sides of the image, as shown in FIG.
[0051]
Specifically, the window setting unit 60 first defines a predetermined xy plane on the image as shown in FIG.
[0052]
Next, the window setting unit 60 sets each window 60a such that the middle point coordinates (xest, yn) of the upper end portion of each window 60a satisfies the following equation (2) (A (-1), B (-1), C (-1), D (-1) and H (-1) represent the previous parameter estimation results.)
[0053]
It is known that the coordinates of the white line candidate points satisfy the above-described equation (1), so that by setting in this manner, the white line candidate points can be more reliably included in the window 60a.
[0054]
(Equation 2)
Figure 2004098792
Here, j = 0 when setting the left window 60a, and j = 1 when setting the right window 60a.
[0055]
The width in the x direction of each window 60a may be set based on the variance of the road parameters or may be a fixed value.
[0056]
Next, the window setting unit 60 creates window information relating to the set window 60a and stores it in the white line detection memory 68.
[0057]
Next, the white line detection unit 6 detects white line candidate lines on both the left and right sides. First, a procedure for detecting the left white line candidate line will be described.
[0058]
That is, in step S3, the white line candidate point detection unit 61 defines a control parameter i for repeatedly performing the processing of steps S4 to S7.
[0059]
Next, the control parameter i is initialized to 1, and the value of the control parameter i is stored in the white line detection memory 68 as control parameter information.
[0060]
Next, in step S4, the white line candidate point detection unit 61 acquires window information on the i-th window (hereinafter, referred to as “window i”) from the white line detection memory 68.
[0061]
Next, the white line candidate point detection unit 61 detects a white line candidate point from the image in the window i by edge detection processing such as Sobel filter processing based on the window information.
[0062]
Specifically, as shown in FIG. 6, the white line candidate point detection unit 61 measures the luminance difference between the luminance of the left pixel and the luminance of the right pixel for adjacent pixels in the window i.
[0063]
Next, the white line candidate point detection unit 61 compares the measured luminance difference with a predetermined reference change amount for the luminance. Here, the reference change amount may be a fixed value or may be appropriately set based on the average luminance of the entire image or each window.
[0064]
As a result, if the measured luminance difference is equal to or larger than the reference change amount, the following processing is performed.
[0065]
That is, when the luminance of the pixel on the left is greater than the luminance of the pixel on the right, the pixel on the left is set as a white line candidate point 61a as shown in FIG. Here, the white line candidate point 61a is a point on the right end of the left white line image 102a.
[0066]
Next, the white line candidate point detection unit 61 creates white line candidate point information relating to the coordinates of the detected white line candidate points, and stores the information in the white line detection memory 68.
[0067]
If no white line candidate point is detected by the above-described processing, the processing from step S6 is performed.
[0068]
Next, in step S5, the white line candidate line detection unit 62 obtains white line candidate point information on window i from the white line detection memory 68, and detects a white line candidate line based on the white line candidate point information.
[0069]
Here, a Hough transform, a least squares method, or the like can be used to detect a white line candidate line. In the present embodiment, the Hough transform is used. That is, as shown in FIG. 7, a straight line passing through the window i and passing through the most white line candidate points 61a is defined as a white line candidate line.
[0070]
Specifically, first, the white line candidate line detection unit 62 expresses a straight line passing through a certain white line candidate point 61a by the following equation (3).
[0071]
x = a · y + b (3)
Here, a is the inclination of the straight line (∂x / ∂y), and b is the x-intercept of the straight line.
[0072]
Next, the white line candidate line detection unit 62 calculates the value of b corresponding to the value of a while changing the value of a by a predetermined value. Here, the predetermined value is determined in advance.
[0073]
Next, the white line candidate line detection unit 62 creates the sequence table shown in FIG. 8 based on the calculation result.
[0074]
Various combinations of a and b correspond to the respective array elements of the array table.
[0075]
Further, this array table has array elements where "1" stands, and blank array elements. The combination of a and b corresponding to the array element where "1" stands is given by the formula (3) Meet.
[0076]
In the following description, an array element corresponding to a certain combination of a and b is referred to as “array element (a, b)”.
[0077]
Next, the white line candidate line detection unit 62 creates a sequence table for all the white line candidate points 61a included in the window i by performing the same processing.
[0078]
Next, the white line candidate line detection unit 62 creates a connection table as shown in FIGS. 9 and 10 by superimposing the created sequence tables.
[0079]
This connection table has the same configuration as the arrangement table of FIG. 8, and has array elements in which numbers are described and array elements that are blank. 9 and 10, these numbers are represented by “zk” (k = 1, 2, 3,..., R).
[0080]
Here, for example, as shown in FIG. 9, zr described in the array element (ar, br) of the binding table represents the number of white line candidate points 61a through which a straight line represented by the following equation (4) passes. ing.
[0081]
x = ar · y + br (4)
Next, the white line candidate line detection unit 62 detects a straight line that passes through the white line candidate point 61a most based on the created connection table, and sets this straight line as the white line candidate line 62a (see FIG. 6).
[0082]
Next, as shown in FIG. 11, the white line candidate line detection unit 62 calculates coordinates (xi, yi) of an intersection 62b between the white line candidate line 62a in the window i and the upper end of the window i.
[0083]
Specifically, since yi is known as a unique value of window i, xi is calculated based on the following equation (5).
[0084]
xi = ai · yi + bi (5)
Here, ai is the inclination of the white line candidate line 62a, and bi is the x-intercept of the white line candidate line 62a.
[0085]
Next, the white line candidate line detection unit 62 creates white line candidate line information regarding the detected white line candidate line 62a and the intersection 62b, and stores the information in the white line detection memory 68.
[0086]
Next, in step S6 shown in FIG. 4, the white line candidate line detection unit 62 increases the value of the control parameter i by 1, and stores the value of the control parameter i in the white line detection memory 68 as control parameter information.
[0087]
In step S7, the white line candidate line detection unit 62 compares the value of the control parameter i with m.
[0088]
As a result, if the value of the control parameter i is larger than m, it means that the white line candidate line detection processing has been completed for all of the m windows 60a, and the vehicle white line recognition device 1 proceeds to step S20. The following processing is performed.
[0089]
On the other hand, when the value of the control parameter i is equal to or less than m, the vehicle white line recognition device 1 repeats the processing from step S4.
[0090]
That is, the vehicle white line recognition device 1 performs the white line candidate line detection processing for all of the m windows 60a by repeatedly performing the processing of steps S3 to S7 described above.
[0091]
On the other hand, the vehicle white line recognition device 1 detects the white line candidate line 62c on the right side by repeatedly performing the same processing as the above-described processing of steps S3 to S7 (see FIG. 5).
[0092]
Here, when detecting the right white line candidate line 62c, in step S4, the white line candidate point detection unit 61 determines that the luminance difference is equal to or more than the reference change amount and the luminance of the right pixel is the luminance of the left pixel. If it is larger than this, the right pixel is set as a white line candidate point. In other words, a point on the left end of the right white line image 105a (see FIG. 5) is set as a white line candidate point.
[0093]
Next, in step S20 shown in FIG. 4, the road parameter estimation unit 63 shown in FIG. 1 reads the white line candidate line information for the left white line candidate line 62a or the white line candidate line for the right white line candidate line 62c from the white line detection memory 68. Information is obtained, and road parameters are estimated based on the white line candidate line information.
[0094]
Note that the estimation method in the present embodiment can be applied to any road width. First, the reason will be described.
[0095]
That is, the above equation (1) (that is, the equation used in the present estimation method) is partially differentiated with respect to y to obtain the following equation (6).
[0096]
[Equation 3]
Figure 2004098792
Then, when A is eliminated from the expressions (1) and (6), the following expression (7) is obtained.
[0097]
(Equation 4)
Figure 2004098792
Here, A is a parameter of the lateral displacement of the own vehicle 100 with respect to the lane, and when this A is deleted, E0 is also deleted at the same time as expressed by equation (7). That is, Expression (7) holds regardless of the road width.
[0098]
Therefore, it is understood that the present estimation method is applicable to any road width.
[0099]
Next, the present estimation method will be described with reference to FIG.
[0100]
First, in step S21 shown in FIG. 12, the road parameter estimation unit 63 shown in FIG. 1 initializes the control parameter i to 1, and stores the value of the control parameter i in the white line detection memory 68 as control parameter information.
[0101]
In step S22, the road parameter estimating unit 63 partially differentiates the following equation (8) with road parameters A, B, C, D, and H, respectively.
[0102]
Thus, Mi1 (= ∂fz / ∂A), Mi2 (= ∂fz / ∂B), Mi3 (= ∂fz / ∂C), Mi4 (= ∂fz / ∂D), Mi5 (= ∂fz / ∂). H) is calculated.
[0103]
(Equation 5)
Figure 2004098792
Here, the equation (8) is obtained by adding the coordinates (xi, yi) (see FIG. 11) of the intersection 62b between the white line candidate line 62a and the upper end of the window i to (x, y) in the above equation (1). It is a substitution.
[0104]
Expression (8) is expressed as the following expression (9) by linearly approximating the right side thereof.
[0105]
xi = Mi1 · A + Mi2 · B + Mi3 · C + Mi4 · D + Mi5 · H (9)
Next, the road parameter estimation unit 63 stores the calculated values of Mi1 to Mi5 in the white line detection memory 68 as partial differential value information.
[0106]
Next, in step S23, the value of the control parameter i is increased by 1, and the value of the control parameter i is stored in the white line detection memory 68 as control parameter information.
[0107]
In step S24, the road parameter estimating unit 63 compares the value of the control parameter i with m.
[0108]
As a result, when the value of the control parameter i is greater than m, the road parameter estimating unit 63 performs the processing of step S25 and thereafter, and when the value of the control parameter i is equal to or less than m, the processing of step S22 and thereafter. repeat.
[0109]
Thus, the road parameter estimating unit 63 calculates Mi1 to Mi5 for all of the m windows 60a.
[0110]
Next, in step S25, the road parameter estimation unit 63 estimates the road parameters A, B, C, D, and H by Kalman filter processing.
[0111]
Here, the Kalman filter processing means that when the following equation (10) is given, the value of the parameter z can be estimated.
[0112]
yy = fw (z) (10)
Here, the value of the parameter yy and the structure of the function fw in the equation (10) are known, and yy is generally a vector.
[0113]
Specifically, the road parameter estimating unit 63 acquires partial differential value information on the values of M11 to Mm5 from the white line detection memory 68, and further acquires the following equation (11) based on the equation (9). I do.
[0114]
(Equation 6)
Figure 2004098792
Next, the road parameter estimating unit 63 estimates the values of the road parameters A, B, C, D, and H by substituting the values of M11 to Mm5 into Expression (11).
[0115]
Next, the estimated values of the road parameters A, B, C, D, and H are stored as road parameter information in the white line detection memory 68, and the process returns to the main flow shown in FIG.
[0116]
Next, in step S30 shown in FIG. 4, the white line authenticity determination unit 7 shown in FIG. 1 determines whether the right white line candidate line 62c and the left white line candidate line 62a (see FIG. 5) are road white lines.
[0117]
Here, the method for determining whether the left white line candidate line 62a is a road white line is the same as the method for determining whether the right white line candidate line 62c is a road white line. A method for determining whether or not this is the case will be described.
[0118]
The white line authenticity determination unit 7 first determines whether or not the white line candidate line 62c and the delineator 104 are on the same side of the host vehicle 100 based on the distance measurement information given from the laser radar 4.
[0119]
As a result, when these are not present on the same side with respect to the host vehicle 100, there is no forward object around the white line candidate line 62c. It is determined as a road white line.
[0120]
On the other hand, when these are present on the same side with respect to the host vehicle 100 (in the case of this example), the white line authenticity determination unit 7 performs the following processing.
[0121]
That is, the white line authenticity determination unit 7 obtains white line candidate line information on the right white line candidate line 62c from the white line detection memory 68, and based on the white line candidate line information, obtains the distance L1 from the camera 2 to the white line candidate line 62c. (See FIG. 13).
[0122]
Next, the white line authenticity determination unit 7 compares the distance L1 with the distance L2 from the camera 2 to the delineator 104 based on the calculated distance L1 and the distance measurement information given from the laser radar 4.
[0123]
As a result, when the distance L1 is shorter than the distance L2, the white line authenticity determination unit 7 determines the right white line candidate line 62c as a road white line, and when the distance L1 is equal to or longer than the distance L2 (in the case of this example). ) Performs the following processing.
[0124]
That is, first, the white line authenticity determination unit 7 calculates a distance difference between the distance L1 and the distance L2.
[0125]
On the other hand, the white line authenticity determination unit 7 acquires height information on the value of the camera height H and the value of the radar height h from the white line detection memory 68, and calculates these values and the calculated distance L2 by the following equation ( The reference distance difference is calculated by substituting it into 12).
[0126]
(Reference distance difference) = L2 · h / (Hh) (12)
Next, the white line authenticity determination unit 7 compares the calculated distance difference with the reference distance difference.
[0127]
As a result, the white line authenticity determination unit 7 determines that the white line candidate line 62c is not a road white line when the distance difference is equal to or less than the reference distance difference, and determines that the white line candidate line 62c is not a white line when the distance difference is larger than the reference distance difference. It is determined that the candidate line 62c is a road white line.
[0128]
In the case of this example, the white line authenticity determination unit 7 determines that the right white line candidate line 62c is not a road white line, and determines that the left white line candidate line 62a is a road white line.
[0129]
Here, the reason why the determination is possible will be described.
[0130]
That is, as shown in FIG. 13, when the camera 2 captures an image of the delineator 104 in front of the host vehicle, the image acquired by the camera 2 is an image 104a of the delineator 104 (refer to FIG. 14, hereinafter, referred to as a “delineator image 104a”). ) Is projected on the back side of the road surface with respect to the own vehicle 100.
[0131]
On the other hand, the white line candidate line detection unit 62 detects a white line candidate line based on the image acquired by the camera 2 as described above.
[0132]
Therefore, when the white line candidate line detection unit 62 detects the delineator 104 detected by the laser radar 4 as a white line candidate line, the distance L1 calculated by the white line authenticity determination unit 7 is measured by the laser radar 4. Distance L2 or more.
[0133]
In addition, as shown in FIG. 13, when the laser radar 4 detects the delineator 104, the height of the delineator 104 is equal to or higher than the radar height h.
[0134]
Therefore, when the white line candidate line detection unit 62 detects the delineator 104 detected by the laser radar 4 as a white line candidate line, the distance difference between the distance L1 and the distance L2 is L2 · h / (Hh). Is represented by
[0135]
That is, the distance difference in this case is the above-described reference distance difference.
[0136]
Therefore, when the distance L1 is equal to or greater than the distance L2 and the distance difference between the distance L1 and the distance L2 is equal to or less than the reference distance difference, it can be said that the white line candidate line detection unit 62 has detected the delineator 104 as a white line candidate line. In other words, in this case, since the white line candidate line is not a road white line, the above-described determination can be performed.
[0137]
In this example, the white line candidate line detection unit 62 detects the delineator 104 as the right white line candidate line 62c for the above-described reason. That is, the white line image 105a shown in FIG. 5 is actually the delineator image 104a.
[0138]
Next, when there is a white line candidate line 62c that is not a road white line (NO in Step S30), the vehicular white line recognition device 1 performs the processing of Step S8 and subsequent steps shown in FIG.
[0139]
That is, in step S8, the window resetting unit 64 shown in FIG.
[0140]
Next, as shown in FIG. 14, the window resetting unit 64 sets m windows on this image in a region inside the lane with respect to the white line candidate line 62c (ie, the delineator image 104a) on the image other than the road white line. Set 60b.
[0141]
As a result, in this example, as shown in FIG. 14, a white line image (an image corresponding to the road white line 103 shown in FIG. 3) 103a is included in the window 60b.
[0142]
Next, the window resetting unit 64 creates window resetting information relating to the position and size of the window 60b and stores the information in the white line detection memory 68.
[0143]
Next, in step S9, the white line candidate point re-detection unit 65 initializes the value of the control parameter i to 1 and stores the value of the control parameter i in the white line detection memory 68 as control parameter information.
[0144]
Next, in step S10, the white line candidate point re-detection unit 65 acquires the window reset information on the i-th window 60b from the white line detection memory 68.
[0145]
Next, the white line candidate point re-detection unit 65 detects white line candidate points from the image in the i-th window 60b based on the window resetting information, as in step S4.
[0146]
Here, when detecting the white line candidate point, the reference change amount for detecting the white line candidate point is set to a value lower than the reference change amount used in the process of step S4.
[0147]
Next, the white line candidate point detection unit 61 creates white line candidate point re-detection information relating to the coordinates of the detected white line candidate points and stores the information in the white line detection memory 68.
[0148]
If no white line candidate point is detected, the processing from step S12 is performed.
[0149]
Next, in step S11, the white line candidate line re-detection unit 66 acquires the white line candidate point re-detection information from the white line detection memory 68, and based on the white line candidate point re-detection information, as in step S5, executes the white line candidate re-detection. The line 62d is detected (see FIG. 14).
[0150]
Next, the white line candidate line re-detection unit 66 creates white line candidate line re-detection information relating to the detected white line candidate line, and stores it in the white line detection memory 68.
[0151]
In step S12, the white line candidate line re-detection unit 66 increases the value of the control parameter i by 1, and stores the value of the control parameter i in the white line detection memory 68 as control parameter information.
[0152]
In step S13, the white line candidate line re-detection unit 66 compares the value of the control parameter i with m.
[0153]
As a result, if the value of the control parameter i is larger than m, it means that the white line candidate line re-detection processing has been completed for all of the m windows 60b. The processing after S40 is performed.
[0154]
On the other hand, when the value of the control parameter i is equal to or less than m, the vehicle white line recognition device 1 repeats the processing from step S10.
[0155]
In other words, the vehicle white line recognition device 1 performs the white line candidate line re-detection processing for all of the m windows 60b by repeatedly performing the processing of steps S10 to S13 described above.
[0156]
Thereby, the vehicle white line recognition device 1 detects the inner end of the road white line 103 as the white line candidate line 62d, as shown in FIG.
[0157]
Next, in step S40, the road parameter re-estimating unit 67 acquires white line candidate line re-detection information from the white line detection memory 68.
[0158]
Next, the road parameter re-estimating unit 67 re-estimates the values of the road parameters A, B, C, D, and H based on the white line candidate line re-detection information, similarly to steps S20 to S25 shown in FIG. I do.
[0159]
Next, the road parameter re-estimating unit 67 stores the values of the road parameters A, B, C, D, and H estimated again in the white line detection memory 68 as road parameter information.
[0160]
Next, the white line recognition device 1 for a vehicle repeats the processing from step S1. Note that the vehicle white line recognition device 1 repeats the processing after step S1 every 30 [msec], for example, while the vehicle is running.
[0161]
As described above, according to the present embodiment, the following effects can be obtained.
[0162]
That is, when the distance L1 calculated by the white line authenticity determination unit 7 is equal to or longer than the distance L2 measured by the laser radar 4, the white line authenticity determination unit 7 determines the reason described above (see the description of step S30). ), It is determined that the white line candidate line detected by the white line candidate line detection unit 62 is not a road white line.
[0163]
Thereby, the vehicle white line recognition device 1 can prevent the thing other than the road white line (for example, the roadside object such as the delineator 104) from being determined as the road white line.
[0164]
Therefore, the vehicle white line recognition device 1 can accurately distinguish the road white line from other objects ahead without using a high-accuracy radar device (an effect corresponding to the invention described in claim 1).
[0165]
Further, when the distance L1 is equal to or greater than the distance L2 and the distance difference between the distance L1 and the distance L2 is equal to or less than the reference distance difference, the white line candidate line 62a determines that the white line candidate line 62a is a road white line. Is not determined.
[0166]
Thereby, the vehicle white line recognition device 1 can use the laser radar to detect an object between the host vehicle and the road white line (for example, a two-wheeled vehicle running near the host vehicle) despite the fact that the road white line detected based on the image is correct. When the distance L1 is equal to or greater than the distance L2 and the distance difference between the distance L1 and the distance L2 is larger than the reference distance difference, as in the case where the white line candidate line 62a is detected, it is determined that the white line candidate line 62a is not a road white line. Can be prevented (an effect corresponding to the invention described in claim 2).
[0167]
Further, the reference distance difference is represented by Expression (12) as described above.
[0168]
Therefore, the vehicle white line recognition device 1 can more accurately determine whether the white line candidate line is a road white line for the reason described above (see the description of step S30) (the invention according to claim 3). Corresponding effect).
[0169]
Further, when it is determined that the white line candidate line is not a road white line, the white line detection unit 6 detects the white line candidate line again from an area inside the image on the inner side of the white line candidate line (step shown in FIG. 4). S10 to step S13).
[0170]
Therefore, even if it is determined that the white line candidate line is not a road white line, the vehicle white line recognition device 1 can detect a road white line from an area inside the white line candidate line (claim 4). Effects corresponding to the described invention).
[0171]
Further, in this case, the reference change amount of the luminance for detecting the white line candidate point is set to a value lower than the reference change amount in step S4 shown in FIG.
[0172]
Therefore, the vehicle white line recognition device 1 can more reliably detect the road white line even when the brightness of the road white line is low, such as when the road white line is dirty (claim). Effect corresponding to the invention described in Item 5).
[0173]
Further, after estimating the road parameters again, the vehicle white line recognition device 1 can set a window using the road parameters. Therefore, white line candidate points can be more reliably included in the window.
[0174]
In this embodiment, a laser radar is used as the distance measuring means, but a millimeter wave radar that emits an electromagnetic wave may be used.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a vehicle white line recognition device.
FIG. 2 is a schematic side sectional view showing an installation position of a camera and the like.
FIG. 3 is a schematic plan view showing a state in front of a host vehicle.
FIG. 4 is a flowchart showing a procedure of processing by the vehicle white line recognition device.
FIG. 5 is an explanatory diagram showing an example of an image acquired by a camera.
FIG. 6 is an explanatory diagram showing how a white line candidate point is detected.
FIG. 7 is an explanatory diagram showing how a white line candidate line is detected.
FIG. 8 is an explanatory diagram showing an array table regarding the relationship between the inclination a of the white line candidate line and the x-intercept b.
FIG. 9 is an explanatory diagram showing a connection table regarding the relationship between the inclination a of the white line candidate line and the x-intercept b.
FIG. 10 is an explanatory diagram showing a connection table relating to the relationship between the inclination a of the white line candidate line and the x-intercept b.
FIG. 11 is an explanatory diagram showing an intersection between a white line candidate line and an upper end portion of a window.
FIG. 12 is a flowchart showing a procedure for estimating a road parameter.
FIG. 13 is a schematic side sectional view showing a state in front of the host vehicle.
FIG. 14 is an explanatory diagram showing an example of an image acquired by a camera.
[Explanation of symbols]
1 White line recognition device for vehicles
2 Camera (photographing means)
4 laser radar (distance measuring means)
6. White line detection unit (white line detection means)
7 White line authenticity judgment unit (distance calculation means, judgment means)
60 Window setting section
61 White line candidate point detection unit
62 White line candidate line detection unit
63 Road Parameter Estimation Unit
64 Window resetting part
65 White line candidate point re-detection unit
66 White line candidate line re-detection unit
67 Road parameter re-estimator
68 White line detection memory

Claims (5)

自車両前方を撮影して、自車両前方の画像を取得する撮影手段と、この撮影手段により取得された画像に基づいて、走行路上の白線候補線を検出する白線検出手段と、を備えた車両用白線認識装置において、
自車両前方に検出波を発射して、この検出波を反射する前方物体を検出し、自車両からこの前方物体までの距離を計測する距離計測手段と、
前記撮影手段によって取得された画像に基づいて、自車両から前記白線検出手段により検出された白線候補線までの距離を算出する距離算出手段と、
前記距離算出手段により算出された距離が、前記距離計測手段により計測された距離以上である場合には、前記白線候補線は走行路上の白線ではないと判定する判定手段と、を備えたことを特徴とする車両用白線認識装置。
A vehicle comprising: a photographing means for photographing an image in front of the own vehicle to acquire an image in front of the own vehicle; and a white line detecting means for detecting a white line candidate line on a traveling road based on the image acquired by the photographing means. White line recognition device,
A distance measuring unit that emits a detection wave in front of the own vehicle, detects a front object reflecting the detection wave, and measures a distance from the own vehicle to the front object,
Distance calculating means for calculating a distance from the host vehicle to a white line candidate line detected by the white line detecting means, based on the image obtained by the photographing means;
When the distance calculated by the distance calculating means is equal to or longer than the distance measured by the distance measuring means, the determining means determines that the white line candidate line is not a white line on a traveling road. Characteristic white line recognition device for vehicles.
請求項1記載の車両用白線認識装置において、
前記判定手段は、前記距離算出手段により算出された距離が、前記距離計測手段により計測された距離以上であり、
且つ、前記距離算出手段により算出された距離と、前記距離計測手段により計測された距離との距離差が、この距離差について予め定められた基準距離差以下である場合には、前記白線候補線は走行路上の白線ではないと判定することを特徴とする車両用白線認識装置。
The vehicle white line recognition device according to claim 1,
The determining means, the distance calculated by the distance calculating means is greater than or equal to the distance measured by the distance measuring means,
When the distance difference between the distance calculated by the distance calculation means and the distance measured by the distance measurement means is equal to or less than a reference distance difference predetermined for the distance difference, the white line candidate line Is a vehicle white line recognizing device that determines that the vehicle is not a white line on a traveling road.
請求項2記載の車両用白線認識装置において、
前記基準距離差は、
前記撮影手段の路面からの高さをH、前記距離計測手段の路面からの高さをh、前記距離計測手段により計測された距離をLとすると、
Lh/(H−h)
の式によって算出されることを特徴とする車両用白線認識装置。
The vehicle white line recognition device according to claim 2,
The reference distance difference is
When the height of the photographing means from the road surface is H, the height of the distance measuring means from the road surface is h, and the distance measured by the distance measuring means is L,
Lh / (Hh)
A white line recognition device for a vehicle, wherein the white line recognition device is calculated by the following equation.
請求項1〜3の何れか1項に記載の車両用白線認識装置において、
前記白線検出手段は、前記白線候補線が走行路上の白線ではないと判定された場合に、前記画像上の前記白線候補線よりも内側の領域から、白線候補線を再度検出することを特徴とする車両用白線認識装置。
The vehicle white line recognition device according to any one of claims 1 to 3,
The white line detection means, when it is determined that the white line candidate line is not a white line on the traveling road, from the area inside the white line candidate line on the image, to detect the white line candidate line again, White line recognition device for vehicles.
請求項4記載の車両用白線認識装置において、
前記白線検出手段は、前記画像上の輝度が、この輝度について予め定められた基準変化量以上に変化する部分を走行路上の白線候補線として検出し、
前記領域から白線候補線を検出する場合には、基準変化量を前記予め定められた基準変化量よりも低い値に設定することを特徴とする車両用白線認識装置。
The vehicle white line recognition device according to claim 4,
The white line detection unit detects a portion where the luminance on the image changes by a predetermined reference change amount or more as the white line candidate line on the traveling road,
When detecting a white line candidate line from the area, the reference change amount is set to a value lower than the predetermined reference change amount.
JP2002261860A 2002-09-06 2002-09-06 White line recognition device for vehicles Pending JP2004098792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002261860A JP2004098792A (en) 2002-09-06 2002-09-06 White line recognition device for vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002261860A JP2004098792A (en) 2002-09-06 2002-09-06 White line recognition device for vehicles

Publications (1)

Publication Number Publication Date
JP2004098792A true JP2004098792A (en) 2004-04-02

Family

ID=32262109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002261860A Pending JP2004098792A (en) 2002-09-06 2002-09-06 White line recognition device for vehicles

Country Status (1)

Country Link
JP (1) JP2004098792A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8724093B2 (en) 2010-03-26 2014-05-13 Denso Corporation Apparatus and method for detecting division lines depicted on road
JP2017502409A (en) * 2013-12-17 2017-01-19 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Method for detecting mark on ground, driving support device, and automobile

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8724093B2 (en) 2010-03-26 2014-05-13 Denso Corporation Apparatus and method for detecting division lines depicted on road
JP2017502409A (en) * 2013-12-17 2017-01-19 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Method for detecting mark on ground, driving support device, and automobile
US10353065B2 (en) 2013-12-17 2019-07-16 Valeo Schalter Und Sensoren Gmbh Method for detecting a mark made on a ground, driver assistance device and motor vehicle

Similar Documents

Publication Publication Date Title
JP3596314B2 (en) Object edge position measuring device and moving object traffic judging device
EP3057063B1 (en) Object detection device and vehicle using same
JP3733875B2 (en) Road white line recognition device
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
EP1780675B1 (en) Object detector
JP4420011B2 (en) Object detection device
US8411900B2 (en) Device for detecting/judging road boundary
US20090192686A1 (en) Method and Driver Assistance System for Sensor-Based Drive-Off Control of a Motor Vehicle
JP6560355B2 (en) Landmark recognition apparatus and recognition method
JP2000357233A (en) Object recognition device
CN109948552B (en) A method of lane line detection in complex traffic environment
WO2019065970A1 (en) Vehicle exterior recognition device
CN107229906A (en) A kind of automobile overtaking&#39;s method for early warning based on units of variance model algorithm
JP4296287B2 (en) Vehicle recognition device
JP4067340B2 (en) Object recognition device and object recognition method
JPH08156723A (en) Vehicle obstacle detection device
JP2002334330A (en) Vehicle recognition device
JPH09297849A (en) Vehicle detection device
JP5888275B2 (en) Road edge detection system, method and program
US20220270375A1 (en) Object Recognition Method and Object Recognition Device
JP2005157731A (en) Lane recognition device and lane recognition method
JP3925285B2 (en) Road environment detection device
JP2010176592A (en) Driving support device for vehicle
JP3304905B2 (en) Object tracking recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080401