[go: up one dir, main page]

JP2004053278A - Forward vehicle tracking system and forward vehicle tracking method - Google Patents

Forward vehicle tracking system and forward vehicle tracking method Download PDF

Info

Publication number
JP2004053278A
JP2004053278A JP2002207390A JP2002207390A JP2004053278A JP 2004053278 A JP2004053278 A JP 2004053278A JP 2002207390 A JP2002207390 A JP 2002207390A JP 2002207390 A JP2002207390 A JP 2002207390A JP 2004053278 A JP2004053278 A JP 2004053278A
Authority
JP
Japan
Prior art keywords
vehicle
tracking
distance
detection
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002207390A
Other languages
Japanese (ja)
Other versions
JP3985615B2 (en
Inventor
Tomoko Shimomura
下村 倫子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002207390A priority Critical patent/JP3985615B2/en
Publication of JP2004053278A publication Critical patent/JP2004053278A/en
Application granted granted Critical
Publication of JP3985615B2 publication Critical patent/JP3985615B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a front vehicle tracking system and a front vehicle tracking method that can reliably track vehicles and are capable of robust, accurate measurement. <P>SOLUTION: The front vehicle tracking system comprises a laser radar 2 for scanning a front in the advance direction of vehicles; a laser radar data memory 4; a vehicle discovery point 5 for detecting front vehicles according to the reflection point of detection waves of the laser radar 2; an intensity distribution type creation section 6 for creating the intensity distribution type of reflection points; a vehicle tracking section 7 by utilizing intensity; a laser radar measurement evaluation section 8 for evaluating the measurement of laser radar; an electronic camera 3 for imaging the front in an advance direction; an image memory 9; a vehicle template creation section 10 for creating a template for tracking vehicles; a vehicle tracking processing section 11 for tracking vehicles by template matching; an image processing tracking reliability judgment section 12; and an integral processing section 13. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、車両に搭載される前方車両追跡システムおよび前方車両追跡方法に関する。
【0002】
【従来の技術】
従来のテンプレートマッチングを用いた先行車追跡技術としては、例えば、特開2002−99906などがある。この手法は、熱源を捉えることのできる赤外カメラとレーザレーダとの組み合わせにより先行車を追跡する手法であり、レーザレーダで検出した位置と対応する画像上の位置にテンプレートを切り、双方で追跡を行うことで、例えば、雨天に弱いレーザレーダが検出できない場合でも、熱を捉えることのできる画像により車両を追跡できるなど、互いの利点を活かすことによってロバストに車両を追跡することを特徴とする。
【0003】
【発明が解決しようとする課題】
しかし、この方法では、赤外カメラを用いていることから、例えば、夏など気温の高い環境では車両の熱源を用いたテンプレートマッチングの精度が低くなるという問題がある。また、車両の追跡確実性を考慮しているが、特に横方向の計測高精度化に対する工夫がなく、構成として熱源を捉えていることから、車両のエッジを精度よく検出することが難しく、画像上で厳密にエッジを検出することができないため、車両の微妙な動き、特に横方向の細かい動きを計測することが困難である。
【0004】
本発明の目的は、車両を確実に追跡することができ、システム全体としてロバストで精度の高い計測を行うことができる前方車両追跡システムおよび前方車両追跡方法を提供することにある。
【0005】
【課題を解決するための手段】
上記の課題を解決するため、本発明は、進行方向前方をスキャニングする検出波出力手段と、この検出波出力手段が出力した検出波の反射点により前方車両を検出する車両発見手段と、検出波出力手段により計測した距離をも考慮し、反射点の強度分布型を作成する強度分布型作成手段と、前記強度分布をも利用しながら、前方車両の位置を計測する強度利用での車両追跡手段と、検出波出力手段の追跡結果を評価する検出波出力手段計測評価手段と、進行方向前方を撮像するカメラと、検出波出力手段により計測した距離をも考慮し、前方車両の追跡用テンプレートを作成する車両テンプレート作成手段と、テンプレートマッチングにより車両追跡を行う車両追跡処理手段と、カメラの画像処理による前方車両の追跡信頼性を評価する画像処理追跡信頼性判定手段と、検出波出力手段による追跡評価結果と、画像処理による追跡評価結果とを統合判定し、前方車両の位置を算出する統合処理手段とを有するものである。
【0006】
【発明の効果】
本発明によれば、車両を確実に追跡することができ、システム全体としてロバストで精度の高い計測を行うことができる。
【0007】
【発明の実施の形態】
以下、図面を用いて本発明の実施の形態について詳細に説明する。なお、以下で説明する図面で、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
【0008】
実施の形態1
図1は、本実施の形態1の前方車両追跡システムの構成図である。図2は、レーザレーダとカメラを搭載した自車両の図と、後述の説明に用いる検出対象物標の位置を表すための基準座標系の説明図であり、(a)は横から見た図、(b)は上から見た図である。
【0009】
図において、1は自車両(図2)、2は検出波出力手段であるスキャニングレーザレーダ(以下、レーザレーダと記す)、3は電子式のカメラ、4はレーザレーダデータメモリ、5は車両発見部、6は反射強度(以下、強度と記す)分布型作成部、7は強度利用での車両追跡部、8はレーザレーダ計測評価部、9は画像メモリ、10は車両テンプレート作成部、11は車両追跡処理部、12は画像処理追跡信頼性判定部、13は統合処理部(総合評価部、総合判定部)である。
【0010】
図1に示すように、本実施の形態1の前方車両追跡システムは、自車両1に搭載されたレーザレーダ2と、カメラ3の2つのセンサを搭載している。
レーザレーダ2を利用した処理部は、レーザレーダ2から入力されるスキャニング角ごとのデータを格納するレーザレーダデータメモリ4と、そのデータから前方の車両を発見する車両発見部5と、発見した車両の強度分布を追跡中の車両の特徴を示す強度分布型として保存する強度分布型作成部6と、車両発見後は強度分布をも利用しながら車両の位置をより確実に計測する強度利用での車両追跡部7と、車両の追跡結果の確実性を評価するレーザレーダ計測評価部8とを有する。
【0011】
一方、カメラ3を利用した処理部は、カメラ3から入力される画像を保存する画像メモリ9と、レーザレーダ2で車両を発見した位置に相当する画像上の位置に車両追跡用のテンプレートを作成する車両テンプレート作成部10と、車両追跡開始後は、作成されたテンプレートから距離変化による大きさ変化を考慮した上で、テンプレートマッチングにより車両追跡を行う車両追跡処理部11と、画像処理による車両の追跡信頼性を評価する画像処理追跡信頼性判定部12とを有する。
【0012】
そして、レーザレーダ2による追跡評価結果と、カメラ3で撮像した画像処理による追跡評価結果とを統合判定し、最終的な追跡中の車両位置を算出する統合処理部13を有する。
【0013】
カメラ3とレーザレーダ2は、図2に示すように自車両1の前部に取り付けられており、レーザレーダ2は、自車両1の前方路面に平行な方向で1次元的にスキャニングしながら、前方の物体までの距離と方位を計測し、カメラ3は同じ方向である自車両1の前方の様子を撮像する。また、ここでは、物体位置を表記するための座標系を図2に示すように設ける。すなわち、各軸は、レーザレーダ2の中心軸方向をZ軸、中心軸に垂直で路面に平行な方向をX軸、路面に垂直な方向をy軸とする。また、Z軸方向の位置を「距離」、X軸方向の距離を「横位置」とする。
【0014】
図3(a)は、レーザレーダ2で車両を計測したときのレーザレーダ2の計測位置を示す図、図3(b)はその場合の前方の画像を示す図、図3(c)はもっとも近距離にある車両の強度分布を示す図である。
【0015】
レーザレーダ2は前方に存在する光を反射する物体を検知し、レーザレーダ2から送信される送信波の送信とその波を受信するまでの時間差から、光を反射した物体までの距離を計測する装置である。その送信波は、スキャン角ごとに同じエネルギーを持つが、受信する光の強さは、光の反射率による。道路環境においては、光を反射するものとして、鉄製の看板、デリニエータと呼ばれる路側に取り付けられた反射板(リフレックスリフレクタ。以下、リフレクタと記す)、および、前方を走行する車両などが上げられる。この中でも、路側や車両の背面に取り付けられたリフレクタは、運転手から前方の車両や路側の存在を認識しやすくなるように取り付けられた反射板であるため、光を効率よく反射するようになっている。そのため、レーザレーダ2でこれらのリフレクタを検出すると、強い強度の光を受光できる。通常、強度は、物体までの距離が長いほど小さな値となるが、車両は反射効率の良いリフレクタを取り付けていることから、遠方でも安定して検知計測することができる。
【0016】
レーザレーダデータメモリ4は、レーザレーダ2で計測したデータを保存する。追跡処理はこのレーザレーダデータメモリ4に保存されたデータを用いて行う。
【0017】
図1に示した車両発見部5では、図3(a)、(c)に示すようなレーザレーダ2の検知点の分布から車両を検出し、その方位と距離を計測する。この処理は、例えば、図3に示すように、車両の幅程度の間隔で検出され、時系列的に同じ方向に動く左右1組の点や車幅程度の幅の連続する点を見つけるなどの従来の手法を適用すればよい。
【0018】
また、車両には、前述のように、リフレクタという光を効率よく反射する反射板が取り付けられているが、距離が近い場合、ボディ面やナンバプレートからの反射光をレーザレーダ2で受光することもできる。このようにボディからの反射光が受光できる程度の距離の場合、車両の強度分布は、図3(c)に示すように、リフレクタの位置の強度が強く、ボディ面は比較的弱い強度分布となる。
【0019】
図4は距離と、強度分布の関係を示した概念図である。強度は距離が長くなると小さくなる。しかし、リフレクタの位置は車両特有のもので、不変であり、車種によってさまざまであるため、この強度分布の形状は追跡車両の特徴を示す値の1つともなる。
【0020】
強度分布型作成部6による処理と、強度利用での車両追跡部7による処理は、このようなレーザレーダ2から得られる車両の強度分布特性を利用した処理である。まず、強度分布型作成部6では、車両発見部5の処理で検出した車両を対象とし、その車両の強度分布を車両追跡用強度分布型として保存する。図3(a)のような場面で車両20Aを追跡車両(前方車両)とした場合、図3(c)の強度分布が保存対象の強度分布型となる。また、この際、強度分布のピークの位置は、距離に応じて変化するため、強度分布型の作成時の距離も同時に保存する。図3の場合、距離zA(自車両1と車両20Aとの距離)を同時に保管すればよい。
【0021】
図3(a)、(b)において、21は路上反射物である。この路上反射物21等の静止物は自車速度と同じ相対速度で近づいてくることから静止物と判定する。車両20Aや20Bは、2つのペアが同じ速度で動物体を示す相対速度で移動することから車両と判定する。
【0022】
強度利用での車両追跡部7では、この強度分布型を用いた分布型マッチングによる位置計測を行う。図5はその様子を示す図で、(a)は検知点グルーピングでの物体位置計測を示し、(b)は強度分布とのマッチングで横位置を検出する様子を示す。
【0023】
車両発見部5によるレーザレーダ2からの前方車両の検出は、前述(図3)同様の相対速度や車幅程度の大きさを示す物体の検出およびその相対速度から判断できる。しかし、検知点のデータは特にボディ反射など強度の弱い部分では不安定である。特に、図5(a)に示すように、車両の端はボディ面が自車両1(に搭載したレーザレーダ2)に対して斜め向きであるため、背面よりも反射点の検知が不安定となる。しかし、従来手法のような点のグループ化で車両の位置を検出すると、距離(zA)は正確に計測できるが,横位置(xA)の計測が不安定となる。(ただし、ここでは、横位置は、図に示すように、仮に物体検出結果(図中の破線四角)の中心を物体の横位置とする。)そこで、ここでは、安定して検出されるリフレクタの位置の移動を細かく計測できるように、図5(b)に示すように、追跡車両のデータを用いて作成した強度分布型を用いた分布型マッチングを行う。これにより、より正確に、距離だけでなく、横方向の動きも計測できるようになる。
【0024】
図1のレーザレーダ計測評価部8では、レーザレーダ2で追跡中の車両の信頼性を評価する。ここでは、例えば、距離の計測値の信頼性は、追跡距離の急激な変化なく安定して同程度の幅の物体が検出できていることの時間的な連続性(例えば連続回数や距離変化の度合い)から信頼性を評価できる。また、追跡中の車両の横位置に関しては、レーザレーダ計測評価部8の強度分布評価値から判定できる。具体的には、定義した強度分布型と、実際に観測した強度で正規化相関を求めるなどで評価値は計算できる。例えば、図5(b)の時刻t+Δtの車両20Bの場合、片側のリクレクタが検知できてないことから、強度分布の形状が分布型と大きく異なる。レーザレーダ2による横位置の計測は大きくずれている可能性が高い。このようなことから、強度分布との正規化相関は横位置の評価値となる。この評価値は、後述の統合処理部13で用いる。
【0025】
次に、カメラ3を用いた車両追跡処理について説明する。
画像メモリ9は、カメラ3で撮像した画像を保存する。追跡処理はこの画像メモリ9に保存された画像を用いた画像処理により行う。
画像処理による追跡は、レーザレーダ2で検出した車両をターゲットとして行う。まず、車両テンプレート作成部10では、レーザレーダ2で車両を発見した位置、距離に応じて、その位置に存在すべき車両が撮像される画像上の位置でテンプレートを切る。この位置の定義は、次の方法で計算できる。
【0026】
図6は、画像上の位置と、実際の3次元上の位置、大きさとの対応関係を説明する図で、(a)は位置、(b)は大きさの関係を示す。
図6において、31はカメラレンズ、14はカメラの光軸、32は実際の車両の中心、33は撮像面、zは車両までの距離、fはカメラレンズ31の焦点距離、xcは画像上の車両の中心、θは画像上の車両の中心xcで検出された位置の物体の存在する方位、wは実際の車両の幅、wcは画像上の車両の幅である。
【0027】
画像上の車両の中心xcで検出された位置の物体の存在する方位θは、式1により求めることができる。
【0028】
θ=tan−1(f/xc)   式1
また、車両の実際の幅wが既知である場合は、車両までの距離zは、画像上の車両の幅wcから、式2により計算することができる。
【0029】
z=f・w/wc   式2
検出位置は、画像上での検出位置に式1、式2を適用することで計算することができる。
【0030】
また、車両の発見後、画像の処理間隔ごとに入力される画像での車両の画像上の位置は、参照対象である車両テンプレート(以下、参照テンプレートと記す)とのテンプレートマッチングによる追跡処理により検出する。これを行うのが、参照テンプレートとのマッチングによる車両追跡処理部(車両位置検出部)11である。通常、前方で撮像した車両は、その距離zが変化するため、その距離に応じて、画像上の大きさが変化する。そのため、車両追跡処理部11のテンプレートマッチングでは、参照画像もしくは入力画像を拡大縮小することで、参照画像内の車両の大きさと入力画像内に撮像されている車両の大きさが同じ大きさになるように、どちらかの画像を拡大縮小しながらテンプレートマッチングを行う。
【0031】
図7は、入力画像側の画像を参照テンプレートに合わせる処理を行う場合の処理の様子を表す図である。
【0032】
41は参照テンプレート作成時の画像(距離zb)、42は入力画像(距離z(t))、43は走査範囲である。参照テンプレート作成時の画像41は、車両がS=z(t)/zb倍である。
【0033】
ここでは、レーザレーダ2により参照テンプレート作成時の距離zbと、新たな画像入力時の距離z(t)の変化がわかっている。そのため、参照テンプレート作成時の車両の大きさから、車間距離がΔzだけ変化した場合の画像上での車両の大きさ変化を式2の原理で計算することで、大きさを合わせた上でテンプレートマッチングを行えばよい。相関(テンプレートマッチング)の計算は、お互いの輝度値を用いた正規化相関を用いればよく、相関の最も高い位置が、新たな入力画像内の車両の検出位置となる。
【0034】
すなわち、図7において、参照テンプレート作成時の距離をzbとすると、新しい画像入力時の距離z(t)はレーザレーダ2で計測する。また、入力画像内の車両の大きさとテンプレート内車両の大きさの比率は、1/zb:1/z(t)である。つまり、S=zb/z(t)の拡大縮小を行いながら、参照テンプレートとのマッチングを行う。入力画像42では、倍率S1倍なので、距離は、参照テンプレート作成時の距離zbの1/S1倍として計算できる。つまり、相関が最大のときの位置(xp、yp)が、入力画像42内の車両の検出位置である。
【0035】
また、仮に、レーザレーダ2で車両を見失った場合や、画像の方が検知角が広く、レーザレーダ2では検知角外だが、画像では検知範囲内である場合など、レーザレーダ2での距離が計測できない場合は、前回の距離からの微小距離変化Δz分だけ距離の変化が起きたことを想定しながらの拡大縮小を行ったテンプレートマッチングを適用すればよい。図8はその様子を示した図である。つまり、図8は、レーザレーダ2による距離計測が行われない場合の、拡大縮小しながらの参照テンプレートを用いたテンプレートマッチングの説明図と、拡大縮小率からの距離計測方法の説明図である。
【0036】
この場合の手順としては、入力画像42に車両の距離変化を想定した拡大縮小の倍率(S1、S2…)を複数かけ合わせた画像を、走査範囲43内で1画素ずつずらしながら切り出し、相関を計算する。相関がもっとも高い値となったときの倍率Sとその位置(xp、yp)より車両の位置を求める。
【0037】
つまり、走査範囲43内を1画素ずつずらしながら、かつ、Δz分の距離変化の拡大縮小を施しながらのすべての位置、拡大縮小における相関を計算し、相関値が最大となる位置と拡大縮小値を求める。
【0038】
以上説明したように、本実施の形態1では、レーザレーダ2による距離が計測できない場合、画像の走査範囲43内を所定の画素数ずつずらしながら、前回計測した距離からの微小距離変化Δz分の距離変化の拡大縮小を施したテンプレートマッチングを用いる。このような構成により、レーザレーダ2による距離が計測できない場合でも、車両を確実に追跡することができ、システム全体としてロバストで精度の高い計測を行うことができる。
【0039】
次に、画像処理追跡信頼性判定部12において、上記画像処理におけるテンプレートマッチングの車両追跡の信頼性を判定する。評価値は、車両追跡処理部11の処理における最大相関値とすればよい。
【0040】
追跡の失敗/成功は、最大相関値としきい値との比較により、相関値が所定の値以下の場合は、マッチングによる追跡が失敗したと判定し、相関値が所定の値以上となったときは、信頼性があると判定する。
【0041】
次に、統合処理部13の処理について説明する。
統合処理部13では、レーザレーダ2と、カメラ3で撮像した画像処理による追跡評価値を評価する。これは、前に説明したレーザレーダ計測評価部8で求めたレーザレーダ2の評価値と、画像処理追跡信頼性判定部12により求めた画像処理による追跡評価値を用いる。
【0042】
ここで、例えば、レーザレーダ2の検知点ロストや追跡性が低い場合は、画像処理の結果から距離、横位置を算出し、逆に画像処理の相関値がしきい値以下の場合は、追跡を失敗しているとみなし、レーザレーダ2の計測評価の結果から距離、横位置を算出する。
【0043】
ここで、距離、横位置の算出は、レーザレーダ2の計測評価の結果から距離、横位置を算出する場合は、レーザレーダ2で計測した結果を距離、強度分布型により相関が高い位置として求められた横位置(図5のxA)を横位置とする。
【0044】
一方、画像処理から距離、横位置を算出する場合は、次の方法を用いる。画像処理では距離の計測はできないが、前回の処理結果からの距離変化の計測は可能である。そこで、もっとも相関の高い値を得たテンプレートと参照テンプレート、または1回前の処理での車両の大きさとの大きさ変化より距離を計測すればよい。距離が算出された場合、横位置は、図6で説明した幾何学的計算により算出可能である。
【0045】
また、レーザレーダ2による追跡において、車両の追跡はできているが、強度評価値が低い場合は、距離はレーザレーダ、横位置の算出は、画像処理の結果を用いることで、より確実な横位置を算出することができる。
【0046】
以上説明したように、本実施の形態1の前方車両追跡システムの構成は、図1に示したごとく、自車両1(図2)の進行方向前方をスキャニングするレーザデータ2と、レーザデータ2が出力した検出波を反射した反射点により前方車両を検出する車両発見部5と、レーザデータ2により計測した距離をも考慮し、反射点の強度分布型を作成する強度分布型作成部6と、強度分布をも利用しながら、前方車両の位置を計測する強度利用での車両追跡部7と、レーザデータ2による前方車両の追跡結果の確実性を評価するレーザデータ計測評価手段8と、自車両1の進行方向前方を撮像するカメラ3と、レーザデータ2により計測した距離をも考慮し、レーザデータ2により検出した位置に対応する画像上の位置に前方車両の追跡用テンプレートを作成する車両テンプレート作成部10と、作成されたテンプレートから距離変化による大きさ変化を考慮し、テンプレートマッチングにより車両追跡を行う車両追跡処理部11と、カメラ3の画像処理による前方車両の追跡信頼性を評価する画像処理追跡信頼性判定部12と、レーザデータ2による追跡評価結果と、画像処理による追跡評価結果とを統合判定し、最終的な前方車両の自車両1に対する位置を算出する統合処理部13とを有する。
【0047】
なお、レーザデータ2が、特許請求の範囲の検出波出力手段に相当し、車両発見部5が車両発見手段に相当し、強度分布型作成部6が強度分布型作成手段に相当し、強度利用での車両追跡部7が強度利用での車両追跡手段に相当し、レーザデータ計測評価手段8が検出波出力手段計測評価手段に相当し、車両テンプレート作成部10が車両テンプレート作成手段に相当し、車両追跡処理部11が車両追跡処理手段に相当し、画像処理追跡信頼性判定部12が画像処理追跡信頼性判定手段に相当し、統合処理部13が統合処理手段に相当する。
【0048】
また、本実施の形態1の前方車両追跡方法は、自車両1の進行方向前方をレーザデータ2によりスキャニングし、カメラ3により自車両1の進行方向前方を撮像し、レーザデータ2が出力した検出波を反射した反射点を検出し、反射点の自車両1に対する相対位置を測定し、反射点から前方車両を検出し、反射点の強度分布から前方車両の強度分布特性を示す強度分布型を作成し、カメラ3により撮像した画像を用いて、レーザデータ2により検出した位置に対応する画像上の位置に前方車両の追跡用テンプレートを作成し、レーザデータ2の強度分布マッチングと、画像処理におけるテンプレートマッチングの2つの手段で車両追跡を行い、追跡確実性の高い方の計測値により前記前方車両の位置を計測する。
【0049】
このような構成により、本実施の形態1では、自車両1に搭載され、進行方向前方の車両をスキャニングしながら検知計測するレーザレーダ2と、前方に存在する車両をテンプレートマッチングなどの物体位置追跡手法により画像上における車両の位置を追跡、計測することの可能なカメラ3、および画像処理手段を備えた構成において、レーザレーダ2が車両を検出した場合、レーザレーダ2で計測できる車両の特徴を示す車両の強度分布自体の追跡と、画像処理におけるテンプレートマッチングの2つの手段で車両追跡を行い、追跡確実性の高い方の計測値により、車両の位置を計測することを特徴とする構成とした。これにより、カメラ3もしくはレーザレーダ2の片方が車両をロストした場合でも確実に車両を追跡することが可能となり、システム全体としてロバストで確実な計測を行うこと可能となる。また、2つのセンサとも計測ができている場合であっても、そのうち、追跡信頼性の高い方の計測結果を利用することで、より信頼性の高い計測結果とすることも可能となる。
【0050】
実施の形態2
次に、本発明の実施の形態2について説明する。
本実施の形態2では、レーザレーダ2と画像処理のお互いの計測の利点を活かし、統合処理部13において、距離や横位置が高精度に計測できる方を選択することで、システム全体としてより高精度なシステムとする。この高精度な計測の選択は、次のような方法で行えばよい。
【0051】
図9(a)は、カメラ3の方がレーザレーダ2より広角な場合、図9(b)は、レーザレーダ2よりカメラ3の方が広角な場合の検知角を示す図である。
【0052】
図9で、51はレーザレーダ検知角、52はカメラ検知角、53はレーザレーダ2の方が高精度計測が可能な領域、54は画像処理の方が高精度計測が可能な領域である。
【0053】
まず、横方向の計測距離は、通常、横の分解能の細かい方(画像の場合は1画素に相当する角度、レーザレーダ2の場合は1つのスキャン角度)の細かい方を利用すればよい。ただし、検知可能な範囲が異なる場合が多いため、図9(a)に示すように、画像の方がレーザレーダ2より広角な場合と、画像しか撮像されない場合は、画像処理の結果を用い、逆の場合はレーザレーダ2の結果を用いればよい。
【0054】
次に、距離の精度の高精度化について説明する。
図10は、レーザレーダ2と画像処理それぞれにおける。計測原理の特徴から算出される。距離計測精度(距離計測の最小分解能)と計測距離の長さの関係を示すグラフである。
【0055】
図10で、55はレーザレーダ2の計測距離分解能、56は画像処理の計測距離分解能を示す。
【0056】
レーザレーダ2の計測原理は送信波を送信してから受信するまでの時間差であり、この分解能光の波長によって決まるため、分解能は、距離に関係なく一定値である。(ただし、距離が近すぎる場合、受光波が強すぎる、先行車の形状によっては、反射する面が検知角に入らない、などの問題があり、計測精度が落ちる場合もある。)。一方、画像処理による距離計測、つまり、距離変化計測は、前記式2に示すように、画像上の大きさ変化により行い、例えば、検出物体の画像上の大きさwcの1画素のずれを計測最小分解能とすると、距離と分解能とは、式3の関係となる。
【0057】
Δz=w・f/wc−w・f/(wc±1)=±z/(w・f±z)   式3
ただし、wは実際の車両の幅、zは車両までの距離、wcは画像上の幅、fは焦点距離である。この分解能Δzは距離zが長いほど大きくなる。つまり、画像処理による計測は距離が近くなるほど高精度で、遠ざかるほど粗くなると言える。例えば、距離が遠い車両は小さくなるが、画像上で車両の幅が2画素のものが1画素欠け、誤って1画素の幅となる場合、計測距離は半分の距離に計測されてしまうが、画像上で100画素の幅のものが101画素となっても、誤差は約1%(=100/101)でしかなく、微小な誤差にしかならないことからも明らかである。
【0058】
このようなことから、遠方はレーザレーダ2、近距離は画像による計測結果を選択することで高精度化が可能となり、その遠距離、近距離の切り分けは、例えば図10のグラフの交わる距離とすればよい。
【0059】
つまり、距離、横位置を総合すると、画像の方が広角な場合は、遠方の距離をレーザレーダ2の計測結果、レーザレーダ2の端や斜め前方および近距離は画像処理の結果を用い、レーザレーダ2の方が広角な場合は、近距離の計測は画像処理、それ以外はレーザレーダ2の距離、横位置の計測結果を用いればよい(図9(a)、(b)参照)。
【0060】
これにより、片方しか検知角の範囲内にない場合でのもう片方が検知できていれば車両の追跡が可能となり、かつ、高精度な距離計測結果を利用することで、全体として、ロバストで高精度な計測が可能となる。
【0061】
以上説明したように、本実施の形態2の前方車両追跡システムは、予め定めた所定の距離以上の遠方ではレーザレーダ2のデータを用い、所定の距離より小さい近距離ではカメラ3のデータを用い、レーザレーダ2またはカメラ3のセンサのうち、検知角が小さい方の該検知角端で前方車両が検出される場合は、検知角が広い方のセンサのデータを用いる。
【0062】
このような構成により、本実施の形態2では、前記実施の形態1の確実性の判定については、互いの強度分布マッチングおよびテンプレートマッチングの相関値の評価だけでなく、互いのセンサの計測分解性能および計測精度を活かし、計測を確実とし、かつ、分解能の細かい計測が可能である。遠方ではレーザレーダ2、近距離では画像、画像またはレーザレーダ2で検知可能な角度が小さい方の検知角の端で検出される場合は、検知角度が広い方のセンサのデータとする構成とした。これにより、ロバスト性が増すだけでなく、高精度な計測結果を利用可能となることから、システム全体として、高精度な位置計測が可能となる。
【0063】
実施の形態3
次に、本発明の実施の形態3について説明する。
本実施の形態3では、前述の実施の形態2において画像の方がレーザレーダ2より広角な場合におけるレーザレーダ2の結果の適用範囲を採用し、車両が近距離に存在する場合は、レーザレーダ2の検知角を実際より狭い幅に設定し、レーザレーダ検知角端で検出される車両の場合は、画像処理の結果を採用するようにする。
【0064】
図11は、その理由と検知角端の判定方法を説明する図で、(a)はレーザレーダ2の検知点、(b)は検知角端のレーザレーダ2の検知点を示す図である。
【0065】
図11(b)に示すように、車両がレーザレーダ2の検知角端で検出される場合、実際には車両の反射は検知角の外にあるにもかかわらず、検知角に沿うように検知点が残り、計測誤差のある検知点が観測されるという現象が起こりやすい。この場合、この点を用いて、車両の横位置、距離を計測すると誤差が現われやすい。本実施の形態3では、このような誤計測を回避するため、画像処理による計測精度のよい近距離に限り、画像処理によるテンプレートマッチングの追跡が、相関値がしきい値以上になる程度に正確に行われている場合では、レーザレーダ2の検知範囲に車両が存在する場合であってもレーザレーダ2の計測値ではなく、画像処理の計測結果を適用するようにする。
【0066】
これにより、前述のような現象が原因で起こる誤計測を防ぐことができる。
【0067】
以上説明したように、本実施の形態3の前方車両追跡システムは、レーザレーダ2の検知角の方がカメラ3の検知角より小さい場合、検知角端で前方車両が検出されるかどうかの判定は、レーザレーダ2による前方車両上の検知点の距離の値のばらつきが大きくなる傾向がある角度から判定するか、もしくは、検知点の距離の値のばらつきが大きくなる現象を観測したことから判定し、ばらつきが大きくなった場合、カメラ3のデータを用いる。
【0068】
このような構成により、本実施の形態3では、前記実施の形態2の検知角端の判定において、レーザレーダ2の方が検知角度が小さい場合、検知角端の判定を、追跡車両上が検知角の端で検出された場合に、その計測のばらつきが大きくなる傾向がある角度から判定する。もしくは、その現象を観測したことから判定する構成とした。通常、レーザレーダ2の検知角の端は、距離の精度が悪くなることが多いため、距離および横位置を正しく求められなくなりやすいという問題がある。このような不安定さを考慮することで、誤差を含んだ計測結果の利用を排除できるため、より確実、かつ、高精度な車両位置の計測が可能となる。
【0069】
実施の形態4
最後に、本発明の実施の形態4について説明する。
図12に、正面に車両の全体が撮像される程度の距離に位置していた車両が徐々に近づき、斜め前方の車両の一部が画像の範囲外に出る程度の位置に近づいた様子を表す。(a)は外側テンプレートの場合を示し、(b)は内側テンプレートも用意する場合を示す。61は外側テンプレート、62は内側テンプレートである。
【0070】
このように、前方の車両が至近距離に近づく、または、左右方向に遠ざかる方向に移動すると、車両の一部が画角の範囲内からはみ出てしまう。このような場面では、図12(b)に示すように、車両全体の形状を含む外側テンプレート61ではマッチングが不可能となり、正しい車両追跡ができなくなる。
【0071】
ここでは、レーザレーダ2および画像処理からの追跡車両の移動軌跡がわかっていることから、あらかじめ追跡車両が画角の外に出る可能性の高い位置に移動することを予想し、画角からはみ出る部分以外の特徴をもつ車両の一部や内部にテンプレートを切り直し(内側テンプレート62)、画角から出たと予想される場合では、その一部または内部のテンプレート(内側テンプレート62)を利用したテンプレートマッチングを行うようにする。例えば、車両が毎回の処理ごとに1mずつ近づいてくることがわかれば、前記式1、2で説明した原理により、車両の大きさとその直前に検出された画像上の位置および車両がΔt秒間に移動可能な距離を考慮すれば、車両の端が画角から出てしまうまでにかかる時間をある程度予想できる。このような予測により、テンプレートを画角から出てしまう前に準備しておくことができる。
【0072】
図13は、内側テンプレートと左右一部のテンプレートの定義の様子を示す図で、(a)は車両が接近したとき、(b)は車両が左側に移動しているときを示す。63は定義したテンプレート、64は車両内部追跡用テンプレート、65は車両右側追跡用テンプレートである。
【0073】
この一部または内部のテンプレートは、例えば、距離が非常に近づいた場合は、車両の左右両側が画角の外に出る可能性が大きいことから、車両の内部でテンプレートマッチングが可能なエッジやテクスチャ(模様、形状)を含むある部分に定義する(図13(a))。また、左右どちらかに移動している場合のうち、左に移動する場合は車両の右側、右に移動する場合は車両の左側の画像内に撮像される可能性の高い部分に定義する(図13(b))。
【0074】
また、図14には、車両の内部や右側にテンプレートを定義した図と、そのテンプレート内に含まれる車両上の位置の実座標系上における対応位置との関係を示す。(a)は、車両の内部にテンプレートを定義した場合、(b)、(c)は車両の右側にテンプレートを定義した場合である。
【0075】
71は内側テンプレートの右側(横位置xR、距離z)、72は内側テンプレートの左側(横位置xL、距離z)、xl、xrは画素である。
【0076】
通常、画像だけでの追跡でテンプレートを切り直し、例えば右側だけで追跡を行うように切り替えることを考えると、図14(c)に示すように画像内の追跡は可能であるが、その追跡結果が3次元上のどの距離、横位置に対応するかがわからなくなってしまう。例えば、図14(c)では、画像上のx’−xlの距離が実座標系のどの距離に相当するかわからない場合、テンプレートを切り直すと、画像上の追跡はできても3次元座標系上での距離、横位置の追跡計測ができなくなる。そのため、画像処理単独でテンプレートを部分テンプレートに切り替えるなどの操作を行う場合、画像上の位置を求めることはできるが、その部分の3次元的な距離や位置が計測できなくなる。しかし、ここではレーザレーダ2により距離の計測ができているため、図14(a)、(b)に示すように、テンプレートを車両の内側や左右に切り直した場合でも、実際の車両の横位置、距離を切り直し前から継続して計測できる。
【0077】
つまり、図14(b)では、レーザレーダ2での絶対距離の計測が可能であることから、内側テンプレートや右側テンプレートを定義した3次元上の位置も計算可能なため、テンプレートを切り直しても、距離、横位置の計測には支障がない。
【0078】
このような原理により、レーザレーダ2と画像とを組み合わせることで、画像から車両の一部が出てしまうような位置に車両が存在する場合でも、精度よく車両追跡が可能となる。
【0079】
さらに、左右に車両が移動する場合、通常、レーザレーダ2の方が検知角が狭いために、画像処理単独での計測となる場合もあるが、レーザレーダ2で計測ができているときからの距離変化をテンプレートの拡大縮小率から計測することで、距離の計測も可能となる。また、車両の左右のどちらか一部が画像内に撮像されていれば、右側または左側だけのテンプレートで追跡可能であることから、より一層の広角な範囲の追跡も可能となる。
【0080】
また、画像処理による追跡において、内部のテンプレートとあらかじめ定義した外側テンプレートの両方が利用できる環境にある場合は、2種類のテンプレートを用いた追跡を行うことで、より正確な追跡とすることも可能となる。
【0081】
以上説明したように、本実施の形態4の前方車両追跡システムは、テンプレートマッチングにおける車両追跡において、複数のテンプレートを用いる。そして、この複数のテンプレートは、特に車両に近づく場合は画像データに大小の関係を有し、一方が前方車両の全体、他方が前方車両の一部である。
【0082】
また、本実施の形態4の前方車両追跡方法は、テンプレートマッチングにおける車両追跡において、画像データに大小の関係を有し、一方が前記前方車両の全体、他方が前記前方車両の一部である複数のテンプレートを用いる。
【0083】
このような構成により、本実施の形態4では、前記実施の形態1の画像処理でのテンプレートマッチングにおける車両追跡において、追跡車両が近づく場合、もしくは、追跡車両の一部が画角端に位置する場合、車両内部の特徴を利用したテンプレートに切り直してテンプレートマッチングを行う構成とした。通常、車両が近づいたり画角の端の方向に移動すると車両の一部が画角からはみ出る場合がある。このような場合でも、車両の内部の形状を追跡対象として切り替えることが可能となるため、正確に追跡することが可能となる。また、左右方向に車両が遠ざかる方向に移動する場合でも、車両の一部が画角に残っていれば計測が可能となることから、より広範囲の車両追跡も可能となる。
【0084】
さらに、ここでは、レーザレーダ2により距離がわかっているため、あらかじめ車両がはみ出る程度に近づいたことを判定した上で、車両内部のテンプレートへの切り替えタイミングを決めることができる。また、画像処理単独でテンプレートを部分テンプレートに切り替えるなどの操作を行う場合、画像上の位置を求めることはできるが、テンプレートの位置を切り直すことでの実際の3次元的な距離および位置のずれに対応しないため、3次元上の動きの計測できなくなる。しかし、ここでは、距離がレーザレーダ2により常に計測できていることから、実車両のどの部分で定義したテンプレートとなるかも判定できるため、3次元的な距離、横位置の計測に悪影響を及ぼすことなくテンプレートの切り替えが可能となる。
【0085】
以上本発明を実施の形態に基づいて具体的に説明したが、本発明は上記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
【図面の簡単な説明】
【図1】本発明の実施の形態1のシステム構成図
【図2】カメラの車両への搭載位置と座標系設定の説明図
【図3】レーザレーダの検知点の様子と車両検出時の強度分布の説明図
【図4】車両の距離変化ごとの強度分布形状
【図5】レーザレーダの強度分布を利用した車両位置計測の横位置の高精度化の説明図
【図6】レーザレーダの検出位置と画像上での撮像位置、大きさの関係の説明図
【図7】レーザレーダでの計測距離結果に基づいた拡大縮小を行うテンプレートマッチングの説明図
【図8】レーザレーダによる距離計測が行われない場合の拡大縮小しながらの参照テンプレートを用いたテンプレートマッチングの説明図と、拡大縮小率からの距離計測方法の説明図
【図9】レーザレーダとカメラの検知範囲、およびそれぞれの計測を高精度に行うことができる領域の説明図
【図10】レーザレーダの計測と画像内の大きさ変化に基づいた距離計測の距離と距離計測分解能との関係を示すグラフ
【図11】レーザレーダ検知角端に車両が位置する場合の検知点ばらつきの様子と計測誤差が起こる理由の説明図
【図12】接近車両追跡における内側テンプレート利用によるテンプレートマッチングの説明図
【図13】内側テンプレートと左右一部のテンプレート定義の様子を示す図
【図14】テンプレートを内側または左右の一部に切り直した場合の画像上の位置と3次元上の位置関係の説明図
【符号の説明】
1…自車両、2…レーザレーダ、3…カメラ、4…レーザレーダデータメモリ、5…車両発見部、6…強度分布型作成部、7…強度利用での車両追跡部、8…レーザレーダ計測評価部、9…画像メモリ、10…車両テンプレート作成部、11…車両追跡処理部、12…画像処理追跡信頼性判定部、13…統合処理部、14…カメラの光軸、15…レーザレーダのスキャニング面、16…カメラの光軸およびレーザレーダの中心軸、20A、20B…他の車両、21…路上反射物、31…カメラレンズ、32…実際の車両の中心、33…撮像面、41…参照テンプレート作成時の画像、42…入力画像、43…走査範囲、51…レーザレーダ検知角、52…カメラ検知角、53…レーザレーダの方が高精度計測が可能な領域、54…画像処理の方が高精度計測が可能な領域、55…レーザレーダの計測距離分解能、56…画像処理の計測距離分解能、61…外側テンプレート、62…内側テンプレート、63…定義したテンプレート、64…車両内部追跡用テンプレート、65…車両右側追跡用テンプレート、71…内側テンプレートの右側、72…内側テンプレートの左側。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a forward vehicle tracking system and a forward vehicle tracking method mounted on a vehicle.
[0002]
[Prior art]
As a preceding vehicle tracking technology using conventional template matching, there is, for example, JP-A-2002-99906. This method tracks the preceding vehicle using a combination of an infrared camera that can capture the heat source and a laser radar.The template is cut at the position on the image that corresponds to the position detected by the laser radar, and tracking is performed by both. By performing, for example, even if a weak laser radar can not be detected in rainy weather, the vehicle can be tracked by an image capable of capturing heat, and the vehicle is robustly tracked by taking advantage of each other. .
[0003]
[Problems to be solved by the invention]
However, in this method, since an infrared camera is used, there is a problem that the accuracy of template matching using the heat source of the vehicle is low in an environment with a high temperature such as summer. In addition, although the tracking accuracy of the vehicle is taken into consideration, there is no particular effort to improve the accuracy of the measurement in the lateral direction, and since the heat source is captured as a configuration, it is difficult to detect the edge of the vehicle with high accuracy. Since the edge cannot be strictly detected on the above, it is difficult to measure a subtle movement of the vehicle, especially a fine movement in the lateral direction.
[0004]
An object of the present invention is to provide a forward vehicle tracking system and a forward vehicle tracking method that can reliably track a vehicle and perform robust and accurate measurement as a whole system.
[0005]
[Means for Solving the Problems]
In order to solve the above problems, the present invention provides a detection wave output unit that scans forward in a traveling direction, a vehicle detection unit that detects a preceding vehicle by a reflection point of the detection wave output by the detection wave output unit, and a detection wave Considering also the distance measured by the output unit, an intensity distribution type creating unit that creates an intensity distribution type of the reflection point, and a vehicle tracking unit that uses the intensity distribution to measure the position of a preceding vehicle while also using the intensity distribution. A detection wave output means measurement and evaluation means for evaluating the tracking result of the detection wave output means, a camera for imaging the front in the traveling direction, and a tracking template for the vehicle in front in consideration of the distance measured by the detection wave output means. Vehicle template creating means for creating, vehicle tracking processing means for performing vehicle tracking by template matching, and image for evaluating tracking reliability of a preceding vehicle by image processing of a camera And physical tracking reliability determination unit, a tracking result of evaluation by the detection wave output means and integration identifying and tracking evaluation results of image processing, and has a integrated processing means for calculating the position of the forward vehicle.
[0006]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, a vehicle can be tracked reliably and robust and highly accurate measurement can be performed as a whole system.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings described below, those having the same functions are denoted by the same reference numerals, and repeated description thereof will be omitted.
[0008]
Embodiment 1
FIG. 1 is a configuration diagram of a forward vehicle tracking system according to the first embodiment. FIG. 2 is a diagram of a vehicle equipped with a laser radar and a camera, and a diagram illustrating a reference coordinate system for representing the position of a detection target used in the following description. FIG. 2A is a diagram viewed from the side. , (B) is a view seen from above.
[0009]
In the figure, reference numeral 1 denotes a self-vehicle (FIG. 2), 2 denotes a scanning laser radar (hereinafter referred to as a laser radar) which is a detection wave output means, 3 denotes an electronic camera, 4 denotes a laser radar data memory, and 5 denotes a vehicle found. Unit, 6 is a reflection intensity (hereinafter referred to as intensity) distribution type creating unit, 7 is a vehicle tracking unit using intensity, 8 is a laser radar measurement and evaluation unit, 9 is an image memory, 10 is a vehicle template creating unit, and 11 is a vehicle template creating unit. A vehicle tracking processing unit, 12 is an image processing tracking reliability determination unit, and 13 is an integrated processing unit (overall evaluation unit, overall determination unit).
[0010]
As shown in FIG. 1, the forward vehicle tracking system according to the first embodiment includes a laser radar 2 mounted on a host vehicle 1 and a camera 3.
The processing unit using the laser radar 2 includes a laser radar data memory 4 for storing data for each scanning angle input from the laser radar 2, a vehicle finding unit 5 for finding a preceding vehicle from the data, The intensity distribution type creation unit 6 stores the intensity distribution of the vehicle as an intensity distribution type indicating the characteristics of the vehicle being tracked, and the intensity utilization that more reliably measures the position of the vehicle while using the intensity distribution after the vehicle is discovered. The vehicle includes a vehicle tracking unit 7 and a laser radar measurement and evaluation unit 8 that evaluates the reliability of the vehicle tracking result.
[0011]
On the other hand, the processing unit using the camera 3 creates an image memory 9 for storing the image input from the camera 3 and a vehicle tracking template at a position on the image corresponding to the position where the laser radar 2 has found the vehicle. A vehicle template creation unit 10 that performs vehicle tracking by template matching after considering the size change due to a distance change from the created template after the vehicle tracking is started; And an image processing tracking reliability determination unit 12 for evaluating tracking reliability.
[0012]
The integrated processing unit 13 integrates a tracking evaluation result obtained by the laser radar 2 and a tracking evaluation result obtained by image processing captured by the camera 3 to calculate a final vehicle position during tracking.
[0013]
The camera 3 and the laser radar 2 are attached to the front part of the own vehicle 1 as shown in FIG. 2, and the laser radar 2 performs one-dimensional scanning in a direction parallel to a road surface ahead of the own vehicle 1. The distance and direction to the object in front are measured, and the camera 3 captures an image of the front of the vehicle 1 in the same direction. Also, here, a coordinate system for expressing the object position is provided as shown in FIG. That is, the axes of the laser radar 2 are defined as a Z axis, a direction perpendicular to the central axis and parallel to the road surface is defined as an X axis, and a direction perpendicular to the road surface is defined as a y axis. The position in the Z-axis direction is referred to as “distance”, and the distance in the X-axis direction is referred to as “lateral position”.
[0014]
FIG. 3A is a diagram showing a measurement position of the laser radar 2 when a vehicle is measured by the laser radar 2, FIG. 3B is a diagram showing a front image in that case, and FIG. It is a figure showing intensity distribution of vehicles in a short distance.
[0015]
The laser radar 2 detects an object that reflects light existing in front and measures the distance to the object that reflects the light from the time difference between the transmission of the transmission wave transmitted from the laser radar 2 and the reception of the wave. Device. The transmitted wave has the same energy for each scan angle, but the intensity of the received light depends on the reflectance of the light. In a road environment, a signboard made of iron, a reflector (reflex reflector; hereinafter, referred to as a reflector) attached to a roadside called a delineator, and a vehicle traveling in front of the vehicle may be used to reflect light. Among them, the reflectors mounted on the roadside or on the back of the vehicle are reflectors mounted so that the driver can easily recognize the presence of the vehicle ahead or the roadside, and therefore reflect light efficiently. ing. Therefore, when these reflectors are detected by the laser radar 2, it is possible to receive light of high intensity. Normally, the intensity becomes smaller as the distance to the object becomes longer, but since the vehicle is equipped with a reflector having high reflection efficiency, detection and measurement can be performed stably even at a long distance.
[0016]
The laser radar data memory 4 stores data measured by the laser radar 2. The tracking process is performed using the data stored in the laser radar data memory 4.
[0017]
The vehicle detection unit 5 shown in FIG. 1 detects a vehicle from the distribution of detection points of the laser radar 2 as shown in FIGS. 3A and 3C, and measures its azimuth and distance. This processing is performed, for example, as shown in FIG. 3, by detecting a set of left and right points moving in the same direction in chronological order or a continuous point having a width of about the vehicle width, which is detected at intervals of about the width of the vehicle. A conventional method may be applied.
[0018]
As described above, the vehicle is provided with a reflector, which is a reflector that efficiently reflects light. However, when the distance is short, the laser radar 2 receives reflected light from the body surface or the number plate. You can also. When the reflected light from the body is at such a distance that the light can be received, the intensity distribution of the vehicle has a strong intensity distribution at the position of the reflector and a relatively weak intensity distribution on the body surface as shown in FIG. Become.
[0019]
FIG. 4 is a conceptual diagram showing the relationship between the distance and the intensity distribution. The intensity decreases as the distance increases. However, since the position of the reflector is specific to the vehicle, is invariable, and varies depending on the type of vehicle, the shape of the intensity distribution is one of the values indicating the characteristics of the tracked vehicle.
[0020]
The processing by the intensity distribution type creating unit 6 and the processing by the vehicle tracking unit 7 using the intensity are processes utilizing the intensity distribution characteristics of the vehicle obtained from the laser radar 2. First, the intensity distribution type creating unit 6 targets the vehicle detected in the process of the vehicle finding unit 5 and stores the intensity distribution of the vehicle as a vehicle tracking intensity distribution type. When the vehicle 20A is a tracking vehicle (front vehicle) in a scene as shown in FIG. 3A, the intensity distribution in FIG. 3C is an intensity distribution type to be stored. At this time, since the position of the peak of the intensity distribution changes according to the distance, the distance when the intensity distribution type is created is also stored. In the case of FIG. 3, the distance zA (the distance between the host vehicle 1 and the vehicle 20A) may be stored at the same time.
[0021]
3A and 3B, reference numeral 21 denotes a road reflector. Since the stationary object such as the road reflector 21 approaches at the same relative speed as the own vehicle speed, it is determined to be a stationary object. The vehicles 20A and 20B are determined to be vehicles because the two pairs move at the same speed and at the relative speed indicating the moving object.
[0022]
The vehicle tracking unit 7 using the intensity performs position measurement by distribution type matching using the intensity distribution type. FIGS. 5A and 5B are diagrams showing this state, in which FIG. 5A shows an object position measurement by detection point grouping, and FIG. 5B shows a state in which a horizontal position is detected by matching with an intensity distribution.
[0023]
The detection of the preceding vehicle from the laser radar 2 by the vehicle detection unit 5 can be determined from the detection of an object having a size similar to the above-described relative speed (FIG. 3) and the vehicle width and the relative speed thereof. However, the data of the detection point is unstable especially in a weak portion such as body reflection. In particular, as shown in FIG. 5A, since the body surface of the end of the vehicle is oblique to the own vehicle 1 (the laser radar 2 mounted thereon), the detection of the reflection point is more unstable than the back surface. Become. However, when the position of the vehicle is detected by grouping points as in the conventional method, the distance (zA) can be accurately measured, but the measurement of the lateral position (xA) becomes unstable. (However, in this case, as shown in the figure, the center of the object detection result (dashed square in the figure) is assumed to be the horizontal position of the object.) Here, the reflector that is stably detected is used here. As shown in FIG. 5B, distribution type matching using the intensity distribution type created using the data of the tracked vehicle is performed so that the movement of the position can be finely measured. As a result, not only the distance but also the horizontal movement can be measured more accurately.
[0024]
The laser radar measurement / evaluation unit 8 in FIG. 1 evaluates the reliability of the vehicle being tracked by the laser radar 2. Here, for example, the reliability of the distance measurement value is determined by the temporal continuity that an object of the same width can be detected stably without a sudden change in the tracking distance (for example, the number of continuations or the change in distance). The degree of reliability). Further, the lateral position of the vehicle being tracked can be determined from the intensity distribution evaluation value of the laser radar measurement and evaluation unit 8. Specifically, the evaluation value can be calculated by obtaining a normalized correlation using the defined intensity distribution type and the actually observed intensity. For example, in the case of the vehicle 20B at time t + Δt in FIG. 5B, the shape of the intensity distribution is significantly different from that of the distribution type because one of the reflectors cannot be detected. There is a high possibility that the measurement of the lateral position by the laser radar 2 is greatly shifted. Thus, the normalized correlation with the intensity distribution becomes the evaluation value of the horizontal position. This evaluation value is used by the integration processing unit 13 described later.
[0025]
Next, a vehicle tracking process using the camera 3 will be described.
The image memory 9 stores an image captured by the camera 3. The tracking process is performed by image processing using the image stored in the image memory 9.
Tracking by image processing is performed with the vehicle detected by the laser radar 2 as a target. First, the vehicle template creation unit 10 cuts a template at a position on an image where a vehicle that should be present at that position is captured according to the position and distance at which the laser radar 2 has found the vehicle. The definition of this location can be calculated in the following way.
[0026]
FIGS. 6A and 6B are diagrams for explaining the correspondence between the position on the image and the actual three-dimensional position and size, where FIG. 6A shows the position and FIG. 6B shows the size.
In FIG. 6, 31 is a camera lens, 14 is the optical axis of the camera, 32 is the center of the actual vehicle, 33 is the imaging surface, z is the distance to the vehicle, f is the focal length of the camera lens 31, and xc is on the image. The center of the vehicle, θ is the direction in which the object at the position detected at the center xc of the vehicle on the image exists, w is the actual width of the vehicle, and wc is the width of the vehicle on the image.
[0027]
The azimuth θ at which the object at the position detected at the center xc of the vehicle on the image exists can be obtained by Expression 1.
[0028]
θ = tan -1 (F / xc) Equation 1
When the actual width w of the vehicle is known, the distance z to the vehicle can be calculated from the width wc of the vehicle on the image by Expression 2.
[0029]
z = fw / wc Equation 2
The detection position can be calculated by applying Expressions 1 and 2 to the detection position on the image.
[0030]
Further, after the vehicle is found, the position of the vehicle in the image input at each image processing interval is detected by a tracking process using template matching with a vehicle template to be referred to (hereinafter referred to as a reference template). I do. This is performed by a vehicle tracking processing unit (vehicle position detecting unit) 11 that matches the reference template. Normally, the distance z of a vehicle imaged in front of the vehicle changes, so that the size on the image changes according to the distance. For this reason, in the template matching of the vehicle tracking processing unit 11, by enlarging or reducing the reference image or the input image, the size of the vehicle in the reference image and the size of the vehicle captured in the input image become the same size. As described above, template matching is performed while scaling either image.
[0031]
FIG. 7 is a diagram illustrating a state of a process when the process of matching the image on the input image side with the reference template is performed.
[0032]
41 is an image (distance zb) at the time of creating the reference template, 42 is an input image (distance z (t)), and 43 is a scanning range. In the image 41 when the reference template is created, the vehicle is S = z (t) / zb times.
[0033]
Here, it is known that the laser radar 2 changes the distance zb when the reference template is created and the distance z (t) when a new image is input. Therefore, the size of the vehicle on the image when the inter-vehicle distance changes by Δz is calculated from the size of the vehicle at the time of creating the reference template according to the principle of Equation 2, so that the size is adjusted and the template is adjusted. Matching may be performed. For the calculation of the correlation (template matching), a normalized correlation using the mutual luminance values may be used, and the position having the highest correlation is the detected position of the vehicle in the new input image.
[0034]
That is, in FIG. 7, when the distance at the time of creating the reference template is zb, the distance z (t) at the time of inputting a new image is measured by the laser radar 2. The ratio between the size of the vehicle in the input image and the size of the vehicle in the template is 1 / zb: 1 / z (t). In other words, the matching with the reference template is performed while scaling S = zb / z (t). In the input image 42, since the magnification is S1, the distance can be calculated as 1 / S1 times the distance zb at the time of creating the reference template. That is, the position (xp, yp) at which the correlation is maximum is the detected position of the vehicle in the input image 42.
[0035]
Further, if the vehicle is lost in the laser radar 2 or if the image has a wider detection angle and is out of the detection angle in the laser radar 2 but is within the detection range in the image, the distance at the laser radar 2 is longer. If the measurement cannot be performed, template matching may be applied in which enlargement or reduction is performed while assuming that the distance has changed by a minute distance change Δz from the previous distance. FIG. 8 is a diagram showing this state. That is, FIG. 8 is an explanatory diagram of the template matching using the reference template while enlarging and reducing when the distance measurement by the laser radar 2 is not performed, and an explanatory diagram of the distance measuring method from the enlargement / reduction ratio.
[0036]
As a procedure in this case, an image obtained by multiplying the input image 42 by a plurality of magnifications (S1, S2,...) Assuming a change in the distance of the vehicle is cut out while shifting one pixel at a time within the scanning range 43, and the correlation is calculated. calculate. The position of the vehicle is obtained from the magnification S when the correlation has the highest value and the position (xp, yp).
[0037]
In other words, the correlation in all the positions and scalings is calculated while shifting the scanning range 43 by one pixel and scaling the distance change by Δz, and the position where the correlation value becomes the maximum and the scaling value are calculated. Ask for.
[0038]
As described above, in the first embodiment, when the distance by the laser radar 2 cannot be measured, the distance within the scanning range 43 of the image is shifted by a predetermined number of pixels while the minute distance change Δz from the previously measured distance is shifted. The template matching that enlarges or reduces the change in distance is used. With such a configuration, even when the distance cannot be measured by the laser radar 2, the vehicle can be reliably tracked, and robust and accurate measurement can be performed as a whole system.
[0039]
Next, the image processing tracking reliability determination unit 12 determines the reliability of the vehicle tracking of the template matching in the image processing. The evaluation value may be the maximum correlation value in the processing of the vehicle tracking processing unit 11.
[0040]
The tracking failure / success is determined by comparing the maximum correlation value with a threshold value, and when the correlation value is equal to or less than a predetermined value, it is determined that tracking by matching has failed, and when the correlation value becomes equal to or more than the predetermined value. Determines that there is reliability.
[0041]
Next, the processing of the integration processing unit 13 will be described.
The integrated processing unit 13 evaluates a tracking evaluation value by image processing captured by the laser radar 2 and the camera 3. For this, the evaluation value of the laser radar 2 obtained by the laser radar measurement evaluation unit 8 described above and the tracking evaluation value by the image processing obtained by the image processing tracking reliability determination unit 12 are used.
[0042]
Here, for example, when the detection point of the laser radar 2 is lost or the tracking performance is low, the distance and the horizontal position are calculated from the result of the image processing. Conversely, when the correlation value of the image processing is equal to or smaller than the threshold, the tracking is performed. Is deemed to have failed, and the distance and the lateral position are calculated from the result of the measurement evaluation of the laser radar 2.
[0043]
Here, when calculating the distance and the lateral position from the result of the measurement evaluation of the laser radar 2, when calculating the distance and the lateral position, the result measured by the laser radar 2 is obtained as a position having a high correlation by the distance and intensity distribution type. The determined horizontal position (xA in FIG. 5) is defined as a horizontal position.
[0044]
On the other hand, when calculating the distance and the horizontal position from the image processing, the following method is used. The distance cannot be measured by the image processing, but the distance change from the previous processing result can be measured. Therefore, the distance may be measured from the template and the reference template that have obtained the highest correlation value, or the size change between the size of the vehicle and the size of the vehicle in the previous process. When the distance is calculated, the horizontal position can be calculated by the geometric calculation described with reference to FIG.
[0045]
In the tracking by the laser radar 2, the vehicle can be tracked, but when the intensity evaluation value is low, the distance is calculated by the laser radar, and the calculation of the lateral position is performed by using the result of the image processing to ensure a more reliable lateral tracking. The position can be calculated.
[0046]
As described above, the configuration of the forward vehicle tracking system according to the first embodiment includes, as shown in FIG. 1, the laser data 2 for scanning ahead of the own vehicle 1 (FIG. 2) in the traveling direction and the laser data 2. A vehicle detection unit 5 that detects a preceding vehicle by a reflection point that reflects the output detection wave, an intensity distribution type creation unit 6 that creates an intensity distribution type of the reflection point in consideration of the distance measured by the laser data 2, A vehicle tracking unit 7 that uses the intensity distribution to measure the position of the preceding vehicle while using the intensity distribution; a laser data measurement and evaluation unit 8 that evaluates the reliability of the tracking result of the preceding vehicle using the laser data 2; A camera template 3 for capturing the front of the vehicle in the traveling direction and a template for tracking the preceding vehicle at a position on the image corresponding to the position detected by the laser data 2 in consideration of the distance measured by the laser data 2. , A vehicle tracking processing unit 11 that performs vehicle tracking by template matching in consideration of a size change due to a distance change from the generated template, and a tracking reliability of a preceding vehicle by image processing of the camera 3. Image processing tracking reliability determining unit 12 for evaluating the performance, integrated determination of the tracking evaluation result based on the laser data 2 and the tracking evaluation result based on the image processing, and calculating the final position of the preceding vehicle with respect to the own vehicle 1. And a processing unit 13.
[0047]
The laser data 2 corresponds to a detection wave output unit in the claims, the vehicle detection unit 5 corresponds to a vehicle detection unit, the intensity distribution type creation unit 6 corresponds to an intensity distribution type creation unit, , The vehicle tracking unit 7 corresponds to a vehicle tracking unit using intensity, the laser data measurement and evaluation unit 8 corresponds to a detection wave output unit measurement and evaluation unit, the vehicle template creation unit 10 corresponds to a vehicle template creation unit, The vehicle tracking processing unit 11 corresponds to a vehicle tracking processing unit, the image processing tracking reliability determination unit 12 corresponds to an image processing tracking reliability determination unit, and the integration processing unit 13 corresponds to an integration processing unit.
[0048]
Further, the forward vehicle tracking method according to the first embodiment detects the forward direction of the host vehicle 1 using the laser data 2, captures the forward direction of the own vehicle 1 with the camera 3, and outputs the laser data 2. A reflection point that reflects the wave is detected, a relative position of the reflection point with respect to the own vehicle 1 is measured, a preceding vehicle is detected from the reflection point, and an intensity distribution type indicating an intensity distribution characteristic of the preceding vehicle is obtained from the intensity distribution of the reflection point. Using the image captured by the camera 3, a template for tracking the preceding vehicle is created at a position on the image corresponding to the position detected by the laser data 2, and the intensity distribution matching of the laser data 2 and the image processing are performed. The vehicle is tracked by two means of template matching, and the position of the preceding vehicle is measured by the measured value with the higher tracking certainty.
[0049]
With this configuration, in the first embodiment, the laser radar 2 mounted on the own vehicle 1 and detecting and measuring a vehicle ahead in the traveling direction while scanning, and an object position tracking such as template matching for the vehicle existing in front. In a configuration including a camera 3 capable of tracking and measuring the position of a vehicle on an image by a technique and an image processing unit, when the laser radar 2 detects a vehicle, the characteristics of the vehicle that can be measured by the laser radar 2 are as follows. Vehicle tracking is performed by two means, that is, tracking of the vehicle's intensity distribution itself and template matching in image processing, and the position of the vehicle is measured by the measurement value with the higher tracking certainty. . As a result, even when one of the camera 3 and the laser radar 2 has lost the vehicle, it is possible to reliably track the vehicle, and it is possible to perform robust and reliable measurement as a whole system. Further, even when measurement can be performed by both sensors, it is possible to obtain a more reliable measurement result by using the measurement result with the higher tracking reliability.
[0050]
Embodiment 2
Next, a second embodiment of the present invention will be described.
In the second embodiment, by taking advantage of the mutual measurement of the laser radar 2 and the image processing, the integrated processing unit 13 selects the one that can measure the distance and the horizontal position with high accuracy, so that the overall system has higher accuracy. An accurate system. This high-precision measurement may be selected by the following method.
[0051]
FIG. 9A is a diagram illustrating a detection angle when the camera 3 is wider than the laser radar 2, and FIG. 9B is a diagram illustrating a detection angle when the camera 3 is wider than the laser radar 2.
[0052]
In FIG. 9, reference numeral 51 denotes a laser radar detection angle, 52 denotes a camera detection angle, 53 denotes an area where the laser radar 2 can perform higher precision measurement, and 54 denotes an area where image processing can perform higher precision measurement.
[0053]
First, as the measurement distance in the horizontal direction, usually, the finer one of the horizontal resolution (an angle corresponding to one pixel in the case of an image and one scan angle in the case of the laser radar 2) may be used. However, since the detectable range is often different, as shown in FIG. 9A, when the image is wider than the laser radar 2 and when only the image is captured, the image processing result is used. In the opposite case, the result of the laser radar 2 may be used.
[0054]
Next, a description will be given of how to improve the accuracy of the distance.
FIG. 10 illustrates the laser radar 2 and the image processing. It is calculated from the characteristics of the measurement principle. 6 is a graph showing a relationship between distance measurement accuracy (minimum resolution of distance measurement) and the length of a measurement distance.
[0055]
In FIG. 10, 55 indicates the measurement distance resolution of the laser radar 2, and 56 indicates the measurement distance resolution of image processing.
[0056]
The measurement principle of the laser radar 2 is a time difference from transmission of a transmission wave to reception of the transmission wave, which is determined by the wavelength of the resolution light. Therefore, the resolution is a constant value regardless of the distance. (However, if the distance is too short, there are problems such as the received light being too strong, and depending on the shape of the preceding vehicle, the reflecting surface does not enter the detection angle, and the measurement accuracy may be reduced.) On the other hand, the distance measurement by the image processing, that is, the distance change measurement is performed by a change in the size on the image as shown in Expression 2, and for example, a displacement of one pixel of the size wc on the image of the detected object is measured. Assuming that the resolution is the minimum, the distance and the resolution have the relationship of Expression 3.
[0057]
Δz = w · f / wc−w · f / (wc ± 1) = ± z / (w · f ± z) Equation 3
Here, w is the actual width of the vehicle, z is the distance to the vehicle, wc is the width on the image, and f is the focal length. This resolution Δz increases as the distance z increases. In other words, it can be said that the measurement by the image processing has higher accuracy as the distance is shorter, and becomes coarser as the distance increases. For example, a vehicle with a long distance is small, but a vehicle with a width of 2 pixels on the image is missing one pixel, and if the width of the vehicle is erroneously one pixel, the measurement distance is measured to be a half distance, Even if an image having a width of 100 pixels becomes 101 pixels on the image, the error is only about 1% (= 100/101), which is apparent from a small error.
[0058]
For this reason, it is possible to increase the accuracy by selecting the measurement result by the image with the laser radar 2 for the distant place and the image by the measurement result with the close distance. do it.
[0059]
That is, when the distance and the horizontal position are combined, if the image is wider, the far distance is measured by the laser radar 2, and the end of the laser radar 2, the diagonally forward direction, and the short distance are calculated by using the image processing result. When the radar 2 has a wider angle, the measurement of the short distance may be performed by image processing, and otherwise, the measurement results of the distance and the lateral position of the laser radar 2 may be used (see FIGS. 9A and 9B).
[0060]
This makes it possible to track the vehicle if only one of them is within the range of the detection angle and the other is detected, and to use a highly accurate distance measurement result to provide a robust and high- Accurate measurement becomes possible.
[0061]
As described above, the forward vehicle tracking system according to the second embodiment uses the data of the laser radar 2 at a distance longer than a predetermined distance, and uses the data of the camera 3 at a short distance smaller than the predetermined distance. If the preceding vehicle is detected at the end of the detection angle of the laser radar 2 or the camera 3 having the smaller detection angle, the data of the sensor having the larger detection angle is used.
[0062]
With such a configuration, in the second embodiment, the determination of the certainty of the first embodiment is not limited to the evaluation of the correlation value of the intensity distribution matching and the template matching, but also the measurement resolution performance of the sensors. Utilizing the measurement accuracy, the measurement can be ensured, and the measurement with the fine resolution can be performed. In the case of detecting at the end of the smaller detection angle where the angle that can be detected by the laser radar 2 is closer in the distance and the image or the image or the angle that can be detected by the laser radar 2 in the closer distance, the data is set to the data of the sensor with the wider detection angle. . This not only increases the robustness, but also makes it possible to use highly accurate measurement results, so that high-accuracy position measurement can be performed for the entire system.
[0063]
Embodiment 3
Next, a third embodiment of the present invention will be described.
In the third embodiment, the application range of the result of the laser radar 2 when the image is wider than the laser radar 2 in the above-described second embodiment is adopted. The detection angle of No. 2 is set to be smaller than the actual width, and in the case of a vehicle detected at the end of the laser radar detection angle, the result of the image processing is adopted.
[0064]
FIGS. 11A and 11B are diagrams illustrating the reason and a method of determining the detection angle end. FIG. 11A is a diagram illustrating the detection points of the laser radar 2 and FIG. 11B is a diagram illustrating the detection points of the laser radar 2 at the detection angle end.
[0065]
As shown in FIG. 11B, when the vehicle is detected at the detection angle end of the laser radar 2, the reflection of the vehicle is actually detected along the detection angle even though the reflection is outside the detection angle. A phenomenon that a point remains and a detection point having a measurement error is observed easily occurs. In this case, when the lateral position and the distance of the vehicle are measured using this point, an error is likely to appear. In the third embodiment, in order to avoid such erroneous measurement, tracking of template matching by image processing is performed to an extent that the correlation value becomes equal to or more than a threshold value only for a short distance with good measurement accuracy by image processing. In this case, the measurement result of the image processing is applied instead of the measurement value of the laser radar 2 even when a vehicle is present in the detection range of the laser radar 2.
[0066]
As a result, erroneous measurement caused by the above-described phenomenon can be prevented.
[0067]
As described above, when the detection angle of the laser radar 2 is smaller than the detection angle of the camera 3, the forward vehicle tracking system of the third embodiment determines whether or not the preceding vehicle is detected at the detection angle end. Is determined from an angle at which the variation in the value of the distance between the detection points on the vehicle in front of the laser radar 2 tends to increase, or from the observation that a phenomenon in which the variation in the value of the distance between the detection points increases is observed. If the variation becomes large, the data of the camera 3 is used.
[0068]
With such a configuration, in the third embodiment, when the detection angle of the laser radar 2 is smaller in the detection angle end of the second embodiment, the detection of the detection angle end is detected by the tracking vehicle. If it is detected at the end of the corner, the determination is made from the angle at which the variation in the measurement tends to increase. Alternatively, the configuration is determined based on observation of the phenomenon. Normally, the end of the detection angle of the laser radar 2 often has poor distance accuracy, and thus there is a problem that the distance and the lateral position are not easily obtained correctly. By taking into account such instability, it is possible to eliminate the use of the measurement result including the error, so that the vehicle position can be measured more reliably and more accurately.
[0069]
Embodiment 4
Finally, a fourth embodiment of the present invention will be described.
FIG. 12 illustrates a state in which a vehicle that is located at a distance such that the entire vehicle is imaged in front of the vehicle gradually approaches, and a portion of the vehicle obliquely forward approaches a position that is outside the range of the image. . (A) shows the case of the outer template, and (b) shows the case of also preparing the inner template. 61 is an outer template, 62 is an inner template.
[0070]
As described above, when the vehicle in front approaches the close distance or moves in the direction moving away in the left-right direction, a part of the vehicle protrudes from the range of the angle of view. In such a situation, as shown in FIG. 12B, matching cannot be performed with the outer template 61 including the shape of the entire vehicle, and correct vehicle tracking cannot be performed.
[0071]
Here, since the movement trajectory of the tracked vehicle from the laser radar 2 and the image processing is known, it is predicted that the tracked vehicle will move to a position where there is a high possibility that the tracked vehicle will go out of the angle of view in advance, and it will be out of the angle of view. The template is cut back into a part or the inside of the vehicle having characteristics other than the part (the inner template 62), and when it is expected that the vehicle comes out of the angle of view, the template using the part or the inner template (the inner template 62) Try to match. For example, if it is found that the vehicle approaches by 1 m for each process, the size of the vehicle, the position on the image detected immediately before the vehicle, and the vehicle in Δt seconds can be calculated according to the principles described in the expressions 1 and 2. Considering the movable distance, it is possible to predict to some extent the time required for the end of the vehicle to move out of the angle of view. With such a prediction, the template can be prepared before it goes out of the angle of view.
[0072]
FIGS. 13A and 13B are diagrams showing how the inner template and the left and right partial templates are defined. FIG. 13A shows when the vehicle approaches, and FIG. 13B shows when the vehicle moves to the left. 63 is a defined template, 64 is a vehicle internal tracking template, and 65 is a vehicle right side tracking template.
[0073]
For example, when the distance is very short, the left and right sides of the vehicle are likely to go outside the angle of view. (A pattern, a shape) is defined in a certain part (FIG. 13A). In addition, when moving to the left or right, moving to the left defines the right side of the vehicle, and moving to the right defines the portion that is likely to be captured in the image on the left side of the vehicle (see FIG. 13 (b)).
[0074]
FIG. 14 shows the relationship between a diagram defining a template inside or on the right side of the vehicle and the corresponding position on the real coordinate system of the position on the vehicle included in the template. (A) shows the case where the template is defined inside the vehicle, and (b) and (c) show the case where the template is defined on the right side of the vehicle.
[0075]
71 is the right side of the inner template (horizontal position xR, distance z), 72 is the left side of the inner template (horizontal position xL, distance z), and xl and xr are pixels.
[0076]
Normally, when the template is re-cut by tracking only the image and switching is performed so that tracking is performed only on the right side, for example, tracking within the image is possible as shown in FIG. Does not know which three-dimensional distance or horizontal position corresponds to which. For example, in FIG. 14C, if it is not known which distance x'-xl on the image corresponds to which distance in the real coordinate system, if the template is cut again, tracking on the image can be performed but the three-dimensional coordinate system can be obtained. The distance and lateral position cannot be tracked and measured. Therefore, when an operation such as switching a template to a partial template is performed by image processing alone, the position on the image can be obtained, but the three-dimensional distance and position of the portion cannot be measured. However, since the distance can be measured by the laser radar 2 in this case, as shown in FIGS. 14A and 14B, even when the template is cut back to the inside of the vehicle or to the left and right, the side of the actual vehicle is The position and distance can be measured continuously before re-cutting.
[0077]
That is, in FIG. 14B, since the absolute distance can be measured by the laser radar 2, the three-dimensional positions defining the inner template and the right template can be calculated. There is no problem in the measurement of distance, lateral position.
[0078]
By combining the laser radar 2 and the image according to such a principle, even when the vehicle is located at a position where a part of the vehicle comes out of the image, the vehicle can be accurately tracked.
[0079]
Further, when the vehicle moves left and right, the detection angle of the laser radar 2 is usually narrower, so that the measurement may be performed only by the image processing alone. By measuring the change in distance from the enlargement / reduction ratio of the template, the distance can be measured. In addition, if either the left or right part of the vehicle is captured in the image, tracking can be performed using only the template on the right side or the left side, and tracking in a wider angle range is also possible.
[0080]
Also, in the tracking by image processing, if there is an environment where both the inner template and the predefined outer template can be used, it is possible to achieve more accurate tracking by performing tracking using two types of templates It becomes.
[0081]
As described above, the forward vehicle tracking system according to the fourth embodiment uses a plurality of templates in vehicle tracking in template matching. The plurality of templates have a size relationship with the image data particularly when approaching the vehicle, and one of the templates is the entire front vehicle and the other is a part of the front vehicle.
[0082]
Further, in the vehicle tracking method according to the fourth embodiment, in the vehicle tracking in the template matching, the image data has a large / small relationship, one of which is the whole of the front vehicle and the other is a part of the front vehicle. Using the template.
[0083]
With such a configuration, in the fourth embodiment, in the vehicle tracking in the template matching in the image processing of the first embodiment, when the tracked vehicle approaches, or a part of the tracked vehicle is located at the end of the angle of view. In this case, the configuration is such that template matching is performed by cutting back to a template using the features inside the vehicle. Normally, when the vehicle approaches or moves toward the end of the angle of view, a part of the vehicle may protrude from the angle of view. Even in such a case, it is possible to switch the internal shape of the vehicle as a tracking target, so that accurate tracking can be performed. Further, even when the vehicle moves in the left and right directions in a direction away from the vehicle, measurement can be performed if a part of the vehicle remains at the angle of view, so that a wider range of vehicle tracking can be performed.
[0084]
Further, here, since the distance is known by the laser radar 2, it is possible to determine in advance that the vehicle has approached the extent that the vehicle protrudes, and then determine the switching timing to the template inside the vehicle. In addition, when performing an operation such as switching a template to a partial template by image processing alone, the position on the image can be obtained, but the actual three-dimensional distance and displacement of the position by re-cutting the position of the template are determined. , It becomes impossible to measure three-dimensional movement. However, in this case, since the distance is always measured by the laser radar 2, it can be determined at which part of the actual vehicle the template is defined, so that the three-dimensional distance and the lateral position are adversely affected. Switching of templates is possible.
[0085]
Although the present invention has been specifically described based on the embodiments, the present invention is not limited to the above-described embodiments, and it is needless to say that various modifications can be made without departing from the gist of the present invention.
[Brief description of the drawings]
FIG. 1 is a system configuration diagram according to a first embodiment of the present invention;
FIG. 2 is an explanatory diagram of a mounting position of a camera on a vehicle and a coordinate system setting.
FIG. 3 is an explanatory diagram of a state of a detection point of a laser radar and an intensity distribution at the time of vehicle detection.
FIG. 4 is an intensity distribution shape for each change in vehicle distance.
FIG. 5 is an explanatory diagram of improving the lateral position accuracy of vehicle position measurement using the intensity distribution of a laser radar.
FIG. 6 is an explanatory diagram of a relationship between a detection position of a laser radar, an imaging position on an image, and a size.
FIG. 7 is an explanatory diagram of template matching for performing enlargement / reduction based on a measurement distance result in a laser radar.
FIG. 8 is an explanatory diagram of template matching using a reference template while enlarging / reducing when distance measurement by a laser radar is not performed, and an explanatory diagram of a distance measuring method from an enlargement / reduction ratio.
FIG. 9 is an explanatory diagram of a detection range of a laser radar and a camera, and a region where each measurement can be performed with high accuracy.
FIG. 10 is a graph showing a relationship between a distance measured by a laser radar and a distance measurement based on a change in size in an image and a distance measurement resolution.
FIG. 11 is an explanatory diagram of a state of detection point variation when a vehicle is positioned at a laser radar detection angle end and a reason why a measurement error occurs.
FIG. 12 is an explanatory diagram of template matching using an inside template in tracking an approaching vehicle.
FIG. 13 is a diagram showing a state of definition of an inner template and a part of right and left templates.
FIG. 14 is an explanatory diagram of the relationship between the position on the image and the three-dimensional position when the template is cut back inside or on the left or right part;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... own vehicle, 2 ... laser radar, 3 ... camera, 4 ... laser radar data memory, 5 ... vehicle detection part, 6 ... intensity distribution type creation part, 7 ... vehicle tracking part using intensity, 8 ... laser radar measurement Evaluation section 9, 9 image memory, 10 vehicle template creation section, 11 vehicle tracking processing section, 12 image processing tracking reliability determination section, 13 integrated processing section, 14 optical axis of camera, 15 laser radar Scanning surface, 16: Camera optical axis and central axis of laser radar, 20A, 20B: Other vehicles, 21: Road reflector, 31: Camera lens, 32: Center of actual vehicle, 33: Imaging surface, 41 ... Reference template creation image, 42: input image, 43: scanning range, 51: laser radar detection angle, 52: camera detection angle, 53: area where laser radar can measure with higher accuracy, 54: image processing Is a region where high-precision measurement is possible, 55: measurement distance resolution of laser radar, 56: measurement distance resolution of image processing, 61: outer template, 62: inner template, 63: defined template, 64: vehicle internal tracking template , 65... Vehicle right side tracking template, 71... Right side of the inside template, 72.

Claims (8)

自車両の進行方向前方をスキャニングする検出波出力手段と、
前記検出波出力手段が出力した検出波を反射した反射点により前方車両を検出する車両発見手段と、
前記検出波出力手段により計測した距離をも考慮し、前記反射点の強度分布型を作成する強度分布型作成手段と、
前記強度分布をも利用しながら、前記前方車両の位置を計測する強度利用での車両追跡手段と、
前記検出波出力手段による前記前方車両の追跡結果の確実性を評価する検出波出力手段計測評価手段と、
前記自車両の進行方向前方を撮像するカメラと、
前記検出波出力手段により計測した距離をも考慮し、前記検出波出力手段により検出した位置に対応する画像上の位置に前記前方車両の追跡用テンプレートを作成する車両テンプレート作成手段と、
作成された前記テンプレートから距離変化による大きさ変化を考慮し、テンプレートマッチングにより車両追跡を行う車両追跡処理手段と、
前記カメラの画像処理による前記前方車両の追跡信頼性を評価する画像処理追跡信頼性判定手段と、
前記検出波出力手段による追跡評価結果と、前記画像処理による追跡評価結果とを統合判定し、最終的な前記前方車両の前記自車両に対する位置を算出する統合処理手段と
を有することを特徴とする前方車両追跡システム。
Detection wave output means for scanning forward in the traveling direction of the vehicle,
Vehicle detection means for detecting a preceding vehicle by a reflection point reflecting the detection wave output by the detection wave output means,
Considering also the distance measured by the detection wave output means, intensity distribution type creating means for creating an intensity distribution type of the reflection point,
Vehicle tracking means using intensity to measure the position of the preceding vehicle while also utilizing the intensity distribution,
Detection wave output means measurement evaluation means for evaluating the reliability of the tracking result of the preceding vehicle by the detection wave output means,
A camera for imaging the front of the vehicle in the traveling direction,
Considering also the distance measured by the detection wave output means, vehicle template creation means to create a tracking template of the preceding vehicle at a position on the image corresponding to the position detected by the detection wave output means,
Vehicle tracking processing means for performing vehicle tracking by template matching in consideration of a size change due to a distance change from the created template;
Image processing tracking reliability determination means for evaluating the tracking reliability of the preceding vehicle by the image processing of the camera,
Integrated processing means for integrally determining a tracking evaluation result by the detection wave output means and a tracking evaluation result by the image processing and calculating a final position of the preceding vehicle with respect to the own vehicle. Forward vehicle tracking system.
予め定めた所定の距離以上の遠方では前記検出波出力手段のデータを用い、所定の距離より小さい近距離では前記カメラのデータを用い、
前記検出波出力手段または前記カメラのセンサのうち、検知角が小さい方の該検知角端で前記前方車両が検出される場合は、検知角が広い方の前記センサのデータを用いることを特徴とする請求項1記載の前方車両追跡システム。
At a distant location equal to or greater than a predetermined distance, the data of the detection wave output means is used, and at a short distance smaller than the predetermined distance, the data of the camera is used,
When the preceding vehicle is detected at the detection angle end having a smaller detection angle among the detection wave output means or the sensor of the camera, data of the sensor having a larger detection angle is used. The forward vehicle tracking system according to claim 1.
前記検出波出力手段の検知角の方が前記カメラの検知角より小さい場合、
前記検知角端で前記前方車両が検出されるかどうかの判定は、前記検出波出力手段による前記前方車両上の検知点の距離の値のばらつきが大きくなる傾向がある角度から判定するか、もしくは、検知点の距離の値のばらつきが大きくなる現象を観測したことから判定し、
前記ばらつきが大きくなった場合、前記カメラのデータを用いることを特徴とする請求項2記載の前方車両追跡システム。
When the detection angle of the detection wave output means is smaller than the detection angle of the camera,
The determination as to whether or not the preceding vehicle is detected at the detection angle end is based on the angle at which the variation in the value of the distance between the detection points on the preceding vehicle by the detection wave output means tends to increase, or Judgment from observing the phenomenon that the variation of the distance value of the detection point becomes large,
3. The front vehicle tracking system according to claim 2, wherein the data of the camera is used when the variation increases.
前記テンプレートマッチングにおける車両追跡において、複数のテンプレートを用いることを特徴とする請求項1記載の前方車両追跡システム。2. The front vehicle tracking system according to claim 1, wherein a plurality of templates are used in the vehicle tracking in the template matching. 前記複数のテンプレートは、画像データに大小の関係を有し、一方が前記前方車両の全体、他方が前記前方車両の一部であることを特徴とする請求項4記載の前方車両追跡システム。5. The front vehicle tracking system according to claim 4, wherein the plurality of templates have a magnitude relationship with the image data, one being the entirety of the front vehicle and the other being a part of the front vehicle. 前記検出波出力手段による距離が計測できない場合、画像の走査範囲内を所定の画素数ずつずらしながら、前回計測した距離からの微小距離変化Δz分の距離変化の拡大縮小を施したテンプレートマッチングを用いることを特徴とする請求項1記載の前方車両追跡システム。When the distance cannot be measured by the detection wave output means, template matching is used in which the distance within the scanning range of the image is shifted by a predetermined number of pixels and the distance change by a minute distance change Δz from the previously measured distance is enlarged or reduced. 2. The forward vehicle tracking system according to claim 1, wherein: 自車両の進行方向前方を検出波出力手段によりスキャニングし、
電子式のカメラにより前記自車両の進行方向前方を撮像し、
前記検出波出力手段が出力した検出波を反射した反射点を検出し、
前記反射点の前記自車両に対する相対位置を測定し、前記反射点から前方車両を検出し、
前記反射点の強度分布から前記前方車両の強度分布特性を示す強度分布型を作成し、
前記カメラにより撮像した画像を用いて、前記検出波出力手段により検出した位置に対応する画像上の位置に前記前方車両の追跡用テンプレートを作成し、
前記検出波出力手段の強度分布マッチングと、画像処理におけるテンプレートマッチングの2つの手段で前記前方車両の追跡を行い、追跡確実性の高い方の計測値により前記前方車両の位置を計測することを特徴とする前方車両追跡方法。
Scanning the forward direction of the own vehicle by the detection wave output means,
An image of the front of the vehicle in the traveling direction is taken by an electronic camera,
Detecting a reflection point reflecting the detection wave output by the detection wave output means,
Measuring the relative position of the reflection point with respect to the own vehicle, detecting the vehicle ahead from the reflection point,
Create an intensity distribution type indicating the intensity distribution characteristics of the preceding vehicle from the intensity distribution of the reflection point,
Using the image captured by the camera, to create a template for tracking the preceding vehicle at a position on the image corresponding to the position detected by the detection wave output means,
The forward vehicle is tracked by two means of intensity distribution matching of the detection wave output unit and template matching in image processing, and the position of the forward vehicle is measured by a measurement value with a higher tracking certainty. The forward vehicle tracking method.
前記テンプレートマッチングにおける車両追跡において、画像データに大小の関係を有し、一方が前記前方車両の全体、他方が前記前方車両の一部である複数のテンプレートを用いることを特徴とすることを特徴とする請求項7記載の前方車両追跡方法。In the vehicle tracking in the template matching, a plurality of templates having a magnitude relationship with image data, one being the whole of the front vehicle, and the other being a part of the front vehicle, are used. The method for tracking a forward vehicle according to claim 7.
JP2002207390A 2002-07-16 2002-07-16 Forward vehicle tracking system and forward vehicle tracking method Expired - Fee Related JP3985615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002207390A JP3985615B2 (en) 2002-07-16 2002-07-16 Forward vehicle tracking system and forward vehicle tracking method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002207390A JP3985615B2 (en) 2002-07-16 2002-07-16 Forward vehicle tracking system and forward vehicle tracking method

Publications (2)

Publication Number Publication Date
JP2004053278A true JP2004053278A (en) 2004-02-19
JP3985615B2 JP3985615B2 (en) 2007-10-03

Family

ID=31931865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002207390A Expired - Fee Related JP3985615B2 (en) 2002-07-16 2002-07-16 Forward vehicle tracking system and forward vehicle tracking method

Country Status (1)

Country Link
JP (1) JP3985615B2 (en)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005013236A1 (en) * 2003-07-30 2005-02-10 Olympus Corporation Safe movement support device
JP2005291805A (en) * 2004-03-31 2005-10-20 Daihatsu Motor Co Ltd Obstacle detection method and obstacle detection system
JP2006090957A (en) * 2004-09-27 2006-04-06 Nissan Motor Co Ltd Moving object surrounding object detection apparatus and moving object surrounding object detection method
JP2006240454A (en) * 2005-03-02 2006-09-14 Daihatsu Motor Co Ltd Object recognition device and object recognition method for vehicle
JP2006285492A (en) * 2005-03-31 2006-10-19 Daihatsu Motor Co Ltd Device and method for recognizing obstacle
JP2006293835A (en) * 2005-04-13 2006-10-26 Toyota Motor Corp Object detection device
EP1748400A1 (en) * 2005-07-25 2007-01-31 Mazda Motor Corporation Travel assistance device, method and computer program product
JP2007212418A (en) * 2006-02-13 2007-08-23 Alpine Electronics Inc On-vehicle radar device
JP2007255978A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detection apparatus
JP2008008679A (en) * 2006-06-27 2008-01-17 Toyota Motor Corp Object detection device, collision prediction device, and vehicle control device
JP2008040615A (en) * 2006-08-02 2008-02-21 Denso Corp Vehicle detection device and head lamp controller
JP2008148287A (en) * 2006-11-03 2008-06-26 Samsung Electronics Co Ltd Motion tracking apparatus, method and medium
JP2008269073A (en) * 2007-04-17 2008-11-06 Denso Corp Object detector for vehicle
JP2008276689A (en) * 2007-05-07 2008-11-13 Mitsubishi Electric Corp Obstacle recognition device for vehicles
JP2009085651A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Image processing system
JP2009098025A (en) * 2007-10-17 2009-05-07 Toyota Motor Corp Object detection device
JP2009137494A (en) * 2007-12-07 2009-06-25 Toyota Motor Corp Obstacle determination device
EP1580075A3 (en) * 2004-03-26 2009-08-19 Omron Corporation Vehicle detection apparatus and method
JP2009187357A (en) * 2008-02-07 2009-08-20 Honda Motor Co Ltd Object type determination apparatus, object type determination method, and object type determination program
JP2009186353A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Object detecting device and object detecting method
JP2011047933A (en) * 2009-08-13 2011-03-10 Tk Holdings Inc Object detection system
JP2011232155A (en) * 2010-04-27 2011-11-17 Denso Corp Object recognition device and program
JP2013092459A (en) * 2011-10-26 2013-05-16 Denso Corp Distance measuring apparatus and distance measuring program
JP2013190421A (en) * 2012-03-14 2013-09-26 Honda Motor Co Ltd Method for improving detection of traffic-object position in vehicle
EP2916102A1 (en) * 2014-03-05 2015-09-09 Audi Ag Method for precise scaling of an image of a camera sensor
JP2015206797A (en) * 2012-11-22 2015-11-19 株式会社デンソー Target detection device
JP2016057066A (en) * 2014-09-05 2016-04-21 パイオニア株式会社 Determination device, travel lane determination method, and travel lane determination program
JP2016061706A (en) * 2014-09-19 2016-04-25 オムロンオートモーティブエレクトロニクス株式会社 Laser radar device and control method
JP2017052411A (en) * 2015-09-09 2017-03-16 株式会社デンソー Driving support device, and driving support method
US9798002B2 (en) 2012-11-22 2017-10-24 Denso Corporation Object detection apparatus
JP2019164124A (en) * 2018-01-30 2019-09-26 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Fusion of front vehicle sensor data for detection and ranging of preceding objects
CN110576858A (en) * 2018-06-11 2019-12-17 本田技研工业株式会社 Vehicle control device, vehicle control method, and recording medium
WO2020213386A1 (en) * 2019-04-17 2020-10-22 日立オートモティブシステムズ株式会社 Object position detection device, travel control system, and travel control method
JP6808111B1 (en) * 2020-05-07 2021-01-06 三菱電機株式会社 Self-position estimation device, navigation control device, image generator, artificial satellite system and self-position estimation method
JP2021148709A (en) * 2020-03-23 2021-09-27 三菱重工業株式会社 Measurement device, method for measurement, and program
CN114690174A (en) * 2022-02-10 2022-07-01 浙江大华技术股份有限公司 Target tracking method and device based on millimeter wave radar and laser radar
CN115453858A (en) * 2022-10-18 2022-12-09 扬州万方科技股份有限公司 Double-vehicle linkage control capturing and tracking system and operation method thereof
JP7187655B1 (en) 2021-12-27 2022-12-12 株式会社a-LINK OBJECT TRACKING METHOD, PROGRAM, SYSTEM AND RECORDING MEDIUM
CN116682258A (en) * 2023-06-08 2023-09-01 江苏智能交通及智能驾驶研究院 Matching method of roadside lidar and regional vehicles based on Frechet distance
CN117849818A (en) * 2024-03-08 2024-04-09 山西万鼎空间数字有限公司 Unmanned aerial vehicle positioning method and device based on laser radar and electronic equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106447697B (en) * 2016-10-09 2018-10-26 湖南穗富眼电子科技有限公司 A kind of specific moving-target fast tracking method based on moving platform

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005013236A1 (en) * 2003-07-30 2005-02-10 Olympus Corporation Safe movement support device
EP1580075A3 (en) * 2004-03-26 2009-08-19 Omron Corporation Vehicle detection apparatus and method
JP2005291805A (en) * 2004-03-31 2005-10-20 Daihatsu Motor Co Ltd Obstacle detection method and obstacle detection system
JP2006090957A (en) * 2004-09-27 2006-04-06 Nissan Motor Co Ltd Moving object surrounding object detection apparatus and moving object surrounding object detection method
JP2006240454A (en) * 2005-03-02 2006-09-14 Daihatsu Motor Co Ltd Object recognition device and object recognition method for vehicle
JP2006285492A (en) * 2005-03-31 2006-10-19 Daihatsu Motor Co Ltd Device and method for recognizing obstacle
JP2006293835A (en) * 2005-04-13 2006-10-26 Toyota Motor Corp Object detection device
EP1748400A1 (en) * 2005-07-25 2007-01-31 Mazda Motor Corporation Travel assistance device, method and computer program product
JP2007212418A (en) * 2006-02-13 2007-08-23 Alpine Electronics Inc On-vehicle radar device
JP2007255978A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detection apparatus
JP2008008679A (en) * 2006-06-27 2008-01-17 Toyota Motor Corp Object detection device, collision prediction device, and vehicle control device
JP2008040615A (en) * 2006-08-02 2008-02-21 Denso Corp Vehicle detection device and head lamp controller
JP2008148287A (en) * 2006-11-03 2008-06-26 Samsung Electronics Co Ltd Motion tracking apparatus, method and medium
JP2008269073A (en) * 2007-04-17 2008-11-06 Denso Corp Object detector for vehicle
JP2008276689A (en) * 2007-05-07 2008-11-13 Mitsubishi Electric Corp Obstacle recognition device for vehicles
JP2009085651A (en) * 2007-09-28 2009-04-23 Hitachi Ltd Image processing system
JP2009098025A (en) * 2007-10-17 2009-05-07 Toyota Motor Corp Object detection device
JP2009137494A (en) * 2007-12-07 2009-06-25 Toyota Motor Corp Obstacle determination device
JP2009187357A (en) * 2008-02-07 2009-08-20 Honda Motor Co Ltd Object type determination apparatus, object type determination method, and object type determination program
JP2009186353A (en) * 2008-02-07 2009-08-20 Fujitsu Ten Ltd Object detecting device and object detecting method
JP2011047933A (en) * 2009-08-13 2011-03-10 Tk Holdings Inc Object detection system
JP2011232155A (en) * 2010-04-27 2011-11-17 Denso Corp Object recognition device and program
DE102011017540A1 (en) 2010-04-27 2012-03-15 Denso Corporation Method and device for detecting the presence of objects
US8810445B2 (en) 2010-04-27 2014-08-19 Denso Corporation Method and apparatus for recognizing presence of objects
DE102011017540B4 (en) 2010-04-27 2024-04-11 Denso Corporation Method and device for detecting the presence of objects
JP2013092459A (en) * 2011-10-26 2013-05-16 Denso Corp Distance measuring apparatus and distance measuring program
JP2013190421A (en) * 2012-03-14 2013-09-26 Honda Motor Co Ltd Method for improving detection of traffic-object position in vehicle
JP2015206797A (en) * 2012-11-22 2015-11-19 株式会社デンソー Target detection device
US9798002B2 (en) 2012-11-22 2017-10-24 Denso Corporation Object detection apparatus
EP2916102A1 (en) * 2014-03-05 2015-09-09 Audi Ag Method for precise scaling of an image of a camera sensor
JP2016057066A (en) * 2014-09-05 2016-04-21 パイオニア株式会社 Determination device, travel lane determination method, and travel lane determination program
JP2016061706A (en) * 2014-09-19 2016-04-25 オムロンオートモーティブエレクトロニクス株式会社 Laser radar device and control method
JP2017052411A (en) * 2015-09-09 2017-03-16 株式会社デンソー Driving support device, and driving support method
JP2019164124A (en) * 2018-01-30 2019-09-26 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Fusion of front vehicle sensor data for detection and ranging of preceding objects
JP7242316B2 (en) 2018-01-30 2023-03-20 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Fusion of forward vehicle sensor data for preceding object detection and ranging
CN110576858A (en) * 2018-06-11 2019-12-17 本田技研工业株式会社 Vehicle control device, vehicle control method, and recording medium
CN110576858B (en) * 2018-06-11 2022-12-20 本田技研工业株式会社 Vehicle control device, vehicle control method, and recording medium
WO2020213386A1 (en) * 2019-04-17 2020-10-22 日立オートモティブシステムズ株式会社 Object position detection device, travel control system, and travel control method
JP2020176892A (en) * 2019-04-17 2020-10-29 日立オートモティブシステムズ株式会社 Object position detector, travel control system, and travel control method
CN113646607A (en) * 2019-04-17 2021-11-12 日立安斯泰莫株式会社 Object position detection device, driving control system and driving control method
US11847791B2 (en) 2019-04-17 2023-12-19 Hitachi Astemo, Ltd. Object position detection device, travel control system, and travel control method
JP7278846B2 (en) 2019-04-17 2023-05-22 日立Astemo株式会社 OBJECT POSITION DETECTION DEVICE, TRIP CONTROL SYSTEM, AND TRIP CONTROL METHOD
JP2021148709A (en) * 2020-03-23 2021-09-27 三菱重工業株式会社 Measurement device, method for measurement, and program
JP7346342B2 (en) 2020-03-23 2023-09-19 三菱重工業株式会社 Measuring device, measuring method and program
JP6808111B1 (en) * 2020-05-07 2021-01-06 三菱電機株式会社 Self-position estimation device, navigation control device, image generator, artificial satellite system and self-position estimation method
WO2021224955A1 (en) * 2020-05-07 2021-11-11 三菱電機株式会社 Own-position estimation device, flight control device, image generation device, artificial satellite system, and own-position estimation method
JP2023096653A (en) * 2021-12-27 2023-07-07 株式会社a-LINK OBJECT TRACKING METHOD, PROGRAM, SYSTEM AND RECORDING MEDIUM
JP7187655B1 (en) 2021-12-27 2022-12-12 株式会社a-LINK OBJECT TRACKING METHOD, PROGRAM, SYSTEM AND RECORDING MEDIUM
CN114690174A (en) * 2022-02-10 2022-07-01 浙江大华技术股份有限公司 Target tracking method and device based on millimeter wave radar and laser radar
CN115453858B (en) * 2022-10-18 2023-11-10 扬州万方科技股份有限公司 Dual-vehicle linkage control capturing and tracking system and operation method thereof
CN115453858A (en) * 2022-10-18 2022-12-09 扬州万方科技股份有限公司 Double-vehicle linkage control capturing and tracking system and operation method thereof
CN116682258A (en) * 2023-06-08 2023-09-01 江苏智能交通及智能驾驶研究院 Matching method of roadside lidar and regional vehicles based on Frechet distance
CN117849818A (en) * 2024-03-08 2024-04-09 山西万鼎空间数字有限公司 Unmanned aerial vehicle positioning method and device based on laser radar and electronic equipment

Also Published As

Publication number Publication date
JP3985615B2 (en) 2007-10-03

Similar Documents

Publication Publication Date Title
JP3985615B2 (en) Forward vehicle tracking system and forward vehicle tracking method
JP3645177B2 (en) Vehicle periphery monitoring device
CN108140323B (en) Method and apparatus for improved data fusion for environmental detection in motor vehicles
JP5145986B2 (en) Object detection apparatus and distance measuring method
KR101787996B1 (en) Apparatus of estimating traffic lane in vehicle, control method of thereof
KR102176376B1 (en) Apparatus and method for measuring distance of object
JP5316471B2 (en) Object recognition apparatus and program
US6834254B2 (en) Monitor system of vehicle outside and the method thereof
JP2005313780A (en) Preceding vehicle recognition device
JP2001099930A (en) Sensor for monitoring periphery
JP3882083B2 (en) Ranging device
JP7226565B2 (en) Object recognition method and object recognition device
JP2006258497A (en) Vehicle object recognition device
JP2001195700A (en) Vehicle information detection device
JP3690260B2 (en) Vehicle distance measurement method
JP3954053B2 (en) Vehicle periphery monitoring device
JP2002122669A (en) Object position detection method
JP4823282B2 (en) Perimeter monitoring sensor
JP3969984B2 (en) Recognition method for moving objects
JP3498532B2 (en) Vehicle shape discriminator
JPH05113482A (en) In-vehicle rear-end collision prevention device
JP2011149856A (en) Object discrimination method and object discrimination device
JP2630844B2 (en) 3D shape and size measurement device
US20230243923A1 (en) Method for detecting intensity peaks of a specularly reflected light beam
JP4107972B2 (en) Object recognition apparatus and recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070323

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070702

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees