[go: up one dir, main page]

JP2003099762A - Precedent vehicle recognition device and recognition method - Google Patents

Precedent vehicle recognition device and recognition method

Info

Publication number
JP2003099762A
JP2003099762A JP2001290760A JP2001290760A JP2003099762A JP 2003099762 A JP2003099762 A JP 2003099762A JP 2001290760 A JP2001290760 A JP 2001290760A JP 2001290760 A JP2001290760 A JP 2001290760A JP 2003099762 A JP2003099762 A JP 2003099762A
Authority
JP
Japan
Prior art keywords
vehicle
vector
fusion
dictionary
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001290760A
Other languages
Japanese (ja)
Other versions
JP4070437B2 (en
Inventor
Hitoomi Takizawa
仁臣 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2001290760A priority Critical patent/JP4070437B2/en
Publication of JP2003099762A publication Critical patent/JP2003099762A/en
Application granted granted Critical
Publication of JP4070437B2 publication Critical patent/JP4070437B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To combine vehicle recognition using a laser radar and that using an image sensor for carrying out highly precise recognition. SOLUTION: As to a target area in a photographed image during actual travel, an edge histogram is calculated by a camera module for finding a maximum point and extracting a vehicle possible area (S1). By a laser radar module, a reflection point of a laser beam is specified for deriving a received light intensity histogram (S2). By means of a CPU, vectors and laser vectors in the X and Y directions are formed and fused for forming a fusion vector (S3), and the fusion vector of a vehicle possible area and a dictionary fusion vector are collated with each other (S4). From a distance between them, it is determined whether the vehicle possible area is a vehicle or not (S5). If the distance is lower than a threshold value, it is predicted that the vehicle possible area is a vehicle (S7).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、自車の前方を走
行する車両を認識する前方車両認識装置及び認識方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a front vehicle recognizing device and a recognizing method for recognizing a vehicle traveling in front of an own vehicle.

【0002】[0002]

【従来の技術】近年、例えば高速道路における追従走行
機能や操舵アシスト機能といった、より高度でより快適
な運転支援システムを搭載した車両が提案され、そのひ
とつにスキャンレーザレーダを用いて自車前方の車両を
認識する認識装置がある。
2. Description of the Related Art In recent years, a vehicle equipped with a more advanced and more comfortable driving support system, such as a follow-up running function and a steering assist function on a highway, has been proposed. There is a recognition device that recognizes the vehicle.

【0003】この種スキャンレーザレーダを用いた従来
の認識装置では、レーザ光を照射してから反射光を観測
するまでの時間を計測することで、反射点までの距離を
検出でき、スキャニング機構を設けることにより、10
数゜の水平視野を確保し、近距離及び中距離の車両であ
れば、図11(a)及び(b)に示すように、車両後端
面の両端に装備されているリフレクタ(反射板)のほか
ボディからの反射が多数観測され、反射点の数は3点以
上の多数に及ぶ一方、遠距離の車両であれば、同図
(c)に示すように、車両後端面のリフレクタからの反
射が2点観測されるにとどまる。
In a conventional recognition device using this kind of scan laser radar, the distance to the reflection point can be detected by measuring the time from the irradiation of the laser beam to the observation of the reflected light, and the scanning mechanism is provided. By providing 10
If the vehicle has a horizontal field of view of several degrees and is a short-distance vehicle or a medium-distance vehicle, as shown in FIGS. 11 (a) and 11 (b), the reflectors (reflectors) mounted on both ends of the rear end surface of the vehicle can be used. In addition, many reflections from the body are observed, and the number of reflection points reaches three or more. On the other hand, in the case of a vehicle at a long distance, as shown in FIG. Only 2 points are observed.

【0004】ところが、この場合、車体の同じ部位から
一定して反射があるわけではなく、車両の向き、形状、
位置関係等で時々刻々反射位置が変化し、分布も一様で
はない。
However, in this case, there is no constant reflection from the same part of the vehicle body, and the direction, shape,
The reflection position changes every moment due to the positional relationship and the distribution is not uniform.

【0005】そこで、得られた反射点群に対してファジ
ィ手法等によるクラスタリングをすることで先行車両を
認識する手法が提案されている。その具体例として、自
動車技術会学術講演会前刷集931,No.93017
19,pp53−56(1993−5)(「レーザレー
ダによる先行車認識アルゴリズム開発」)に記載の手
法、或いは、本件出願人の出願にかかる特開平6−30
9600号公報に記載の手法等がある。
Therefore, there has been proposed a method of recognizing a preceding vehicle by clustering the obtained reflection point group by a fuzzy method or the like. As a specific example thereof, Preprints 931 No. 93017
19, pp53-56 (1993-5) ("Development of preceding vehicle recognition algorithm by laser radar"), or Japanese Patent Application Laid-Open No. 6-30
There is a method described in Japanese Patent No. 9600.

【0006】例えば、自車と車両候補点群との距離の変
化から自車に対する車両候補点群の相対速度を導出し、
導出した相対速度が所定値よりも大きいときには、自車
速度と先行車両候補の相対速度との差、自車に対する先
行車両候補の車幅方向の位置ずれ量などの関数である適
合度関数を用いて先行車両であることの確かさを表わす
確信度を演算すると共に、レーザ光の走査方向及び自車
の進行方向を座標軸とする座標系における車両候補点群
の座標と相対速度を算出するごとに確信度の演算を繰り
返し、確信度と基準値との差を累積加算してその加算合
計値が他の基準値より大きいか否かを判断し、小さいと
きにその車両候補点群が同一レーン上を走行中と判断
し、大きいときに同一レーン上にないと判断するもので
ある。
For example, the relative speed of the vehicle candidate point group with respect to the own vehicle is derived from the change in the distance between the own vehicle and the vehicle candidate point group,
When the derived relative speed is greater than a predetermined value, a fitness function that is a function of the difference between the own vehicle speed and the relative speed of the preceding vehicle candidate, the amount of positional deviation of the preceding vehicle candidate with respect to the own vehicle in the vehicle width direction, etc. is used. Each time it calculates the certainty factor that represents the certainty that it is a preceding vehicle, and every time the coordinates and relative speed of the vehicle candidate point group in the coordinate system whose coordinate axes are the scanning direction of the laser light and the traveling direction of the own vehicle are calculated. The confidence factor calculation is repeated, and the difference between the confidence factor and the reference value is cumulatively added to determine whether the added total value is greater than another reference value. Is judged to be running, and when it is large, it is judged not to be on the same lane.

【0007】[0007]

【発明が解決しようとする課題】しかし、これら従来の
手法は、高速道路のように車両どうしの間隔や車両と路
側構造物との間隔が広い場合にはほとんど問題はない
が、これを一般道路に拡張しようとすると次のような課
題が生じる。つまり、第1の課題として、前方車両の近
傍の走行車両または駐停車車両や路側物からの反射を、
前方車両からの反射に含めて処理してしまい、前方車両
の距離計測値に誤差が生じる、第2の課題として、車両
が存在しないときに、ガードレールの反射板や看板等の
路側構造物からの反射も観測され、これらを駐停車車両
や前方車両として誤認識することがある、第3の課題と
して、一般的にレーダの水平検知視野は狭いため、近距
離での割り込み車両等の検出が遅れる、という課題があ
る。
However, these conventional methods have almost no problem when the distance between vehicles or the distance between vehicles and a roadside structure is wide like an expressway. If you try to expand to, the following problems will occur. That is, as a first problem, the reflection from a traveling vehicle, a parked vehicle, or a roadside object in the vicinity of a vehicle in front,
The second problem is that the distance measurement value of the front vehicle is erroneously processed because it is included in the reflection from the front vehicle, and the second problem is that when there is no vehicle, there is no reflection from roadside structures such as a reflector of a guardrail or a signboard. Reflections are also observed, and these may be mistakenly recognized as parked vehicles or forward vehicles. As a third problem, the horizontal detection field of view of the radar is generally narrow, so the detection of vehicles interrupting at a short distance is delayed. , There is a problem.

【0008】更に、レーザレーダの場合、路面の水を前
方車両がはね上げることでレーザ光が減衰し、前方車両
を認識できなくなったり、隣接車線を走行する前方車両
を観測車と同じ車線を走行する車両と判定したりする
が、これらはレーザレーダ特有の課題や、その他の非常
に高度な認識処理を要する課題であって、今回、本発明
が解決しようとする課題ではない。
Further, in the case of a laser radar, when the front vehicle splashes water on the road surface, the laser light is attenuated, the front vehicle cannot be recognized, or the front vehicle traveling in the adjacent lane is in the same lane as the observation vehicle. Although it is determined that the vehicle is a moving vehicle, these are problems unique to the laser radar and other problems that require a very high level of recognition processing, and are not problems to be solved by the present invention this time.

【0009】一方、従来、画像センサによる撮像画像を
処理して車両認識する装置も提案されており、画像セン
サの場合、パターン認識能力は上記したレーザレーダよ
りも優れている。この種の装置では、例えば図12に示
すように、画像センサによる撮像画像に横長の注視領域
を設定し、その注視領域における各画素の濃淡からX方
向(水平方向)へのエッジヒストグラムEHx、これに
直交するY方向(垂直方向)へのエッジヒストグラムE
Hy、及び両方向へのエッジヒストグラムの積EHxy
を演算し、車両候補領域を抽出することが提案されてい
る。
On the other hand, conventionally, an apparatus for recognizing a vehicle by processing an image picked up by an image sensor has also been proposed. In the case of the image sensor, the pattern recognition ability is superior to that of the laser radar described above. In this type of device, for example, as shown in FIG. 12, a horizontally long gaze area is set in an image picked up by an image sensor, and an edge histogram EHx in the X direction (horizontal direction) from the density of each pixel in the gaze area, Edge histogram E in the Y direction (vertical direction) orthogonal to
Hy and the product EHxy of edge histograms in both directions
Has been proposed to extract the vehicle candidate area.

【0010】しかしながら、画像センサの場合、複雑な
シーンでは次のような課題がある。つまり、距離計測は
先行車幅等、いくつかの仮定を設定することで近似計測
できるだけで、カルマンフィルタ等の位置予測アルゴリ
ズムに適用した場合に、予測値が安定しにくい。また、
遠距離ではパターン認識力を十分に発揮することができ
ず、至近距離では大きな車両の場合に全部を撮影でき
ず、車両認識が困難になることがある。更に、複雑なシ
ーンでは車両以外が作るエッジを車両と誤認識する場合
があり、一時的な陰や曇りなどで見かけ画像が変化した
場合には、車両認識が困難になることが多い。
However, the image sensor has the following problems in a complicated scene. In other words, the distance measurement can be approximated by setting some assumptions such as the width of the preceding vehicle, and the prediction value is difficult to stabilize when applied to a position prediction algorithm such as a Kalman filter. Also,
In a long distance, the pattern recognition power cannot be sufficiently exerted, and in the case of a close-up distance, a large vehicle cannot be photographed entirely, which makes it difficult to recognize the vehicle. Further, in a complicated scene, an edge created by other than a vehicle may be erroneously recognized as a vehicle, and it is often difficult to recognize the vehicle when the apparent image changes due to a temporary shadow or cloud.

【0011】そこで、本発明は、レーザレーダを用いた
車両認識と、画像センサによる車両認識との融合によ
り、前方車両以外の車両や路側物等からの反射を排除し
て、精度の高い認識を行うことができるようにすること
を目的とする。
Therefore, according to the present invention, the vehicle recognition using the laser radar and the vehicle recognition using the image sensor are combined to eliminate reflections from vehicles other than the vehicle in front of the vehicle, roadside objects, and the like, thereby realizing highly accurate recognition. The purpose is to be able to do.

【0012】[0012]

【課題を解決するための手段】上記した目的を達成する
ために、本発明にかかる前方車両認識装置は、自車の前
方を走行する車両を認識する前方車両認識装置におい
て、自車前方を撮像する画像センサと、前記画像センサ
による撮像画像に対して所定の注視領域を設定しその注
視領域における各画素の所定方向への濃度投影値である
エッジヒストグラムを導出する画像処理部と、自車前方
にレーザ光を水平方向にスキャンしつつ照射すると共に
反射点からの反射光を受光して複数個の前記反射点の位
置を特定するレーザレーダと、予め準備した各種のサン
プル用車両のサンプル画像について前記画像処理部によ
り導出された前記エッジヒストグラムのパターンと、前
記各サンプル用車両について前記レーザレーダにより特
定された複数の反射点のパターンとを融合し固有空間法
により次元圧縮して得られる複数の辞書パターンを格納
した格納部と、前記画像処理部により実走行時に導出さ
れる前記エッジヒストグラムに基づく照合パターンと、
前記レーザレーダにより実走行時に特定される前記各反
射点の分布パターンとを融合し固有空間法の適用により
次元圧縮して成る融合パターンが、前記格納部に格納さ
れている前記各辞書パターンのうちのいずれかにほぼ一
致するかどうか照合して前方車両かどうかを判断する照
合部とを備えていることを特徴としている。
In order to achieve the above-mentioned object, a front vehicle recognition device according to the present invention is a front vehicle recognition device for recognizing a vehicle traveling in front of the own vehicle. An image sensor, an image processing unit that sets a predetermined gaze area for an image captured by the image sensor, and derives an edge histogram that is a density projection value of each pixel in the gaze area in a predetermined direction; A laser radar that irradiates a laser beam while scanning in the horizontal direction and receives reflected light from a reflection point to identify the positions of the plurality of reflection points, and sample images of various sample vehicles prepared in advance The pattern of the edge histogram derived by the image processing unit and a plurality of reflections specified by the laser radar for each of the sample vehicles. A storage unit for storing a plurality of dictionary pattern obtained by dimensional compression by fusing a pattern eigenspace method, a matching pattern based on the edge histogram derived during actual running by the image processing unit,
Of the dictionary patterns stored in the storage unit, a fusion pattern formed by fusing the distribution pattern of the respective reflection points specified during actual traveling by the laser radar and dimensionally compressing by applying the eigenspace method is used. It is characterized in that it is provided with a collating unit for collating whether or not it substantially matches any of the above and judging whether or not the vehicle is a forward vehicle.

【0013】このような構成によれば、レーザレーダは
距離測定に優れ、画像センサは車両とそれ以外を精度よ
く識別できることから、実走行時に、画像処理部により
導出されるエッジヒストグラムに基づく照合パターン
と、レーザレーダにより特定される各反射点の分布パタ
ーンとを、生データの段階で融合して固有空間法により
次元圧縮した融合パターンが、格納部の各辞書パターン
のうちのいずれかにほぼ一致するかどうか照合され、前
方車両かどうかが判断されるため、レーザレーザ単独の
場合のように、前方車両以外の車両や路側物等からの反
射を前方車両からの反射に含めてしまうことを防止で
き、しかも画像センサの場合のような複雑なシーンにお
ける車両の誤認識の頻度を低減でき、前方車両を高精度
に認識することができる。
With such a configuration, the laser radar is excellent in distance measurement, and the image sensor can accurately distinguish between the vehicle and the others. Therefore, during actual traveling, the matching pattern based on the edge histogram derived by the image processing unit is used. , And the distribution pattern of each reflection point specified by the laser radar are fused at the stage of raw data and dimensionally compressed by the eigenspace method, and the fusion pattern almost matches one of the dictionary patterns in the storage unit. Whether the vehicle is ahead or not is determined and it is determined whether or not the vehicle is ahead.Therefore, it is possible to prevent reflections from vehicles other than the front vehicle or roadside objects from being included in the reflections from the front vehicle as in the case of laser laser alone. In addition, it is possible to reduce the frequency of erroneous recognition of a vehicle in a complicated scene such as in the case of an image sensor, and it is possible to recognize a front vehicle with high accuracy. .

【0014】また、本発明にかかる前方車両認識装置
は、前記画像処理部が、前記撮像画像に対して設定した
前記注視領域における各画素の濃淡から画面のX方向へ
のエッジヒストグラム、これに直交する画面のY方向へ
のエッジヒストグラム及び両方向へのエッジヒストグラ
ムの積を演算してその極大点を導出することで車両候補
領域を抽出し、前記照合部が、前記画像処理部により前
記車両候補領域において導出される前記X方向及びY方
向へのエッジヒストグラムそれぞれに基づき、サイズを
縮小したX方向ベクトル及びY方向ベクトルを前記照合
パターンとして作成する第1の作成部と、前記レーザレ
ーダにより前記車両候補領域において特定される前記各
反射点の受光強度ヒストグラムを形成し、その受光強度
ヒストグラムに基づき、サイズを縮小したレーザベクト
ルを前記分布パターンとして作成する第2の作成部と、
前記車両候補領域における前記X方向ベクトル、Y方向
ベクトル及びレーザベクトルに基づき、固有空間法の適
用により次元圧縮して成る前記車両候補領域のフュージ
ョンベクトルを前記融合パターンとして形成するフュー
ジョン部とを備えていることを特徴としている。
In the forward vehicle recognizing device according to the present invention, the image processing unit sets an edge histogram in the X direction of the screen from the grayscale of each pixel in the gaze area set for the picked-up image, which is orthogonal to the edge histogram. The vehicle candidate area is extracted by calculating the product of the edge histogram in the Y direction of the screen and the edge histogram in both directions and deriving the maximum point thereof, and the collation unit causes the image processing unit to detect the vehicle candidate area. A first creating unit that creates a size-reduced X-direction vector and Y-direction vector as the matching pattern based on each of the edge histograms in the X-direction and the Y-direction that are derived in step 1; and the vehicle candidate by the laser radar. A received light intensity histogram of each of the reflection points specified in the area is formed and based on the received light intensity histogram. A second creation unit for creating a laser vector obtained by reducing the size as the distribution pattern,
And a fusion unit that forms a fusion vector of the vehicle candidate region, which is dimensionally compressed by applying an eigenspace method, as the fusion pattern, based on the X-direction vector, the Y-direction vector, and the laser vector in the vehicle candidate region. It is characterized by being.

【0015】このような構成によれば、画像処理により
得られる照合パターンとしてのX方向ベクトル及びY方
向ベクトルと、レーザレーダによる反射点の受光強度ヒ
ストグラムから得られる分布パターンとしてのレーザベ
クトルとが融合されて固有空間法により次元圧縮され、
融合パターンとしてのフュージョンベクトルが形成され
るため、レーザと画像それぞれのセンサ生データの段階
でデータを融合したものを次元圧縮することで、パター
ン認識の精度を向上することができ、複雑なシーンであ
っても前方車両の認識を高精度に行うことができる。
According to this structure, the X-direction vector and the Y-direction vector as the matching pattern obtained by the image processing and the laser vector as the distribution pattern obtained from the received light intensity histogram of the reflection points by the laser radar are fused. And dimensionally compressed by the eigenspace method,
Since a fusion vector is formed as a fusion pattern, it is possible to improve the accuracy of pattern recognition by dimensionally compressing the fusion of the data at the sensor raw data stage of the laser and image, and in a complex scene. Even if there is, the vehicle ahead can be recognized with high accuracy.

【0016】また、本発明にかかる前方車両認識装置
は、前記辞書パターンが、前記各サンプル用車両のサン
プル画像に対して前記画像処理部により導出された前記
X方向及びY方向へのエッジヒストグラムに基づき、前
記第1の作成部によりサイズを縮小して作成される辞書
用X方向及びY方向ベクトルと、前記サンプル用車両に
対し前記レーザレーダにより特定された前記各反射点に
ついて、前記第2の作成部によりサイズを縮小して作成
される辞書用レーザベクトルとが、前記フュージョン部
により融合され固有空間法により次元圧縮されて得られ
る辞書フュージョンベクトルから成り、前記照合部が、
実走行時における前記車両候補領域の前記フュージョン
ベクトルと、前記辞書フュージョンベクトルとの距離を
導出し、その距離が予め定められたしきい値よりも小さ
いかどうかにより前記車両候補領域が前方車両であるか
どうか判断することを特徴としている。
Further, in the forward vehicle recognizing device according to the present invention, the dictionary pattern is an edge histogram in the X direction and the Y direction derived by the image processing unit with respect to the sample image of each sample vehicle. Based on the dictionary X-direction and Y-direction vectors created by reducing the size by the first creating unit, and the reflection points specified by the laser radar for the sample vehicle, the second The dictionary laser vector created by reducing the size by the creating unit, a dictionary fusion vector obtained by being fused by the fusion unit and dimensionally compressed by the eigenspace method, and the collating unit,
The distance between the fusion vector of the vehicle candidate area and the dictionary fusion vector during actual traveling is derived, and the vehicle candidate area is a forward vehicle depending on whether or not the distance is smaller than a predetermined threshold value. The feature is to judge whether or not.

【0017】このような構成によれば、実走行時におけ
る車両候補領域のフュージョンベクトルと、辞書フュー
ジョンベクトルとの距離から、車両候補領域が前方車両
であるかどうか判断するため、複雑なシーンであって
も、画像センサ単独の場合のような誤認識の頻度を大幅
に低減することができると共に、レーザレーダ単独の場
合のような誤差の拡大を防止することができる。
According to this structure, it is a complicated scene because it is determined whether or not the vehicle candidate area is a front vehicle from the distance between the fusion vector of the vehicle candidate area and the dictionary fusion vector during actual driving. However, it is possible to significantly reduce the frequency of erroneous recognition as in the case of the image sensor alone, and it is possible to prevent the error from expanding as in the case of the laser radar alone.

【0018】また、本発明にかかる前方車両認識装置
は、前記照合部により前方車両であると判断された前記
車両候補領域の前記フュージョンベクトルを、前記辞書
フュージョンベクトルとして前記格納部に登録すること
を特徴としている。
Further, the forward vehicle recognizing device according to the present invention is characterized in that the fusion vector of the vehicle candidate area determined to be a forward vehicle by the collation unit is registered in the storage unit as the dictionary fusion vector. It has a feature.

【0019】このような構成によれば、辞書フュージョ
ンベクトルとしての精度を高めることで、前方車両の認
識精度を向上することができる。
According to this structure, the accuracy of the dictionary fusion vector is increased, and thus the recognition accuracy of the front vehicle can be improved.

【0020】また、本発明にかかる前方車両認識装置
は、前記照合部が、前方車両と判断した前記車両候補領
域についてカルマンフィルタによる動き予測を行い、次
回の照合処理に利用することを特徴としている。
Further, the forward vehicle recognizing device according to the present invention is characterized in that the collating unit predicts a motion of the vehicle candidate area determined to be a forward vehicle by a Kalman filter and uses it for the next collating process.

【0021】このような構成によれば、前方車両と判断
した車両候補領域の動きを予測して次回の照合処理に利
用するため、より精度の高い車両認識を実現することが
できる。
According to such a configuration, the movement of the vehicle candidate area determined to be a forward vehicle is predicted and used in the next matching process, so that more accurate vehicle recognition can be realized.

【0022】また、本発明にかかる前方車両認識方法
は、画像センサにより、撮像画像に対して所定の注視領
域を設定しその注視領域における各画素の所定方向への
濃度投影値であるエッジヒストグラムを導出する導出工
程と、レーザレーダにより、自車前方にレーザ光を水平
方向にスキャンしつつ照射すると共に反射点からの反射
光を受光して複数個の前記反射点の位置を特定する特定
工程と、実走行時に導出される前記エッジヒストグラム
に基づく照合パターンと、前記レーザレーダにより実走
行時に特定される前記各反射点の分布パターンとを融合
し固有空間法により次元圧縮した融合パターンが、予め
準備した各種のサンプル用車両について、そのサンプル
画像から導出された前記エッジヒストグラムのパターン
と、前記レーザレーダにより特定された複数の反射点の
パターンとを融合し固有空間法により次元圧縮して得ら
れる複数の辞書パターンのうちのいずれかにほぼ一致す
るかどうか照合して前方車両かどうかを判断する照合工
程とを含むことを特徴としている。
Further, in the forward vehicle recognition method according to the present invention, a predetermined gaze area is set in the picked-up image by the image sensor, and an edge histogram which is a density projection value of each pixel in the gaze area in a predetermined direction is calculated. Derivation step of deriving, and a laser radar, a specific step of irradiating the front side of the vehicle while scanning the laser beam in the horizontal direction and receiving reflected light from a reflection point to specify the positions of the plurality of reflection points. , A fusion pattern in which a collation pattern based on the edge histogram derived during actual traveling and a distribution pattern of each reflection point specified during actual traveling by the laser radar are fused and dimensionally compressed by an eigenspace method is prepared in advance. For each of the various sample vehicles described above, the edge histogram pattern derived from the sample image and the laser Matching with the patterns of multiple reflection points specified by the method and matching with any of the dictionary patterns obtained by dimensional compression by the eigenspace method to determine whether it is a forward vehicle It is characterized by including a process.

【0023】このような構成によれば、実走行時に、画
像処理部により導出されるエッジヒストグラムに基づく
照合パターンと、レーザレーダにより特定される各反射
点の分布パターンとを、生データの段階で融合して固有
空間法により次元圧縮した融合パターンが、各辞書パタ
ーンのうちのいずれかにほぼ一致するかどうか照合さ
れ、前方車両かどうかが判断されるため、レーザレーザ
単独の場合のように、前方車両以外の車両や路側物等か
らの反射を前方車両からの反射に含めてしまうことを防
止でき、しかも画像センサの場合のような複雑なシーン
における車両の誤認識の頻度を低減でき、前方車両を高
精度に認識することができる。
According to this structure, at the time of actual traveling, the matching pattern based on the edge histogram derived by the image processing unit and the distribution pattern of each reflection point specified by the laser radar are processed at the raw data stage. The fusion pattern fused and dimensionally compressed by the eigenspace method is checked to see if it almost matches any one of the dictionary patterns, and it is determined whether the vehicle is a forward vehicle. It is possible to prevent reflections from vehicles other than the front vehicle or roadside objects from being included in the reflections from the front vehicle, and reduce the frequency of erroneous recognition of the vehicle in a complicated scene such as in the case of an image sensor. The vehicle can be recognized with high accuracy.

【0024】また、本発明にかかる前方車両認識方法
は、前記導出工程が、前記撮像画像に対して設定した前
記注視領域における各画素の濃淡から画面のX方向への
エッジヒストグラム、これに直交する画面のY方向への
エッジヒストグラム及び両方向へのエッジヒストグラム
の積を演算してその極大点を導出することで車両候補領
域を抽出する工程を含み、前記照合工程が、前記車両候
補領域において導出される前記X方向及びY方向へのエ
ッジヒストグラムそれぞれに基づき、サイズを縮小した
X方向ベクトル及びY方向ベクトルを前記照合パターン
として作成する工程と、前記レーザレーダにより前記車
両候補領域において特定される前記各反射点の受光強度
ヒストグラムを形成し、その受光強度ヒストグラムに基
づき、サイズを縮小したレーザベクトルを前記分布パタ
ーンとして作成する工程と、前記車両候補領域における
前記X方向ベクトル、Y方向ベクトル及びレーザベクト
ルに基づき、固有空間法の適用により次元圧縮して成る
前記車両候補領域のフュージョンベクトルを前記融合パ
ターンとして形成する工程とを含むことを特徴としてい
る。
Further, in the forward vehicle recognition method according to the present invention, the derivation step is an edge histogram in the X direction of the screen from the grayscale of each pixel in the gaze area set for the captured image, which is orthogonal to the edge histogram. The method includes a step of calculating a product of an edge histogram in the Y direction of the screen and a product of the edge histograms in both directions and deriving a maximum point thereof to extract a vehicle candidate area, and the matching step is derived in the vehicle candidate area. Based on each of the X-direction and Y-direction edge histograms, the size-reduced X-direction vector and Y-direction vector are created as the matching pattern; and the laser radar identifies each of the vehicle candidate regions. Form a received light intensity histogram of reflection points and reduce the size based on the received light intensity histogram A laser vector as the distribution pattern, and a fusion vector of the vehicle candidate region, which is dimensionally compressed by applying an eigenspace method based on the X-direction vector, the Y-direction vector and the laser vector in the vehicle candidate region. Is formed as the fusion pattern.

【0025】このような構成によれば、画像処理により
得られる照合パターンとしてのX方向ベクトル及びY方
向ベクトルと、レーザレーダによる反射点の受光強度ヒ
ストグラムから得られる分布パターンとしてのレーザベ
クトルとが融合されて固有空間法により次元圧縮され、
融合パターンとしてのフュージョンベクトルが形成され
るため、レーザと画像それぞれのセンサ生データの段階
でデータを融合したものを次元圧縮することで、パター
ン認識の精度を向上することができ、複雑なシーンであ
っても前方車両の認識を高精度に行うことができる。
According to this structure, the X-direction vector and the Y-direction vector as the matching pattern obtained by the image processing and the laser vector as the distribution pattern obtained from the received light intensity histogram of the reflection points by the laser radar are fused. And dimensionally compressed by the eigenspace method,
Since a fusion vector is formed as a fusion pattern, it is possible to improve the accuracy of pattern recognition by dimensionally compressing the fusion of the data at the sensor raw data stage of the laser and image, and in a complex scene. Even if there is, the vehicle ahead can be recognized with high accuracy.

【0026】また、本発明にかかる前方車両認識方法
は、前記辞書パターンが、前記各サンプル用車両のサン
プル画像に対して、導出された前記X方向及びY方向へ
のエッジヒストグラムに基づき、サイズを縮小して作成
される辞書用X方向及びY方向ベクトルと、前記サンプ
ル用車両に対して、前記レーザレーダにより特定された
前記各反射点についてサイズを縮小して作成される辞書
用レーザベクトルとが融合され固有空間法により次元圧
縮されて得られる辞書フュージョンベクトルから成り、
前記照合工程が、実走行時における前記車両候補領域の
前記フュージョンベクトルと、前記辞書フュージョンベ
クトルとの距離を導出し、その距離が予め定められたし
きい値よりも小さいかどうかにより前記車両候補領域が
前方車両であるかどうか判断する工程を含むことを特徴
としている。
In the forward vehicle recognition method according to the present invention, the size of the dictionary pattern is determined with respect to the sample image of each sample vehicle based on the derived edge histograms in the X and Y directions. A dictionary X-direction vector and a Y-direction vector created by reduction, and a dictionary laser vector created by reducing the size of each of the reflection points specified by the laser radar with respect to the sample vehicle. It consists of a dictionary fusion vector obtained by fusion and dimensional compression by the eigenspace method,
The collation step derives a distance between the fusion vector of the vehicle candidate area and the dictionary fusion vector during actual traveling, and determines whether the distance is smaller than a predetermined threshold value. Is characterized by including a step of determining whether or not the vehicle is a forward vehicle.

【0027】このような構成によれば、実走行時におけ
る車両候補領域のフュージョンベクトルと、辞書フュー
ジョンベクトルとの距離から、車両候補領域が前方車両
であるかどうか判断するため、複雑なシーンであって
も、画像センサ単独の場合のような誤認識の頻度を大幅
に低減することができると共に、レーザレーダ単独の場
合のような誤差の拡大を防止することができる。
According to such a configuration, whether or not the vehicle candidate area is a forward vehicle is determined from the distance between the fusion vector of the vehicle candidate area and the dictionary fusion vector during actual traveling, which is a complicated scene. However, it is possible to significantly reduce the frequency of erroneous recognition as in the case of the image sensor alone, and it is possible to prevent the error from expanding as in the case of the laser radar alone.

【0028】また、本発明にかかる前方車両認識方法
は、前記照合工程により、前方車両であると判断された
前記車両候補領域の前記フュージョンベクトルを、前記
辞書フュージョンベクトルとして登録する工程を含むこ
とを特徴としている。
Further, the front vehicle recognition method according to the present invention includes a step of registering the fusion vector of the vehicle candidate area determined to be a front vehicle by the collation step as the dictionary fusion vector. It has a feature.

【0029】このような構成によれば、辞書フュージョ
ンベクトルとしての精度を高めることで、前方車両の認
識精度を向上することができる。
According to this structure, the accuracy of the dictionary fusion vector can be improved, so that the recognition accuracy of the preceding vehicle can be improved.

【0030】また、本発明にかかる前方車両認識方法
は、前記照合工程が、前方車両と判断した前記車両候補
領域についてカルマンフィルタによる動き予測を行い、
次回の照合処理に利用する工程を含むことを特徴として
いる。
Further, in the forward vehicle recognition method according to the present invention, the collation step performs a motion estimation by a Kalman filter for the vehicle candidate area determined to be a forward vehicle,
It is characterized in that it includes a step used for the next matching process.

【0031】このような構成によれば、前方車両と判断
した車両候補領域の動きを予測して次回の照合処理に利
用するため、より精度の高い車両認識を実現することが
できる。
According to such a configuration, the movement of the vehicle candidate area determined to be a forward vehicle is predicted and used in the next matching process, so that more accurate vehicle recognition can be realized.

【0032】[0032]

【発明の実施の形態】この発明の一実施形態について図
1ないし図10を参照して説明する。但し、図1はブロ
ック図、図2ないし図10は動作説明図である。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described with reference to FIGS. However, FIG. 1 is a block diagram, and FIGS. 2 to 10 are operation explanatory diagrams.

【0033】図1に示すように、スキャンレーザレー
ダ、そのスキャニング機構及び受光器から成るレーザレ
ーダモジュール1、及び、画像センサである単眼CCD
カメラから成る画像処理部としてのカメラモジュール2
が自車に搭載され、レーザレーダモジュール1により、
自車前方にレーザ光が水平方向にスキャンされつつ照射
され、反射点からの反射光が受光されて複数個の反射点
の位置が特定され、カメラモジュール2により自車の前
方が撮像される。また、RAM等から成る格納部として
のメモリ4には、後で詳述する辞書パターンとしての辞
書フュージョンベクトルが格納されている。
As shown in FIG. 1, a laser radar module 1 including a scan laser radar, its scanning mechanism and a light receiver, and a monocular CCD as an image sensor.
Camera module 2 as an image processing unit including a camera
Is mounted on the vehicle and the laser radar module 1
The laser light is emitted in the horizontal direction in front of the vehicle, the reflected light from the reflection point is received, the positions of the plurality of reflection points are specified, and the front of the vehicle is imaged by the camera module 2. In addition, a dictionary fusion vector as a dictionary pattern, which will be described later, is stored in the memory 4 as a storage unit including a RAM and the like.

【0034】更に、レーザレーダモジュール1により特
定された反射点データ、及び、カメラモジュール2によ
り得られた撮像画像がCPU3によりRAM等から成る
図1には示されていない他のメモリに保存される。この
とき、レーザレーダモジュール1によるデータと、カメ
ラモジュール2によるデータを、メモリ4の辞書フュー
ジョンベクトルの格納エリアとは異なるエリアに保存す
るようにしてもよい。
Further, the reflection point data specified by the laser radar module 1 and the picked-up image obtained by the camera module 2 are saved by the CPU 3 in another memory such as RAM which is not shown in FIG. . At this time, the data from the laser radar module 1 and the data from the camera module 2 may be stored in an area different from the storage area of the dictionary fusion vector in the memory 4.

【0035】ところで、レーザレーダモジュール1及び
カメラモジュール2の座標系の関係は、例えば図2に示
すように設定する。つまり、図2に示すように、カメラ
座標系は、レンズ中心を原点としてカメラ光軸をZ軸に
とり、画像面上でのx軸、y軸に平行にX軸、Y軸をと
る。ここで、焦点距離fは既知である。
The relationship between the coordinate systems of the laser radar module 1 and the camera module 2 is set, for example, as shown in FIG. That is, as shown in FIG. 2, the camera coordinate system takes the camera optical axis as the Z axis with the lens center as the origin, and takes the X axis and the Y axis parallel to the x axis and the y axis on the image plane. Here, the focal length f is known.

【0036】また、レーザレーダ座標系は、受光器を原
点、レーザ光軸をZR 軸にとり、鉛直方向にYR 軸、水
平方向にXR 軸を設定する。XR YR ZR 座標系からX
YZ座標系へは、回転ベクトルω、並進ベクトルTの合
成行列ωTによって変換可能であり、後述するように、
本発明ではレーザレーダモジュール1により特定される
反射点の座標をカメラ座標に変換して照合する。但し、
合成行列ωTは予めキャリブレーションを行っており、
既知である。
In the laser radar coordinate system, the light receiver is the origin, the laser optical axis is the ZR axis, the YR axis is set in the vertical direction, and the XR axis is set in the horizontal direction. XR YR ZR X from coordinate system
The YZ coordinate system can be converted by a composite matrix ωT of the rotation vector ω and the translation vector T, and as described later,
In the present invention, the coordinates of the reflection point specified by the laser radar module 1 are converted into camera coordinates for verification. However,
The composite matrix ωT has been calibrated in advance,
It is known.

【0037】そして、カメラモジュール2のCCDカメ
ラにより自車前方が撮像され、従来と同様、図12に示
すように、カメラモジュール2によりその撮像画像に対
して水平方向(X方向)に長い矩形の注視領域ROI
(図12中の白枠の矩形領域)が設定され、その注視領
域ROIにおける各画素の濃淡からX方向(水平方向)
へのエッジヒストグラムEHx、これに直交するY方向
(垂直方向)へのエッジヒストグラムEHy、及び両方
向へのエッジヒストグラムの積EHxyが演算される。
Then, the CCD camera of the camera module 2 picks up an image of the front of the vehicle, and as shown in FIG. 12, as shown in FIG. 12, the camera module 2 makes a rectangular shape long in the horizontal direction (X direction) with respect to the picked-up image. Gaze area ROI
(Rectangular region of white frame in FIG. 12) is set, and the X direction (horizontal direction) from the shade of each pixel in the gazing region ROI.
Edge histogram EHx, an edge histogram EHy in the Y direction (vertical direction) orthogonal to the edge histogram EHx, and an edge histogram product EHxy in both directions are calculated.

【0038】このとき、車両のリアガラスやリアバンパ
付近はY方向エッジ成分を多く含むので、車両の後端面
についてはY方向へのエッジヒストグラムEHyが大き
な値となるのに対し、電柱や街灯の柱、ガードレール等
の道路構造物の場合、X方向へのエッジヒストグラムE
Hxは大きくなるがY方向へのエッジヒストグラムEH
yは小さい値となる。そのため、X方向へのエッジヒス
トグラムEHxとY方向へのエッジヒストグラムEHy
とを積算することで、車両後端面以外のエッジヒストグ
ラムの極大点をある程度抑制することができ、逆に車両
後端面のエッジヒストグラムの極大点を強調することが
できる。
At this time, since the rear glass of the vehicle and the vicinity of the rear bumper include many Y-direction edge components, the edge histogram EHy in the Y direction has a large value on the rear end surface of the vehicle, whereas the poles of the electric pole and the streetlight, For road structures such as guardrails, edge histogram E in the X direction
Hx increases, but edge histogram EH in the Y direction
y has a small value. Therefore, the edge histogram EHx in the X direction and the edge histogram EHy in the Y direction
By integrating and, the maximum points of the edge histogram other than the vehicle rear end surface can be suppressed to some extent, and conversely, the maximum points of the edge histogram of the vehicle rear end surface can be emphasized.

【0039】従って、前フレームでの車両認識位置を基
に計算した現フレームでの車両予測位置から、優先的に
エッジヒストグラムの積EHxyの極大点(xL,x
R)を車両後端位置候補ペアとして切り出していき、区
間(xL,xR)で所定のしきい値以上のY方向エッジ
Ey(図12参照)を水平方向にカウントしたエッジヒ
ストグラムEVyを作成し、このEVy中の極大点で車
間距離と推定車幅を考慮した車両上(下)端の近さの程
度から車両上下端候補(yU,yD)を求める。こうす
ると、道路勾配変化による車両上下位置ずれに、ある程
度対応することができる。この4点で定まる矩形が車両
候補領域として抽出される。
Therefore, the maximum point (xL, x) of the product EHxy of the edge histogram is preferentially calculated from the vehicle predicted position in the current frame calculated based on the vehicle recognized position in the previous frame.
R) is cut out as a vehicle rear end position candidate pair, and an edge histogram EVy is created by horizontally counting Y-direction edges Ey (see FIG. 12) equal to or larger than a predetermined threshold value in the section (xL, xR). A vehicle upper and lower end candidate (yU, yD) is obtained from the degree of proximity of the vehicle upper (lower) end in consideration of the inter-vehicle distance and the estimated vehicle width at the maximum point in EVy. By doing so, it is possible to cope with the vehicle vertical position shift due to the change in the road gradient to some extent. A rectangle defined by these four points is extracted as a vehicle candidate area.

【0040】そして、CPU3により、この車両候補領
域におけるX方向(水平方向)及びY方向(垂直方向)
へのエッジヒストグラムそれぞれに基づき、サイズを縮
小した照合パターンとしてのX方向ベクトル及びY方向
ベクトルが作成される。このようなCPU3によるX,
Y方向ベクトルの作成処理が第1の作成部に相当する。
Then, the CPU 3 causes the vehicle candidate area to be in the X direction (horizontal direction) and the Y direction (vertical direction).
An X-direction vector and a Y-direction vector as a collation pattern with a reduced size are created based on each of the edge histograms for the. X by such CPU3,
The process of creating the Y-direction vector corresponds to the first creating unit.

【0041】一方、レーザレーダモジュール1は、自車
の前方にレーザ光を照射し、その際スキャニング機構に
より所定角度(例えば0.1゜)ずつレーザ光が水平方
向にスキャンされ、自車前方の対象物からの反射光が受
光器により受光されてレーザ光の照射から反射光の受光
までの時間から、自車と同一車線を走行する先行車との
車間距離が検出されるようになっている。このような1
回の車間距離の検出処理に要する時間は、約100ms
程度の短い時間であり、この検出動作が一定時間毎に繰
り返される。
On the other hand, the laser radar module 1 irradiates the front of the vehicle with laser light, and at that time, the scanning mechanism scans the laser light horizontally at a predetermined angle (for example, 0.1 °), and the front of the vehicle is scanned. The distance from the subject vehicle to the preceding vehicle traveling in the same lane is detected from the time from the irradiation of the laser light from the reception of the reflected light from the target object to the reception of the reflected light. . One like this
The time required to detect the vehicle-to-vehicle distance is about 100 ms
This is a short time, and this detection operation is repeated at regular intervals.

【0042】更に、このような動作によりレーザレーダ
モジュール1により対象物上の複数の反射点が特定され
ると、例えば図3に示すように、その特定された各反射
点の受光強度ヒストグラム(図3中の白色リスト)が形
成され、CPU3により、その受光強度ヒストグラムに
基づき、サイズを縮小した分布パターンとしてのレーザ
ベクトルが作成される。このとき、中遠距離からの反射
点の場合、受光するレーザ本数が少ないことから、受光
強度リスト値が欠落するため、欠落した位置には、欠落
位置左右近辺の受光強度平均値で補填してある程度その
距離での受光強度モデルへと形状を近づけておくのが望
ましい。このようなCPU3によるレーザベクトルの作
成処理が第2の作成部に相当する。
Further, when a plurality of reflection points on the object are specified by the laser radar module 1 by such an operation, as shown in FIG. 3, for example, the received light intensity histogram (FIG. 3) of each of the specified reflection points is shown. A white list in 3) is formed, and the CPU 3 creates a laser vector as a distribution pattern with a reduced size based on the received light intensity histogram. At this time, in the case of the reflection point from the middle and long distances, since the number of laser beams received is small, the received light intensity list value is missing.Therefore, the missing position is compensated with the average value of the received light intensity around the left and right positions to some extent. It is desirable to make the shape closer to the received light intensity model at that distance. Such a laser vector creation process by the CPU 3 corresponds to a second creation unit.

【0043】ところで、メモリ4には上記したように辞
書パターンとしての複数の辞書フュージョンベクトルが
格納されており、この辞書フュージョンベクトルは次の
ようにして得られる。例えば、図4に示すような各種の
サンプル用車両を予め準備し、そのサンプル画像に対し
てカメラモジュール2により導出されたX方向へのエッ
ジヒストグラムEHx及びY方向へのエッジヒストグラ
ムEHyに基づき、CPU3により、サイズを縮小した
辞書用X方向ベクトルhx_及び辞書用Y方向ベクトル
hy_が作成され、各種サンプル用車両に対しレーザレ
ーダモジュール1により特定された各反射点について作
成される受光強度ヒストグラムに基づき、CPU3によ
り、サイズを縮小した辞書用レーザベクトルlp_が作
成され、これら辞書用X方向、Y方向ベクトルhx_,
hy_及び辞書用レーザベクトルlp_が生データの段
階で融合され、固有空間法の適用により次元圧縮されて
フュージョンベクトルv_が得られる。
By the way, a plurality of dictionary fusion vectors as dictionary patterns are stored in the memory 4 as described above, and the dictionary fusion vectors are obtained as follows. For example, various kinds of sample vehicles as shown in FIG. 4 are prepared in advance, and based on the edge histogram EHx in the X direction and the edge histogram EHy in the Y direction derived by the camera module 2 for the sample image, the CPU 3 Thus, the reduced size X-direction vector hx_ for dictionary and the Y-direction vector hy_ for dictionary are created, and based on the received light intensity histogram created for each reflection point specified by the laser radar module 1 for various sample vehicles, The CPU 3 creates the reduced-size dictionary laser vector lp_, and the dictionary X-direction and Y-direction vectors hx_,
The hy_ and the dictionary laser vector lp_ are fused at the stage of raw data and dimensionally compressed by applying the eigenspace method to obtain the fusion vector v_.

【0044】このとき、辞書用X方向及びY方向ベクト
ルhx_,hy_を、 hx_=〔hx1,hx2,hx3,…,hxm〕…(1) hy_=〔hy1,hy2,hy3,…,hym〕…(2) と定義し、辞書用レーザベクトルlp_を、 lp_=〔lp1,lp2,lp3,…,lpn〕…(3) と定義すると、フュージョンベクトルv_は、 v_=〔hx_,hy_,lp_〕…(4) と定義することができる。ここで、辞書用レーザベクト
ルlp_は様々な距離のモデルをN個準備しておく。即
ち、フュージョンベクトルv_は、d次元(2×m+
n)であり、そのサンプル数はM×N個である。
At this time, the X-direction and Y-direction vectors hx_ and hy_ for the dictionary are expressed as follows: hx _ = [hx1, hx2, hx3, ..., Hxm] ... (1) hy _ = [hy1, hy2, hy3, ..., hym] ... (2) and the dictionary laser vector lp_ is defined as lp _ = [lp1, lp2, lp3, ..., Lpn] (3), the fusion vector v_ is v _ = [hx_, hy_, lp_] T It can be defined as (4). Here, for the dictionary laser vector lp_, N models of various distances are prepared. That is, the fusion vector v_ is d-dimensional (2 × m +
n), and the number of samples is M × N.

【0045】そして、フュージョンベクトルv_の共分
散行列Qは、 Q=E{(v_−m_)(v_−m_) }…(5) と表わされ、(5) 式中のm_はv_の平均ベクトルであ
って、 m_=E{v_}…(6) である。ここで、 Qej =λj ej …(7) の固有値問題を解く。作成辞書をk次元とすると、k個
の大きな固有値に対応する固有ベクトルe_は、 e_={e1_,e2_,e3_,…,ek_}…(8) で定義される。尚、kの値は、 α=Σ j=1λj/Σ j=1λj…(9) の式で表わされる累積寄与率αが0.9以上になる最小
値とする。
The covariance matrix Q of the fusion vector v_ is expressed as follows: Q = E {(v_-m _) (v_-m_) T } (5), where m_ in the equation (5) is v_ It is an average vector, and m_ = E {v _} ... (6). Here, the eigenvalue problem of Qej = λj ej (7) is solved. Assuming that the created dictionary is k-dimensional, the eigenvector e_ corresponding to k large eigenvalues is defined by e _ = {e1_, e2_, e3 _, ..., ek _} ... (8). The value of k is the minimum value at which the cumulative contribution rate α represented by the formula α = Σ k j = 1 λj / Σ d j = 1 λj (9) becomes 0.9 or more.

【0046】更に、d次元のフュージョンベクトルv_
は、(8) 式で表わされる固有ベクトルe_を用いて、 u_=〔e1_,e2_,e3_,…,ek_〕v_…(10) の式により、k次元の主成分ベクトルu_に圧縮するこ
とができ、この主成分ベクトルu_を準備した全てのフ
ュージョンベクトルv_に対して予め計算し、辞書フュ
ージョンベクトルとしてメモリ4に登録、蓄積しておく
のである。
Furthermore, the d-dimensional fusion vector v_
Can be compressed into a k-dimensional principal component vector u_ by the equation u _ = [e1_, e2_, e3 _, ..., ek_] T v _... (10) using the eigenvector e_ represented by the equation (8). The main component vector u_ can be calculated in advance for all prepared fusion vectors v_, and registered and stored in the memory 4 as a dictionary fusion vector.

【0047】そして、上記した辞書用X方向、Y方向ベ
クトルhx_,hy_及び辞書用レーザベクトルlp_
の作成と同様にして、実走行時の車両候補領域につい
て、CPU3により、X方向、Y方向ベクトル及びレー
ザベクトルが作成されると共に、これらが生データの段
階で融合され、固有空間法の適用により次元圧縮されて
融合パターンとしてのフュージョンベクトルが作成され
る。ここで、画像データとレーザデータとを融合するに
は、図5に示すように、CCDカメラの検知範囲とレー
ザレーダの検知範囲とが重なっていることが前提とな
る。このようなCPU3によるフュージョンベクトルの
作成処理がフュージョン部に相当する。
Then, the above-mentioned dictionary X-direction and Y-direction vectors hx_, hy_ and the dictionary laser vector lp_.
In the same way as the above, the CPU 3 creates an X direction vector, a Y direction vector, and a laser vector for the vehicle candidate area at the time of actual traveling, and these are fused at the stage of raw data, and the eigenspace method is applied. Dimensionally compressed to create a fusion vector as a fusion pattern. Here, in order to fuse the image data and the laser data, it is premised that the detection range of the CCD camera and the detection range of the laser radar overlap each other as shown in FIG. The fusion vector creation process by the CPU 3 corresponds to the fusion unit.

【0048】更に、CPU3により、実走行時のフュー
ジョンベクトルと、メモリ4に蓄積されている辞書フュ
ージョンベクトルとが照合され、実走行時のフュージョ
ンベクトルに対応する車両後方領域が前方車両かどうか
の判断がなされる。このとき、CPU3により、実走行
時における車両候補領域のフュージョンベクトルが上記
した(10)式により車両固有空間に投影され、辞書フュー
ジョンベクトルとの距離が導出され、その距離の特徴空
間上でのユークリッド距離が予め定められたしきい値よ
りも小さければ車両候補領域が前方車両であると判断さ
れ、大きければ非車両と判断されるのである。このよう
に、フュージョンベクトルの作成まで含めたCPU3に
よる一連の照合処理が照合部に相当する。
Further, the CPU 3 collates the fusion vector at the time of actual traveling with the dictionary fusion vector stored in the memory 4, and judges whether the vehicle rear area corresponding to the fusion vector at the actual traveling is a front vehicle. Is done. At this time, the CPU 3 projects the fusion vector of the vehicle candidate area during actual traveling onto the vehicle eigenspace by the above equation (10), derives the distance from the dictionary fusion vector, and Euclidean of the distance in the feature space. If the distance is smaller than a predetermined threshold value, it is determined that the vehicle candidate area is a forward vehicle, and if the distance is large, it is determined that the vehicle candidate area is a non-vehicle. In this way, the series of matching processing by the CPU 3 including the creation of the fusion vector corresponds to the matching unit.

【0049】また、CPU3により、前方車両であると
判断された車両候補領域のフュージョンベクトルは、辞
書フュージョンベクトルとしてメモリ4に登録される。
こうすることで、辞書フュージョンベクトルとしての精
度を高めることができ、前方車両の認識精度を向上する
ことができる。
Further, the CPU 3 registers the fusion vector of the vehicle candidate area determined to be a vehicle ahead in the memory 4 as a dictionary fusion vector.
By doing so, the accuracy of the dictionary fusion vector can be increased, and the recognition accuracy of the front vehicle can be improved.

【0050】更に、前方車両であると判断された車両候
補領域について、CPU3により、カルマンフィルタに
よる動き予測が行われ、次回の照合処理に利用され、こ
うすることによって、より精度の高い車両認識を実現す
ることができるのである。
Further, with respect to the vehicle candidate area determined to be the front vehicle, the CPU 3 performs the motion prediction by the Kalman filter, which is used for the next collation processing, thereby realizing more accurate vehicle recognition. You can do it.

【0051】次に、CPU2による車両の認識処理手順
について、図6に示すフローチャートを参照して説明す
る。図6に示すように、自車の走行中にCCDカメラに
より撮像された自車前方の画像中の注視領域について、
カメラモジュール2により上記したようにエッジヒスト
グラムEHx,EHy,EHxyが計算され(S1)、
そのエッジヒストグラムEHxyの極大点が求められ、
その極大点と前回の認識結果とに基づき車両候補領域が
抽出される。
Next, the vehicle recognition processing procedure by the CPU 2 will be described with reference to the flowchart shown in FIG. As shown in FIG. 6, regarding the gazing area in the image in front of the vehicle captured by the CCD camera while the vehicle is traveling,
The edge histograms EHx, EHy, EHxy are calculated by the camera module 2 as described above (S1),
The maximum point of the edge histogram EHxy is obtained,
The vehicle candidate area is extracted based on the maximum point and the previous recognition result.

【0052】更に、図6に示すように、レーザレーダモ
ジュール1によりレーザ光の反射点が特定されて受光強
度ヒストグラムが導出され(S2)、CPU3により、
車両候補領域についてのX,Y方向ベクトル及びレーザ
ベクトルが作成されると共に、これらのベクトルが融合
されてフュージョンベクトルが作成され(S3)、車両
候補領域のフュージョンベクトルと、メモリ4に蓄積さ
れている複数の辞書フュージョンベクトルとが照合され
る(S4)。
Further, as shown in FIG. 6, the laser radar module 1 identifies the reflection point of the laser light and derives the received light intensity histogram (S2).
An X, Y direction vector and a laser vector for the vehicle candidate area are created, and a fusion vector is created by fusing these vectors (S3) and stored in the memory 4 and the fusion vector of the vehicle candidate area. The dictionary fusion vectors are collated (S4).

【0053】そして、その車両候補領域のフュージョン
ベクトルとの距離が所定のしきい値以下になる辞書フュ
ージョンベクトル存在するかどうかにより、車両候補領
域が車両であるか否かの判定がなされ(S5)、この判
定結果がNOであればその車両候補領域は非車両である
として却下され(S6)、判定結果がYESであれば、
その車両候補領域は車両であると予測され(S7)、例
えば先行車両との車間距離を所定値に保持して追従走行
する場合の制御などに使用される。尚、ステップS7の
後は、上記したステップS3に戻り、次フレームから
は、その矩形領域について優先的にカルマンフィルタに
よる追跡が行われる。
Then, it is judged whether or not the vehicle candidate area is a vehicle depending on whether or not there is a dictionary fusion vector whose distance from the fusion vector of the vehicle candidate area is equal to or less than a predetermined threshold value (S5). If the determination result is NO, the vehicle candidate area is rejected as a non-vehicle (S6), and if the determination result is YES,
The vehicle candidate area is predicted to be a vehicle (S7), and is used, for example, for control when following the vehicle while keeping the inter-vehicle distance with the preceding vehicle at a predetermined value. Note that after step S7, the process returns to step S3 described above, and from the next frame, the rectangular area is preferentially tracked by the Kalman filter.

【0054】こうして、実走行時における連続シーンと
して、例えば図7〜図9に示すような画像が撮像された
とすると、図7に示すように車両と路側構造物である壁
からのレーザ反射点が近接しているシーンでは、従来の
ようにレーザレーダ単独ではクラスタリングが困難であ
り、画像センサ単独では車両部の切り出しが困難で距離
精度の悪化を招いていたのに対し、上記した本発明の手
法によれば、図7〜図9中の白線矩形に示すように、車
両認識に成功していることがわかる。また、図9に示す
ように、レーザ検知範囲内にガードレールが存在する場
合であっても、従来のようにレーザレーダ単独ではガー
ドレールを車両と誤認識していたのに対し、上記した本
発明の手法によれば、車両認識に成功していることがわ
かる。
In this way, if images such as those shown in FIGS. 7 to 9 are taken as the continuous scenes during actual traveling, the laser reflection points from the vehicle and the wall which is the roadside structure are shown in FIG. In a close scene, clustering is difficult with the laser radar alone as in the conventional case, and it is difficult to cut out the vehicle part with the image sensor alone, which causes deterioration of the distance accuracy. According to FIG. 7, it can be seen that the vehicle recognition is successful, as indicated by the white rectangle in FIGS. Further, as shown in FIG. 9, even when the guardrail exists within the laser detection range, the laser radar alone erroneously recognized the guardrail as a vehicle as in the conventional case. According to the method, it can be seen that the vehicle recognition is successful.

【0055】更に、図10は同じ車両に対する車両信頼
度Rの比較を示しており、実線が本発明における融合の
場合、点線が従来の画像のみの場合であり、本発明の手
法の方が信頼度Rの高いことがわかる。
Further, FIG. 10 shows a comparison of vehicle reliability R for the same vehicle. The solid line shows the case of fusion in the present invention, the dotted line shows the case of the conventional image only, and the method of the present invention is more reliable. It can be seen that the degree R is high.

【0056】従って、上記した実施形態によれば、実走
行時に、画像処理部により導出されるエッジヒストグラ
ムに基づくX,Y方向ベクトルと、レーザレーダにより
特定される各反射点の受光強度ヒストグラムに基づくレ
ーザベクトルとを融合して得られるフュージョンベクト
ルが、メモリ4に蓄積されている各辞書フュージョンベ
クトルと照合され、前方車両かどうかが判断されるた
め、レーザレーダ単独の場合のように、前方車両以外の
車両や路側物等からの反射を前方車両からの反射に含め
てしまうことを防止でき、しかも画像センサの場合のよ
うな複雑なシーンにおける車両の誤認識の頻度を低減で
き、前方車両を高精度に認識することができる。
Therefore, according to the above-described embodiment, at the time of actual traveling, it is based on the X and Y direction vectors based on the edge histograms derived by the image processing unit and the received light intensity histograms of the respective reflection points specified by the laser radar. The fusion vector obtained by fusing the laser vector is collated with each dictionary fusion vector stored in the memory 4 to determine whether or not the vehicle is a forward vehicle. It is possible to prevent the reflection from a vehicle or a roadside object from being included in the reflection from a front vehicle, and further reduce the frequency of erroneous recognition of the vehicle in a complicated scene such as in the case of an image sensor. It can be recognized with accuracy.

【0057】更に、学習により、辞書フュージョンベク
トルとしての精度を高めることができ、前方車両の認識
精度を向上することができる。
Further, by learning, the accuracy of the dictionary fusion vector can be increased, and the recognition accuracy of the front vehicle can be improved.

【0058】なお、上記した実施形態では、画像センサ
として単眼CCDカメラを用いた場合について説明した
が、画像センサは上記した単眼CCDカメラに限定され
るものでないのはいうまでもない。更に、格納部も上記
したRAMなどから成るメモリ4に限定されるものでは
ない。
In the above embodiment, the case where the monocular CCD camera is used as the image sensor has been described, but it goes without saying that the image sensor is not limited to the monocular CCD camera described above. Further, the storage unit is not limited to the memory 4 including the RAM described above.

【0059】また、本発明は上記した実施形態に限定さ
れるものではなく、その趣旨を逸脱しない限りにおいて
上述したもの以外に種々の変更を行うことが可能であ
る。
The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention.

【0060】[0060]

【発明の効果】以上のように、請求項1、6に記載の発
明によれば、レーザレーダは距離測定に優れ、画像セン
サは車両とそれ以外を精度よく識別できることから、実
走行時に、画像処理部により導出されるエッジヒストグ
ラムに基づく照合パターンと、レーザレーダにより特定
される各反射点の分布パターンとを、生データの段階で
融合して固有空間法により次元圧縮した融合パターン
が、格納部の各辞書パターンのうちのいずれかにほぼ一
致するかどうか照合され、前方車両かどうかが判断され
るため、レーザレーザ単独の場合のように、前方車両以
外の車両や路側物等からの反射を前方車両からの反射に
含めてしまうことを防止でき、しかも画像センサの場合
のような複雑なシーンにおける車両の誤認識の頻度を低
減でき、前方車両を高精度に認識することが可能にな
り、より高度でより快適な運転支援システムを提供する
ことができる。
As described above, according to the first and sixth aspects of the invention, the laser radar excels in distance measurement, and the image sensor can accurately distinguish between the vehicle and the other parts. The collation pattern based on the edge histogram derived by the processing unit and the distribution pattern of each reflection point specified by the laser radar are fused at the stage of raw data and dimensionally compressed by the eigenspace method. It is checked whether or not it substantially matches any one of the dictionary patterns of, and it is judged whether or not it is a front vehicle.Therefore, as in the case of laser laser alone, reflection from vehicles other than the front vehicle or roadside objects etc. It is possible to prevent it from being included in the reflection from the vehicle in front, and reduce the frequency of erroneous recognition of the vehicle in complicated scenes such as in the case of an image sensor. It is possible to recognize the accuracy, it is possible to provide a more comfortable driving assistance system is more sophisticated.

【0061】また、請求項2、7に記載の発明によれ
ば、画像処理により得られる照合パターンとしてのX方
向ベクトル及びY方向ベクトルと、レーザレーダによる
反射点の受光強度ヒストグラムから得られる分布パター
ンとしてのレーザベクトルとが融合されて固有空間法に
より次元圧縮され、融合パターンとしてのフュージョン
ベクトルが形成されるため、レーザと画像それぞれのセ
ンサ生データの段階でデータを融合したものを次元圧縮
することで、パターン認識の精度を向上することがで
き、複雑なシーンであっても前方車両の認識を高精度に
行うことが可能になる。
According to the second and seventh aspects of the invention, the distribution pattern obtained from the X-direction vector and the Y-direction vector as the collation pattern obtained by the image processing and the received light intensity histogram of the reflection point by the laser radar. Since the fusion vector is combined with the laser vector as dimensional compression by the eigenspace method to form a fusion vector as a fusion pattern, it is possible to dimensionally compress the fusion of the data at the sensor raw data stage of each laser and image. Thus, the accuracy of pattern recognition can be improved, and the front vehicle can be recognized with high accuracy even in a complicated scene.

【0062】また、請求項3、8に記載の発明によれ
ば、実走行時における車両候補領域のフュージョンベク
トルと、辞書フュージョンベクトルとの距離から、車両
候補領域が前方車両であるかどうか判断するため、複雑
なシーンであっても、画像センサ単独の場合のような誤
認識の頻度を大幅に低減することが可能になると共に、
レーザレーダ単独の場合のような誤差の拡大を防止する
ことが可能になる。
Further, according to the invention described in claims 3 and 8, it is determined whether or not the vehicle candidate area is a front vehicle from the distance between the fusion vector of the vehicle candidate area and the dictionary fusion vector during actual traveling. Therefore, even in complicated scenes, it is possible to significantly reduce the frequency of false recognition as in the case of the image sensor alone, and
It is possible to prevent the error from expanding as in the case of the laser radar alone.

【0063】また、請求項4、9に記載の発明によれ
ば、辞書フュージョンベクトルとしての精度を高めるこ
とで、前方車両の認識精度を向上することが可能にな
る。
Further, according to the inventions of claims 4 and 9, it is possible to improve the recognition accuracy of the preceding vehicle by increasing the accuracy as the dictionary fusion vector.

【0064】また、請求項5、10に記載の発明によれ
ば、前方車両と判断した車両候補領域の動きを予測して
次回の照合処理に利用するため、より精度の高い車両認
識を実現することが可能になる。
Further, according to the fifth and tenth aspects of the present invention, the movement of the vehicle candidate area judged to be a forward vehicle is predicted and used for the next matching process, so that more accurate vehicle recognition is realized. It will be possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施形態のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】この発明の一実施形態の動作説明図である。FIG. 2 is an operation explanatory diagram of the embodiment of the present invention.

【図3】この発明の一実施形態の動作説明図である。FIG. 3 is an operation explanatory diagram of the embodiment of the present invention.

【図4】この発明の一実施形態の動作説明図である。FIG. 4 is an operation explanatory diagram of the embodiment of the present invention.

【図5】この発明の一実施形態の動作説明図である。FIG. 5 is an operation explanatory diagram of the embodiment of the present invention.

【図6】この発明の一実施形態の動作説明図である。FIG. 6 is an operation explanatory diagram of the embodiment of the present invention.

【図7】この発明の一実施形態の動作説明図である。FIG. 7 is an operation explanatory diagram of the embodiment of the present invention.

【図8】この発明の一実施形態の動作説明図である。FIG. 8 is an operation explanatory diagram of the embodiment of the present invention.

【図9】この発明の一実施形態の動作説明図である。FIG. 9 is an operation explanatory diagram of the embodiment of the present invention.

【図10】この発明の一実施形態の動作説明図である。FIG. 10 is an operation explanatory diagram of the embodiment of the present invention.

【図11】この発明の背景となるスキャンレーザレーダ
による反射点検出の動作説明図である。
FIG. 11 is an explanatory diagram of an operation of detecting a reflection point by the scan laser radar which is the background of the present invention.

【図12】この発明の背景となる画像センサによる車両
認識の動作説明図である。
FIG. 12 is an explanatory diagram of a vehicle recognition operation by the image sensor which is the background of the present invention.

【符号の説明】[Explanation of symbols]

1 レーザレーダモジュール 2 カメラモジュール(画像処理部) 3 CPU(照合部、第1の作成部、第2の作成部、
フュージョン部) 4 メモリ(格納部)
1 Laser Radar Module 2 Camera Module (Image Processing Unit) 3 CPU (Collision Unit, First Creating Unit, Second Creating Unit,
Fusion part) 4 memory (storage part)

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/00 300 G06T 7/00 300G H04N 7/18 H04N 7/18 J // G08G 1/16 G08G 1/16 E Fターム(参考) 5B057 AA16 BA02 DA08 DB02 DB09 DC23 DC36 5C054 FC12 FC14 FC16 HA30 5H180 AA01 CC03 CC04 CC14 5L096 AA06 BA04 CA02 EA27 FA06 FA36 FA64 FA66 GA51 HA07 JA11 Front page continuation (51) Int.Cl. 7 identification code FI theme code (reference) G06T 7/00 300 G06T 7/00 300G H04N 7/18 H04N 7/18 J // G08G 1/16 G08G 1/16 E F-term (reference) 5B057 AA16 BA02 DA08 DB02 DB09 DC23 DC36 5C054 FC12 FC14 FC16 HA30 5H180 AA01 CC03 CC04 CC14 5L096 AA06 BA04 CA02 EA27 FA06 FA36 FA64 FA66 GA51 HA07 JA11

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 自車の前方を走行する車両を認識する前
方車両認識装置において、 自車前方を撮像する画像センサと、 前記画像センサによる撮像画像に対して所定の注視領域
を設定しその注視領域における各画素の所定方向への濃
度投影値であるエッジヒストグラムを導出する画像処理
部と、 自車前方にレーザ光を水平方向にスキャンしつつ照射す
ると共に反射点からの反射光を受光して複数個の前記反
射点の位置を特定するレーザレーダと、 予め準備した各種のサンプル用車両のサンプル画像につ
いて前記画像処理部により導出された前記エッジヒスト
グラムのパターンと、前記各サンプル用車両について前
記レーザレーダにより特定された複数の反射点のパター
ンとを融合し固有空間法により次元圧縮して得られる複
数の辞書パターンを格納した格納部と、 前記画像処理部により実走行時に導出される前記エッジ
ヒストグラムに基づく照合パターンと、前記レーザレー
ダにより実走行時に特定される前記各反射点の分布パタ
ーンとを融合し固有空間法の適用により次元圧縮して成
る融合パターンが、前記格納部に格納されている前記各
辞書パターンのうちのいずれかにほぼ一致するかどうか
照合して前方車両かどうかを判断する照合部とを備えて
いることを特徴とする前方車両認識装置。
1. A front vehicle recognition device for recognizing a vehicle traveling in front of the host vehicle, comprising: an image sensor for capturing an image of the front of the host vehicle; An image processing unit that derives an edge histogram, which is the density projection value of each pixel in a predetermined direction in the area, and irradiates the front of the vehicle while scanning the laser light horizontally while receiving the reflected light from the reflection point. A laser radar for specifying the positions of a plurality of the reflection points, a pattern of the edge histogram derived by the image processing unit for sample images of various sample vehicles prepared in advance, and the laser for each sample vehicle Multiple dictionary patterns obtained by fusing multiple reflection point patterns specified by radar and dimensionally compressing them by the eigenspace method An eigenspace method combining the stored storage unit, the matching pattern based on the edge histogram derived during actual traveling by the image processing unit, and the distribution pattern of each reflection point specified during actual traveling by the laser radar. And a collating unit for collating whether or not the fusion pattern formed by dimensionally compressing by applying the above-mentioned substantially matches any one of the dictionary patterns stored in the storage unit to determine whether the vehicle is a forward vehicle. A front vehicle recognition device characterized in that.
【請求項2】 前記画像処理部が、前記撮像画像に対し
て設定した前記注視領域における各画素の濃淡から画面
のX方向へのエッジヒストグラム、これに直交する画面
のY方向へのエッジヒストグラム及び両方向へのエッジ
ヒストグラムの積を演算してその極大点を導出すること
で車両候補領域を抽出し、 前記照合部が、前記画像処理部により前記車両候補領域
において導出される前記X方向及びY方向へのエッジヒ
ストグラムそれぞれに基づき、サイズを縮小したX方向
ベクトル及びY方向ベクトルを前記照合パターンとして
作成する第1の作成部と、前記レーザレーダにより前記
車両候補領域において特定される前記各反射点の受光強
度ヒストグラムを形成し、その受光強度ヒストグラムに
基づき、サイズを縮小したレーザベクトルを前記分布パ
ターンとして作成する第2の作成部と、前記車両候補領
域における前記X方向ベクトル、Y方向ベクトル及びレ
ーザベクトルに基づき、固有空間法の適用により次元圧
縮して成る前記車両候補領域のフュージョンベクトルを
前記融合パターンとして形成するフュージョン部とを備
えていることを特徴とする請求項1に記載の前方車両認
識装置。
2. The image processing unit, an edge histogram in the X direction of the screen from the density of each pixel in the gaze area set for the captured image, an edge histogram in the Y direction of the screen orthogonal thereto, A vehicle candidate region is extracted by calculating a product of edge histograms in both directions and deriving a maximum point thereof, and the collating unit calculates the X direction and the Y direction in the vehicle candidate region by the image processing unit. A first creation unit that creates a reduced-size X-direction vector and a Y-direction vector as the matching patterns based on the respective edge histograms, and each of the reflection points specified in the vehicle candidate area by the laser radar. A received light intensity histogram is formed, and based on the received light intensity histogram, the laser vector with the reduced size is forwarded. A second creation unit that creates a distribution pattern, and a fusion vector of the vehicle candidate region that is dimensionally compressed by applying an eigenspace method based on the X-direction vector, the Y-direction vector, and the laser vector in the vehicle candidate region. The front vehicle recognition device according to claim 1, further comprising a fusion portion formed as the fusion pattern.
【請求項3】 前記辞書パターンが、前記各サンプル用
車両のサンプル画像に対して前記画像処理部により導出
された前記X方向及びY方向へのエッジヒストグラムに
基づき、前記第1の作成部によりサイズを縮小して作成
される辞書用X方向及びY方向ベクトルと、前記サンプ
ル用車両に対し前記レーザレーダにより特定された前記
各反射点について、前記第2の作成部によりサイズを縮
小して作成される辞書用レーザベクトルとが、前記フュ
ージョン部により融合され固有空間法により次元圧縮さ
れて得られる辞書フュージョンベクトルから成り、前記
照合部が、実走行時における前記車両候補領域の前記フ
ュージョンベクトルと、前記辞書フュージョンベクトル
との距離を導出し、その距離が予め定められたしきい値
よりも小さいかどうかにより前記車両候補領域が前方車
両であるかどうか判断することを特徴とする請求項2に
記載の前方車両認識装置。
3. The size of the dictionary pattern is calculated by the first creating unit based on the edge histograms in the X direction and the Y direction derived by the image processing unit with respect to the sample image of each sample vehicle. The X-direction and Y-direction vectors for the dictionary and the reflection points specified by the laser radar for the sample vehicle are created by reducing the size by the second creating unit. The dictionary laser vector is composed of a dictionary fusion vector obtained by being fused by the fusion unit and dimensionally compressed by the eigenspace method, and the collating unit, the fusion vector of the vehicle candidate region during actual traveling, and the Derive the distance to the dictionary fusion vector and see if the distance is less than a predetermined threshold. The front vehicle recognition device according to claim 2, wherein whether or not the vehicle candidate area is a front vehicle is determined based on the above.
【請求項4】 前記照合部により前方車両であると判断
された前記車両候補領域の前記フュージョンベクトル
を、前記辞書フュージョンベクトルとして前記格納部に
登録することを特徴とする請求項3に記載の前方車両認
識装置。
4. The front according to claim 3, wherein the fusion vector of the vehicle candidate area determined to be a forward vehicle by the matching unit is registered in the storage unit as the dictionary fusion vector. Vehicle recognition device.
【請求項5】 前記照合部が、前方車両と判断した前記
車両候補領域についてカルマンフィルタによる動き予測
を行い、次回の照合処理に利用することを特徴とする請
求項2ないし4のいずれかに記載の前方車両認識装置。
5. The collation unit performs motion estimation by a Kalman filter for the vehicle candidate area determined to be a forward vehicle, and uses it in the next collation processing. Forward vehicle recognition device.
【請求項6】 自車の前方を走行する車両を認識する前
方車両認識方法において、 画像センサにより、撮像画像に対して所定の注視領域を
設定しその注視領域における各画素の所定方向への濃度
投影値であるエッジヒストグラムを導出する導出工程
と、 レーザレーダにより、自車前方にレーザ光を水平方向に
スキャンしつつ照射すると共に反射点からの反射光を受
光して複数個の前記反射点の位置を特定する特定工程
と、 実走行時に導出される前記エッジヒストグラムに基づく
照合パターンと、前記レーザレーダにより実走行時に特
定される前記各反射点の分布パターンとを融合し固有空
間法により次元圧縮した融合パターンが、予め準備した
各種のサンプル用車両について、そのサンプル画像から
導出された前記エッジヒストグラムのパターンと、前記
レーザレーダにより特定された複数の反射点のパターン
とを融合し固有空間法により次元圧縮して得られる複数
の辞書パターンのうちのいずれかにほぼ一致するかどう
か照合して前方車両かどうかを判断する照合工程とを含
むことを特徴とする前方車両認識方法。
6. A front vehicle recognition method for recognizing a vehicle traveling in front of the host vehicle, wherein a predetermined gaze area is set for a captured image by an image sensor, and the density of each pixel in the gaze area in a predetermined direction is set. Derivation step of deriving the edge histogram which is the projection value, and by the laser radar, irradiates the front of the vehicle while scanning the laser light in the horizontal direction and receives the reflected light from the reflection point to receive a plurality of the reflection points. The identification step of identifying the position, the matching pattern based on the edge histogram derived at the time of actual traveling, and the distribution pattern of each reflection point identified at the time of actual traveling by the laser radar are fused, and the dimension is compressed by the eigenspace method. The fusion pattern is a pattern of the edge histogram derived from the sample image of various sample vehicles prepared in advance. And a pattern of a plurality of reflection points specified by the laser radar are combined and compressed by the eigenspace method. A method of recognizing a forward vehicle, including a collation step of determining whether the vehicle is a vehicle.
【請求項7】 前記導出工程が、前記撮像画像に対して
設定した前記注視領域における各画素の濃淡から画面の
X方向へのエッジヒストグラム、これに直交する画面の
Y方向へのエッジヒストグラム及び両方向へのエッジヒ
ストグラムの積を演算してその極大点を導出することで
車両候補領域を抽出する工程を含み、 前記照合工程が、前記車両候補領域において導出される
前記X方向及びY方向へのエッジヒストグラムそれぞれ
に基づき、サイズを縮小したX方向ベクトル及びY方向
ベクトルを前記照合パターンとして作成する工程と、前
記レーザレーダにより前記車両候補領域において特定さ
れる前記各反射点の受光強度ヒストグラムを形成し、そ
の受光強度ヒストグラムに基づき、サイズを縮小したレ
ーザベクトルを前記分布パターンとして作成する工程
と、前記車両候補領域における前記X方向ベクトル、Y
方向ベクトル及びレーザベクトルに基づき、固有空間法
の適用により次元圧縮して成る前記車両候補領域のフュ
ージョンベクトルを前記融合パターンとして形成する工
程とを含むことを特徴とする請求項6に記載の前方車両
認識方法。
7. The edge histogram in the X direction of the screen from the density of each pixel in the gaze area set for the captured image in the deriving step, the edge histogram in the Y direction of the screen orthogonal to this, and both directions. To a vehicle candidate area by deriving a maximum point of the edge histogram of the vehicle candidate area and deriving a maximum point of the edge histogram in the X-direction and the Y-direction edge derived in the vehicle candidate area. Creating a reduced-size X-direction vector and a Y-direction vector as the matching pattern based on each histogram, and forming a received light intensity histogram of each reflection point specified in the vehicle candidate region by the laser radar, Based on the received light intensity histogram, the reduced size laser vector and the distribution pattern A step of creating Te, the X-direction vector in the vehicle candidate region, Y
7. A front vehicle according to claim 6, further comprising the step of forming a fusion vector of the vehicle candidate region, which is dimensionally compressed by applying an eigenspace method, as the fusion pattern, based on a direction vector and a laser vector. Recognition method.
【請求項8】 前記辞書パターンが、前記各サンプル用
車両のサンプル画像に対して、導出された前記X方向及
びY方向へのエッジヒストグラムに基づき、サイズを縮
小して作成される辞書用X方向及びY方向ベクトルと、
前記サンプル用車両に対して、前記レーザレーダにより
特定された前記各反射点についてサイズを縮小して作成
される辞書用レーザベクトルとが融合され固有空間法に
より次元圧縮されて得られる辞書フュージョンベクトル
から成り、前記照合工程が、実走行時における前記車両
候補領域の前記フュージョンベクトルと、前記辞書フュ
ージョンベクトルとの距離を導出し、その距離が予め定
められたしきい値よりも小さいかどうかにより前記車両
候補領域が前方車両であるかどうか判断する工程を含む
ことを特徴とする請求項7に記載の前方車両認識方法。
8. The dictionary X-direction is created by reducing the size of the dictionary pattern based on the derived edge histograms in the X-direction and the Y-direction with respect to the sample image of each sample vehicle. And the Y direction vector,
For the sample vehicle, from the dictionary fusion vector obtained by fusion with a dictionary laser vector created by reducing the size of each reflection point specified by the laser radar and dimensionally compressed by the eigenspace method The matching step derives the distance between the fusion vector of the vehicle candidate area and the dictionary fusion vector during actual traveling, and determines whether the distance is smaller than a predetermined threshold value. The front vehicle recognition method according to claim 7, further comprising a step of determining whether the candidate area is a front vehicle.
【請求項9】 前記照合工程により、前方車両であると
判断された前記車両候補領域の前記フュージョンベクト
ルを、前記辞書フュージョンベクトルとして登録する工
程を含むことを特徴とする請求項8に記載の前方車両認
識方法。
9. The front side according to claim 8, further comprising a step of registering the fusion vector of the vehicle candidate area determined to be a front vehicle as the dictionary fusion vector by the matching step. Vehicle recognition method.
【請求項10】 前記照合工程が、前方車両と判断した
前記車両候補領域についてカルマンフィルタによる動き
予測を行い、次回の照合処理に利用する工程を含むこと
を特徴とする請求項7ないし9のいずれかに記載の前方
車両認識方法。
10. The collation step includes a step of performing a motion estimation by a Kalman filter for the vehicle candidate area determined to be a forward vehicle, and using it in the next collation processing. The method for recognizing a forward vehicle according to item 1.
JP2001290760A 2001-09-25 2001-09-25 Forward vehicle recognition device and recognition method Expired - Fee Related JP4070437B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001290760A JP4070437B2 (en) 2001-09-25 2001-09-25 Forward vehicle recognition device and recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001290760A JP4070437B2 (en) 2001-09-25 2001-09-25 Forward vehicle recognition device and recognition method

Publications (2)

Publication Number Publication Date
JP2003099762A true JP2003099762A (en) 2003-04-04
JP4070437B2 JP4070437B2 (en) 2008-04-02

Family

ID=19113017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001290760A Expired - Fee Related JP4070437B2 (en) 2001-09-25 2001-09-25 Forward vehicle recognition device and recognition method

Country Status (1)

Country Link
JP (1) JP4070437B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003172780A (en) * 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd Recognition device and recognition method of preceding vehicle
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
JP2005084035A (en) * 2003-09-11 2005-03-31 Toyota Motor Corp Object detection device
DE102004052347A1 (en) * 2004-10-28 2006-05-04 Daimlerchrysler Ag Environment information collecting method for motor vehicle, involves assigning evidence-histogram with matrix to sensors, and registering values rendering transverse-distance of object normal to vehicle moving direction in fields of matrix
JP2006182086A (en) * 2004-12-27 2006-07-13 Hitachi Ltd Vehicle detection device
JP2007013773A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Object search device
JP2007274037A (en) * 2006-03-30 2007-10-18 Daihatsu Motor Co Ltd Method and device for recognizing obstacle
JP2008530627A (en) * 2005-02-07 2008-08-07 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド Computer-implemented method for extracting integrated histograms from sampled data
JP2008238831A (en) * 2007-03-23 2008-10-09 Fuji Heavy Ind Ltd Online risk learning system
DE102012104218A1 (en) 2011-05-19 2012-11-22 Fuji Jukogyo Kabushiki Kaisha Environment recognition device and environment recognition method
DE102012104302A1 (en) 2011-05-19 2012-11-22 Fuji Jukogyo K.K. Environment recognition device and environment recognition method
KR101342124B1 (en) 2013-10-18 2013-12-19 주식회사 지티 A front vehicle detecting and tracking system using the image and detecting and tracking method using the same
KR101348944B1 (en) * 2011-12-30 2014-01-16 한국과학기술연구원 Crossroad Detecting Method for Auto-Driving Robot and Auto-Driving Robot Using The Same
KR101348941B1 (en) * 2011-12-30 2014-01-16 한국과학기술연구원 Road Information Detecting Method for Auto-Driving Robot and Auto-Driving Robot Using The Same
KR101361599B1 (en) * 2011-09-30 2014-02-25 성균관대학교산학협력단 Driable area providindg apparatus, method and system
US9296393B2 (en) 2013-10-08 2016-03-29 Hyundai Motor Company Apparatus and method for recognizing vehicle
JP2019061612A (en) * 2017-09-28 2019-04-18 株式会社デンソー Control target vehicle setting device, control target vehicle setting system, and control target vehicle setting method
CN110803107A (en) * 2019-10-16 2020-02-18 中国第一汽车股份有限公司 Streaming media rearview mirror switching control method, streaming media rearview mirror and automobile
KR20200040431A (en) * 2018-10-10 2020-04-20 현대자동차주식회사 Apparatus and method for distinquishing false target in vehicle and vehicle including the same
JPWO2020230619A1 (en) * 2019-05-13 2020-11-19
CN112634269A (en) * 2021-01-14 2021-04-09 华东交通大学 Rail vehicle body detection method
CN113075716A (en) * 2021-03-19 2021-07-06 地平线(上海)人工智能技术有限公司 Image-based vehicle positioning method and device, storage medium and electronic equipment
CN113534824A (en) * 2021-07-21 2021-10-22 中国科学院沈阳自动化研究所 Visual positioning and close-range dense formation method for underwater robot swarms

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003172780A (en) * 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd Recognition device and recognition method of preceding vehicle
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
JP2005084035A (en) * 2003-09-11 2005-03-31 Toyota Motor Corp Object detection device
US7358889B2 (en) 2003-09-11 2008-04-15 Toyota Jidosha Kabushiki Kaishi Object detection system and method of detecting object
DE102004052347A1 (en) * 2004-10-28 2006-05-04 Daimlerchrysler Ag Environment information collecting method for motor vehicle, involves assigning evidence-histogram with matrix to sensors, and registering values rendering transverse-distance of object normal to vehicle moving direction in fields of matrix
JP2006182086A (en) * 2004-12-27 2006-07-13 Hitachi Ltd Vehicle detection device
JP2008530627A (en) * 2005-02-07 2008-08-07 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド Computer-implemented method for extracting integrated histograms from sampled data
JP2007013773A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Object search device
JP2007274037A (en) * 2006-03-30 2007-10-18 Daihatsu Motor Co Ltd Method and device for recognizing obstacle
JP2008238831A (en) * 2007-03-23 2008-10-09 Fuji Heavy Ind Ltd Online risk learning system
DE102012104218A1 (en) 2011-05-19 2012-11-22 Fuji Jukogyo Kabushiki Kaisha Environment recognition device and environment recognition method
DE102012104302A1 (en) 2011-05-19 2012-11-22 Fuji Jukogyo K.K. Environment recognition device and environment recognition method
US8867792B2 (en) 2011-05-19 2014-10-21 Fuji Jukogyo Kabushiki Kaisha Environment recognition device and environment recognition method
US8792678B2 (en) 2011-05-19 2014-07-29 Fuji Jukogyo Kabushiki Kaisha Environment recognition device and environment recognition method
KR101361599B1 (en) * 2011-09-30 2014-02-25 성균관대학교산학협력단 Driable area providindg apparatus, method and system
KR101348941B1 (en) * 2011-12-30 2014-01-16 한국과학기술연구원 Road Information Detecting Method for Auto-Driving Robot and Auto-Driving Robot Using The Same
KR101348944B1 (en) * 2011-12-30 2014-01-16 한국과학기술연구원 Crossroad Detecting Method for Auto-Driving Robot and Auto-Driving Robot Using The Same
US9296393B2 (en) 2013-10-08 2016-03-29 Hyundai Motor Company Apparatus and method for recognizing vehicle
KR101342124B1 (en) 2013-10-18 2013-12-19 주식회사 지티 A front vehicle detecting and tracking system using the image and detecting and tracking method using the same
JP2019061612A (en) * 2017-09-28 2019-04-18 株式会社デンソー Control target vehicle setting device, control target vehicle setting system, and control target vehicle setting method
KR102545105B1 (en) * 2018-10-10 2023-06-19 현대자동차주식회사 Apparatus and method for distinquishing false target in vehicle and vehicle including the same
KR20200040431A (en) * 2018-10-10 2020-04-20 현대자동차주식회사 Apparatus and method for distinquishing false target in vehicle and vehicle including the same
JPWO2020230619A1 (en) * 2019-05-13 2020-11-19
JP7285923B2 (en) 2019-05-13 2023-06-02 日立Astemo株式会社 vehicle control system
CN110803107B (en) * 2019-10-16 2021-06-29 中国第一汽车股份有限公司 Streaming media rearview mirror switching control method, streaming media rearview mirror and automobile
CN110803107A (en) * 2019-10-16 2020-02-18 中国第一汽车股份有限公司 Streaming media rearview mirror switching control method, streaming media rearview mirror and automobile
CN112634269A (en) * 2021-01-14 2021-04-09 华东交通大学 Rail vehicle body detection method
CN112634269B (en) * 2021-01-14 2023-12-26 华东交通大学 Railway vehicle body detection method
CN113075716A (en) * 2021-03-19 2021-07-06 地平线(上海)人工智能技术有限公司 Image-based vehicle positioning method and device, storage medium and electronic equipment
CN113534824A (en) * 2021-07-21 2021-10-22 中国科学院沈阳自动化研究所 Visual positioning and close-range dense formation method for underwater robot swarms

Also Published As

Publication number Publication date
JP4070437B2 (en) 2008-04-02

Similar Documents

Publication Publication Date Title
JP2003099762A (en) Precedent vehicle recognition device and recognition method
US7376247B2 (en) Target detection system using radar and image processing
Kato et al. An obstacle detection method by fusion of radar and motion stereo
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
US7612800B2 (en) Image processing apparatus and method
JP2003084064A (en) Device and method for recognizing vehicle in front side
US7321669B2 (en) Method and apparatus for refining target position and size estimates using image and depth data
WO2002050568A1 (en) Method for detecting stationary object on road
JP2003296736A (en) Device for detecting obstacle and method thereof
JP4407920B2 (en) Obstacle recognition method and obstacle recognition device
JP2003016429A (en) Vehicle periphery monitoring device
US11110923B2 (en) Adaptive cruise control device
CN114118252A (en) Vehicle detection method and detection device based on sensor multivariate information fusion
US20170227634A1 (en) Object recognition apparatus using a plurality of object detecting means
JP2008242571A (en) Object detection device
JP3656056B2 (en) Interrupting vehicle detection device and method
JPH08156723A (en) Vehicle obstacle detection device
JP2000207693A (en) In-vehicle obstacle detection device
JP2002334330A (en) Vehicle recognition device
JP2001296357A (en) Object detecting apparatus
JP2000331148A (en) Obstacle detection device
JP2001330665A (en) On-vehicle object detector using radar and image processing
JP2003172780A (en) Recognition device and recognition method of preceding vehicle
JP4969359B2 (en) Moving object recognition device
JP3319401B2 (en) Roadway recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071023

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130125

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130125

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees