[go: up one dir, main page]

JP2003084064A - Device and method for recognizing vehicle in front side - Google Patents

Device and method for recognizing vehicle in front side

Info

Publication number
JP2003084064A
JP2003084064A JP2001276321A JP2001276321A JP2003084064A JP 2003084064 A JP2003084064 A JP 2003084064A JP 2001276321 A JP2001276321 A JP 2001276321A JP 2001276321 A JP2001276321 A JP 2001276321A JP 2003084064 A JP2003084064 A JP 2003084064A
Authority
JP
Japan
Prior art keywords
vehicle
reflection
rectangular area
laser radar
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001276321A
Other languages
Japanese (ja)
Inventor
Kenichi Yamada
憲一 山田
Hitoomi Takizawa
仁臣 滝澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2001276321A priority Critical patent/JP2003084064A/en
Publication of JP2003084064A publication Critical patent/JP2003084064A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To eliminate reflection from a vehicle other than a vehicle in a front side, a road side matter and the like to conduct highly precise recognition, by integrating vehicle recognition by an image sensor, when the vehicle is recognized using a laser radar. SOLUTION: A vehicle point proposal group is coordinate-transformed into a camera coordinate system of a CCD camera, by a CPU 3, using as the vehicle point proposal group a reflection point group existing within a spreading range of a substantial vehicle width in a position of a substantial equal distance, based on positions of respective reflection points specified by a laser radar module 1, so as to be collated with an extracted rectangular area extracted by a camera module 2, and the vehicle point proposal group is judged as the vehicle in the front side when the vehicle point proposal group after coordinate- transformed is substantially consistent with the rectangular area, by the computer 3.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、自車の前方を走
行する車両を認識する前方車両の認識装置及び認識方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a front vehicle recognizing device and a recognizing method for recognizing a vehicle traveling in front of an own vehicle.

【0002】[0002]

【従来の技術】近年、例えば高速道路における追従走行
機能や操舵アシスト機能といった、より高度でより快適
な運転支援システムを搭載した車両が提案され、そのひ
とつにスキャンレーザレーダを用いて自車前方の車両を
認識する認識装置がある。
2. Description of the Related Art In recent years, a vehicle equipped with a more advanced and more comfortable driving support system, such as a follow-up running function and a steering assist function on a highway, has been proposed. There is a recognition device that recognizes the vehicle.

【0003】この種スキャンレーザレーダを用いた従来
の認識装置では、レーザ光を照射してから反射光を観測
するまでの時間を計測することで、反射点までの距離を
検出でき、スキャニング機構を設けることにより、10
数゜の水平視野を確保し、遠距離の車両であれば、図1
1に示すように車両後端面の両端に装備されているリフ
レクタ(反射板)からの反射が2点観測され、中近距離
であれば車両のボディからの反射も多数観測できるた
め、反射点の数は3点以上の多数に及ぶ。図11(a)
は自車に搭載したレーザレーダからレーザ光を照射する
様子を表わし、同図(b)中の●は反射点を示してお
り、図中のZR は自車の進行方向、XR はこれに直交す
る方向である。
In a conventional recognition device using this kind of scan laser radar, the distance to the reflection point can be detected by measuring the time from the irradiation of the laser beam to the observation of the reflected light, and the scanning mechanism is provided. By providing 10
If the vehicle has a horizontal field of view of several degrees and is a long-distance vehicle,
As shown in Fig. 1, two reflections from the reflectors (reflectors) mounted on both ends of the vehicle rear end face can be observed, and many reflections from the body of the vehicle can be observed at medium and short distances. The numbers range from 3 to more. FIG. 11 (a)
Represents the situation in which the laser light is emitted from the laser radar installed in the own vehicle, and ● in the figure (b) indicates the reflection point. In the figure, ZR is the traveling direction of the own vehicle and XR is orthogonal to this. It is the direction to do.

【0004】ところが、この場合、車体の同じ部位から
一定して反射があるわけではなく、車両の向き、形状、
位置関係等で時々刻々反射位置が変化し、分布も一様で
はない。
However, in this case, there is no constant reflection from the same part of the vehicle body, and the direction, shape,
The reflection position changes every moment due to the positional relationship and the distribution is not uniform.

【0005】そこで、得られた反射点群に対してファジ
ィ手法等によるクラスタリングをすることで先行車両を
認識する手法が提案されている。その具体例として、自
動車技術会学術講演会前刷集931,No.93017
19,pp53−56(1993−5)(「レーザレー
ダによる先行車認識アルゴリズム開発」)に記載の手
法、或いは、本件出願人の出願にかかる特開平6−30
9600号公報に記載の手法等がある。
Therefore, there has been proposed a method of recognizing a preceding vehicle by clustering the obtained reflection point group by a fuzzy method or the like. As a specific example thereof, Preprints 931 No. 93017
19, pp53-56 (1993-5) ("Development of preceding vehicle recognition algorithm by laser radar"), or Japanese Patent Application Laid-Open No. 6-30
There is a method described in Japanese Patent No. 9600.

【0006】[0006]

【発明が解決しようとする課題】しかし、これら従来の
手法は、高速道路のように車両どうしの間隔や車両と路
側構造物との間隔が広い場合にはほとんど問題はない
が、これを一般道路に拡張しようとすると次のような課
題が生じる。つまり、第1の課題として、前方車両の近
傍の走行車両または駐停車車両からの反射を、前方車両
からの反射に含めて処理してしまい、前方車両の距離計
測値に誤差が生じる、第2の課題として、路側物からの
反射を、前方車両からの反射に含めて処理してしまい、
前方車両の距離計測値に誤差が生じる、第3の課題とし
て、一般的にレーダの水平視野は狭いため、近距離での
割り込み車両等の検出が遅れるという課題がある。
However, these conventional methods have almost no problem when the distance between vehicles or the distance between vehicles and a roadside structure is wide like an expressway. If you try to expand to, the following problems will occur. That is, as the first problem, the reflection from the traveling vehicle or the parked vehicle in the vicinity of the front vehicle is included in the reflection from the front vehicle and processed, and an error occurs in the distance measurement value of the front vehicle. The problem is that the reflection from the roadside object is included in the reflection from the vehicle in front and processed.
As a third problem that an error occurs in the distance measurement value of the vehicle ahead, there is a problem that detection of an interrupting vehicle or the like at a short distance is delayed because the horizontal field of view of the radar is generally narrow.

【0007】また、レーザレーダの場合、車両が存在し
ないときに、ガードレールの反射板や看板等の路側構造
物からの反射も観測され、これらを駐停車車両や前方車
両として誤認識したり、隣接車線を走行する前方車両を
観測車と同じ車線を走行する車両と判定したり、路面の
水を前方車両がはね上げることでレーザ光が減衰し、前
方車両を認識できなくなったりするが、これらはレーザ
レーダ特有の課題や、その他の非常に高度な認識処理を
要する課題であって、今回、本発明が解決しようとする
課題ではない。
Further, in the case of a laser radar, when no vehicle is present, reflection from a roadside structure such as a reflector of a guardrail or a signboard is also observed, and these are erroneously recognized as a parked vehicle or a forward vehicle, or they are adjacent to each other. It may be determined that the vehicle in front of the lane is a vehicle traveling in the same lane as the observation vehicle, or the laser light may be attenuated by the water in front of the road splashing by the vehicle in front, making it impossible to recognize the vehicle in front. Is a problem peculiar to a laser radar or another problem requiring a very high level of recognition processing, and is not a problem to be solved by the present invention this time.

【0008】そこで、本発明は、レーザレーダを用いて
車両認識を行う場合に、画像センサによる車両認識を融
合することで、前方車両以外の車両や路側物等からの反
射を排除して、精度の高い認識を行うことができるよう
にすることを目的とする。
Therefore, in the present invention, when the vehicle recognition is performed by using the laser radar, the vehicle recognition by the image sensor is combined to eliminate the reflection from the vehicle other than the vehicle in front, the roadside object, etc. The purpose is to be able to perform high recognition.

【0009】[0009]

【課題を解決するための手段】上記した目的を達成する
ために、本発明にかかる前方車両の認識装置は、自車前
方にレーザ光を水平方向にスキャンしつつ照射すると共
に反射点からの反射光を受光し複数個の前記反射点の位
置を特定するレーザレーダと、自車前方を撮像する画像
センサと、前記画像センサによる撮像画像から前方車両
の後端面画像を含む所定の矩形領域を抽出する画像処理
部と、前記レーザレーダにより特定された前記各反射点
の位置と前記画像処理部による前記矩形領域とを照合し
前記矩形領域に対応する位置の前記反射点を前方車両上
の反射点と判断して前方車両を認識する認識部とを備え
ていることを特徴としている。
In order to achieve the above object, a recognition device for a front vehicle according to the present invention irradiates a front side of a vehicle with a laser beam while scanning the laser beam in a horizontal direction and reflects the laser beam from a reflection point. A laser radar that receives light and specifies the positions of a plurality of the reflection points, an image sensor that images the front of the vehicle, and a predetermined rectangular area including the rear end face image of the vehicle ahead is extracted from the image captured by the image sensor. The image processing unit, the position of each of the reflection points specified by the laser radar and the rectangular area by the image processing unit are collated, and the reflection point at the position corresponding to the rectangular area is reflected on the front vehicle. And a recognition unit for recognizing the preceding vehicle.

【0010】このような構成によれば、レーザレーダに
より特定された各反射点の位置と、画像処理部による矩
形領域とが照合され、矩形領域に対応する位置の反射点
が前方車両上の反射点と判断される。このとき、レーザ
レーダは距離測定に優れ、画像センサは車両とそれ以外
を精度よく識別できるため、画像センサによる車両認識
を、レーザレーダによる車両認識に融合することによ
り、従来のように前方車両以外の車両や路側物等からの
反射を前方車両からの反射に含めてしまうことを防止で
き、前方車両を高精度に認識することができる。
According to this structure, the position of each reflection point specified by the laser radar is compared with the rectangular area by the image processing unit, and the reflection point at the position corresponding to the rectangular area is reflected on the vehicle ahead. It is judged as a point. At this time, the laser radar excels in distance measurement, and the image sensor can accurately distinguish between the vehicle and the other. Therefore, by combining the vehicle recognition by the image sensor with the vehicle recognition by the laser radar, it is possible to use a vehicle other than the front vehicle. It is possible to prevent the reflection from the vehicle or the roadside object from being included in the reflection from the front vehicle, and it is possible to recognize the front vehicle with high accuracy.

【0011】また、本発明にかかる前方車両の認識装置
は、前記認識部が、前記レーザレーダにより特定された
前記各反射点の位置に基づきほぼ等距離の位置にほぼ車
両幅の広がり範囲内に存在する前記反射点群を車両候補
点群とし、この車両候補点群を前記画像センサの座標系
に座標変換して前記矩形領域と照合する照合部と、座標
変換後の前記車両候補点群が前記矩形領域とほぼ一致す
るときにその車両候補点群を前方車両と判断する統合部
とを備えていることを特徴としている。
Further, in the recognition device for a front vehicle according to the present invention, the recognition unit is located at substantially equidistant positions on the basis of the positions of the respective reflection points specified by the laser radar and within a widened range of the vehicle width. The existing reflection point group is used as a vehicle candidate point group, the vehicle candidate point group is coordinate-converted into the coordinate system of the image sensor and collated with the rectangular area, and the vehicle candidate point group after coordinate conversion is It is characterized in that the vehicle candidate point group is determined to be a forward vehicle when the vehicle candidate point group substantially coincides with the rectangular area.

【0012】このような構成によれば、照合部により、
レーザレーダにより特定された各反射点の位置に基づ
き、ほぼ等距離の位置にほぼ車両幅の広がり範囲内に存
在する反射点群が車両候補点群とされ、この車両候補点
群が画像センサの座標系に座標変換されて矩形領域と照
合され、統合部により、座標変換後の車両候補点群が矩
形領域とほぼ一致するときにその車両候補点群が前方車
両と判断される。そのため、従来のように前方車両以外
の車両や路側物等からの反射を前方車両からの反射に含
めてしまうのを確実に防止することでき、前方車両の認
識精度の向上に寄与することができる。
According to this structure, the collation unit
Based on the position of each reflection point specified by the laser radar, the reflection point group existing in the vehicle width spread range at almost equidistant positions is set as the vehicle candidate point group, and this vehicle candidate point group is detected by the image sensor. When the coordinate-converted vehicle candidate point group is substantially matched with the rectangular area, the vehicle candidate point group is determined to be a forward vehicle by the integration unit. Therefore, it is possible to reliably prevent the reflection from the vehicle other than the front vehicle, the reflection from the roadside object, and the like, as in the conventional case, to contribute to the improvement of the recognition accuracy of the front vehicle. .

【0013】また、本発明にかかる前方車両の認識装置
は、前記統合部が、前方車両と判断した前記車両候補点
群についてカルマンフィルタによる動き予測を行い、前
記照合部による次回の照合処理に利用することを特徴と
している。
Further, in the front vehicle recognition device according to the present invention, the integration unit predicts the motion of the vehicle candidate point group judged to be a front vehicle by a Kalman filter, and uses it for the next verification process by the verification unit. It is characterized by that.

【0014】このような構成によれば、前方車両と判断
した車両候補点群の動きを予測して次回の照合処理に利
用するため、より精度の高い車両認識を実現することが
できる。
According to such a configuration, the movement of the vehicle candidate point group determined to be the forward vehicle is predicted and used in the next matching process, so that more accurate vehicle recognition can be realized.

【0015】また、本発明にかかる前方車両の認識装置
は、前記画像処理部が、前記画像センサによる撮像画像
に対して所定の注視領域を設定しその注視領域における
各画素の濃淡からX方向へのエッジヒストグラム、これ
に直交するY方向へのエッジヒストグラム、及び両方向
へのエッジヒストグラムの積を演算してその極大点を導
出することで車両候補としての前記矩形領域を抽出する
ことを特徴としている。
Further, in the front vehicle recognition apparatus according to the present invention, the image processing unit sets a predetermined gazing area for an image picked up by the image sensor, and from the gray level of each pixel in the gazing area to the X direction. Is calculated, and the maximum value is derived to calculate the product of the edge histogram in the Y direction and the edge histogram in both directions orthogonal thereto, and the maximum point is derived to extract the rectangular area as a vehicle candidate. .

【0016】このような構成によれば、エッジヒストグ
ラムから車両候補としての矩形領域を抽出するときに、
車両以外を確実に排除することができ、車両候補として
の矩形領域を精度よく抽出することができる。
According to this structure, when a rectangular area as a vehicle candidate is extracted from the edge histogram,
Other than the vehicle can be reliably excluded, and a rectangular area as a vehicle candidate can be accurately extracted.

【0017】また、本発明にかかる前方車両の認識方法
は、レーザレーダにより、自車前方にレーザ光を水平方
向にスキャンしつつ照射すると共に反射点からの反射光
を受光し複数個の前記反射点の位置を特定する工程と、
画像センサにより、自車前方を撮像して得られる撮像画
像から前方車両の後端面画像を含む所定の矩形領域を抽
出する工程と、前記レーザレーダにより特定された前記
各反射点の位置と前記矩形領域とを照合する工程と、前
記矩形領域に対応する位置の前記反射点を前方車両上の
反射点と判断して前方車両を認識する工程とを含むこと
を特徴としている。
Further, in the method for recognizing a front vehicle according to the present invention, a laser radar irradiates the front side of the vehicle with laser light while scanning the same in the horizontal direction, receives reflected light from a reflection point, and receives a plurality of the reflected lights. Identifying the position of the points,
The step of extracting a predetermined rectangular area including the rear end surface image of the front vehicle from the imaged image obtained by imaging the front of the own vehicle by the image sensor, the position of each reflection point specified by the laser radar, and the rectangle The method is characterized by including a step of matching the area and a step of recognizing the front vehicle by determining the reflection point at a position corresponding to the rectangular area as a reflection point on the front vehicle.

【0018】このような構成によれば、画像センサによ
る車両認識を、レーザレーダによる車両認識に融合する
ため、従来のように前方車両以外の車両や路側物等から
の反射を前方車両からの反射に含めてしまうことを防止
でき、前方車両を高精度に認識することができる。
According to this structure, since the vehicle recognition by the image sensor is combined with the vehicle recognition by the laser radar, the reflection from the vehicle other than the front vehicle or the roadside object is reflected from the front vehicle as in the conventional case. It is possible to prevent the vehicle in front from being included in the vehicle and to recognize the vehicle in front with high accuracy.

【0019】また、本発明にかかる前方車両の認識方法
は、前記レーザレーダにより特定された前記各反射点の
位置に基づきほぼ等距離の位置にほぼ車両幅の広がり範
囲内に存在する前記反射点群を車両候補点群とし、この
車両候補点群を前記画像センサの座標系に座標変換して
前記矩形領域と照合する工程と、座標変換後の前記車両
候補点群が前記矩形領域とほぼ一致するときにその車両
候補点群を前方車両と判断する工程とを含むことを特徴
としている。
Further, in the method for recognizing a forward vehicle according to the present invention, the reflection points existing at substantially equidistant positions within a substantially widened range of the vehicle width based on the positions of the reflection points specified by the laser radar. A group of vehicle candidate points, the step of coordinate-converting the vehicle candidate point group into the coordinate system of the image sensor and collating with the rectangular area; and the vehicle candidate point group after coordinate conversion substantially coincides with the rectangular area. And a step of determining the vehicle candidate point group as a forward vehicle when the vehicle is driven.

【0020】このような構成によれば、レーザレーダに
より特定された各反射点の位置に基づき、ほぼ等距離の
位置にほぼ車両幅の広がり範囲内に存在する反射点群が
車両候補点群とされ、この車両候補点群が画像センサの
座標系に座標変換されて矩形領域と照合され、座標変換
後の車両候補点群が矩形領域とほぼ一致するときにその
車両候補点群が前方車両と判断されるため、従来のよう
に前方車両以外の車両や路側物等からの反射を前方車両
からの反射に含めてしまうのを確実に防止することで
き、前方車両の認識精度の向上に寄与することができ
る。
According to such a configuration, the reflection point groups existing in the substantially wide range of the vehicle width at substantially equidistant positions are regarded as vehicle candidate point groups based on the positions of the respective reflection points specified by the laser radar. Then, the vehicle candidate point group is coordinate-converted into the coordinate system of the image sensor and collated with the rectangular area, and when the vehicle candidate point group after the coordinate conversion substantially coincides with the rectangular area, the vehicle candidate point group becomes the front vehicle. Since it is determined, it is possible to reliably prevent the reflection from a vehicle other than the front vehicle, the reflection from the roadside object, etc. from being included in the reflection from the front vehicle as in the conventional case, which contributes to the improvement of the recognition accuracy of the front vehicle. be able to.

【0021】また、本発明にかかる前方車両の認識方法
は、前方車両と判断した前記車両候補点群についてカル
マンフィルタによる動き予測を行い、前記照合部による
次回の照合処理に利用する工程を含むことを特徴として
いる。
Further, the method for recognizing a forward vehicle according to the present invention includes a step of performing a motion estimation by a Kalman filter for the vehicle candidate point group judged to be a forward vehicle and utilizing it for the next matching processing by the matching unit. It has a feature.

【0022】このような構成によれば、前方車両と判断
した車両候補点群の動きを予測して次回の照合処理に利
用するため、より精度の高い車両認識を実現することが
できる。
According to such a configuration, the movement of the vehicle candidate point group determined to be the forward vehicle is predicted and used for the next matching process, so that more accurate vehicle recognition can be realized.

【0023】また、本発明にかかる前方車両の認識方法
は、前記画像センサによる撮像画像に対して所定の注視
領域を設定しその注視領域における各画素の濃淡からX
方向へのエッジヒストグラム、これに直交するY方向へ
のエッジヒストグラム、及び両方向へのエッジヒストグ
ラムの積を演算してその極大点を導出することで車両候
補としての前記矩形領域を抽出する工程を含むことを特
徴としている。
Further, in the method for recognizing a front vehicle according to the present invention, a predetermined gaze area is set for an image picked up by the image sensor, and X is calculated from the density of each pixel in the gaze area.
Direction edge histogram, a Y direction edge histogram orthogonal thereto, and a product of edge histograms in both directions are calculated to derive a local maximum point, thereby extracting the rectangular area as a vehicle candidate. It is characterized by that.

【0024】このような構成によれば、エッジヒストグ
ラムから車両候補としての矩形領域を抽出するときに、
車両以外を確実に排除することができ、車両候補として
の矩形領域を精度よく抽出することができる。
With such a configuration, when a rectangular area as a vehicle candidate is extracted from the edge histogram,
Other than the vehicle can be reliably excluded, and a rectangular area as a vehicle candidate can be accurately extracted.

【0025】[0025]

【発明の実施の形態】この発明の一実施形態について図
1ないし図10を参照して説明する。但し、図1はブロ
ック図、図2ないし図10は動作説明図である。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described with reference to FIGS. However, FIG. 1 is a block diagram, and FIGS. 2 to 10 are operation explanatory diagrams.

【0026】図1に示すように、スキャンレーザレー
ダ、そのスキャニング機構及び受光器から成るレーザレ
ーダモジュール1、及び、画像センサである単眼CCD
カメラから成る画像処理部としてのCCDカメラモジュ
ール2が自車に搭載され、レーザレーダモジュール1に
より、自車前方にレーザ光が水平方向にスキャンされつ
つ照射され、反射点からの反射光が受光されて複数個の
反射点の位置が特定され、カメラモジュール2により自
車の前方が撮像され、レーザレーダモジュール1により
特定された反射点データ、及び、カメラモジュール2に
より得られた撮像画像がCPU3によりRAM等から成
るメモリ4に保存される。このとき、他のメモリを設
け、レーザレーダモジュール1によるデータと、カメラ
モジュール2によるデータを各々異なるメモリに保存し
てもよい。
As shown in FIG. 1, a laser radar module 1 including a scan laser radar, its scanning mechanism and a light receiver, and a monocular CCD as an image sensor.
A CCD camera module 2 as an image processing unit including a camera is mounted in the vehicle, and the laser radar module 1 irradiates the vehicle in front while scanning the laser beam in the horizontal direction and receives the reflected light from the reflection point. The positions of a plurality of reflection points are specified by the camera module 2, the front of the vehicle is imaged by the camera module 2, and the reflection point data specified by the laser radar module 1 and the captured image obtained by the camera module 2 are acquired by the CPU 3. It is stored in the memory 4 including a RAM and the like. At this time, another memory may be provided to store the data from the laser radar module 1 and the data from the camera module 2 in different memories.

【0027】このとき、レーザレーダモジュール1及び
カメラモジュール2の座標系の関係は、例えば図2に示
すように設定する。つまり、図2に示すように、カメラ
座標系は、レンズ中心を原点としてカメラ光軸をZ軸に
とり、画像面上でのx軸、y軸に平行にX軸、Y軸をと
る。ここで、焦点距離fは既知である。
At this time, the relationship between the coordinate systems of the laser radar module 1 and the camera module 2 is set as shown in FIG. 2, for example. That is, as shown in FIG. 2, the camera coordinate system takes the camera optical axis as the Z axis with the lens center as the origin, and takes the X axis and the Y axis parallel to the x axis and the y axis on the image plane. Here, the focal length f is known.

【0028】また、レーザレーダ座標系は、受光器を原
点、レーザ光軸をZR 軸にとり、鉛直方向にYR 軸、水
平方向にXR 軸を設定する。XR YR ZR 座標系からX
YZ座標系へは、回転ベクトルω、並進ベクトルTの合
成行列ωTによって変換可能であり、後述するように、
本発明ではレーザレーダモジュール1により特定される
反射点の座標をカメラ座標に変換して照合する。但し、
合成行列ωTは予めキャリブレーションを行っており、
既知である。
In the laser radar coordinate system, the light receiver is the origin, the laser optical axis is the ZR axis, the YR axis is set in the vertical direction, and the XR axis is set in the horizontal direction. XR YR ZR X from coordinate system
The YZ coordinate system can be converted by a composite matrix ωT of the rotation vector ω and the translation vector T, and as described later,
In the present invention, the coordinates of the reflection point specified by the laser radar module 1 are converted into camera coordinates for verification. However,
The composite matrix ωT has been calibrated in advance,
It is known.

【0029】ところで、レーザレーダモジュール1は、
自車の前方にレーザ光を照射し、その際スキャニング機
構により所定角度(例えば0.1゜)ずつレーザ光が水
平方向にスキャンされ、自車前方の対象物からの反射光
が受光器により受光されてレーザ光の照射から反射光の
受光までの時間から、自車と同一車線を走行する先行車
との車間距離が検出されるようになっている。このよう
な1回の車間距離の検出処理に要する時間は、約100
ms程度の短い時間であり、この検出動作が一定時間毎
に繰り返される。
By the way, the laser radar module 1
Laser light is emitted in front of the vehicle, and the scanning mechanism scans the laser light horizontally at a predetermined angle (for example, 0.1 °), and the reflected light from the object in front of the vehicle is received by the light receiver. The distance between the irradiation of the laser light and the reception of the reflected light is detected from the distance between the vehicle and the preceding vehicle traveling in the same lane. The time required for such a single inter-vehicle distance detection process is about 100.
This is a short time of about ms, and this detection operation is repeated at regular intervals.

【0030】そして、このような動作によりレーザレー
ダモジュール1により対象物上の複数の反射点が特定さ
れると、その特定された各反射点の位置に基づきほぼ等
距離の位置にほぼ車両幅の広がり範囲内に存在する反射
点群が車両候補点群とされるが、このとき、前述の特開
平6−309600号公報にも記載されているように、
自車と車両候補点群との距離の変化から自車に対する車
両候補点群の相対速度を導出し、導出した相対速度が所
定値よりも大きいときには、自車速度と先行車両候補の
相対速度との差、自車に対する先行車両候補の車幅方向
の位置ずれ量などの関数である適合度関数を用いて先行
車両であることの確かさを表わす確信度を演算すると共
に、レーザ光の走査方向及び自車の進行方向を座標軸と
する座標系における車両候補点群の座標と相対速度を算
出するごとに確信度の演算を繰り返し、確信度と基準値
との差を累積加算してその加算合計値が他の基準値より
大きいか否かを判断し、小さいときにその車両候補点群
が同一レーン上を走行中と判断し、大きいときに同一レ
ーン上にないと判断するとよい。
When a plurality of reflection points on the object are specified by the laser radar module 1 by such an operation, the vehicle widths of the vehicle widths are set to substantially equidistant positions based on the positions of the specified reflection points. The reflection point group existing within the spread range is set as the vehicle candidate point group. At this time, as described in Japanese Patent Laid-Open No. 6-309600,
The relative speed of the vehicle candidate point group with respect to the own vehicle is derived from the change in the distance between the own vehicle and the vehicle candidate point group, and when the derived relative speed is larger than a predetermined value, the own vehicle speed and the relative speed of the preceding vehicle candidate are Difference, the positional deviation amount of the preceding vehicle candidate with respect to the own vehicle in the vehicle width direction, etc. is used to calculate the certainty factor representing the certainty of being the preceding vehicle and the scanning direction of the laser beam. And, the calculation of the certainty factor is repeated every time the coordinates of the vehicle candidate point group and the relative speed in the coordinate system having the traveling direction of the own vehicle as the coordinate axis are calculated, and the difference between the certainty factor and the reference value is cumulatively added and the addition total is calculated. It may be determined whether or not the value is larger than another reference value, and when it is smaller, it may be determined that the vehicle candidate point group is traveling on the same lane, and when it is larger, it may be determined that the vehicle candidate point group is not on the same lane.

【0031】一方、カメラモジュール2により、図3に
示すように、撮像画像に対して水平方向に長い矩形の垂
直注視領域V-ROIを設定し、垂直注視領域V-ROIの濃度
を垂直方向に投影して垂直線分を抽出し、その中で対称
性を示す極大点の組を選び、それを車両の両端候補とす
る。更に、極大点の組の中央に位置する座標に水平注視
領域H-ROIを設定し、同様にして水平線分を抽出し、多
数観測されれば車両候補である矩形領域とする。図4
は、垂直注視領域V-ROIにおけるエッジ濃度投影値の時
系列画像を示しており、ほぼ等間隔で対照的な濃度の曲
線が車両の両端に相当している。
On the other hand, as shown in FIG. 3, the camera module 2 sets a rectangular vertical gaze region V-ROI that is long in the horizontal direction with respect to the picked-up image, and sets the density of the vertical gaze region V-ROI to the vertical direction. A vertical line segment is projected and extracted, and a set of local maximum points showing symmetry is selected from the extracted vertical line segments, and the set is used as both end candidates of the vehicle. Further, a horizontal gazing area H-ROI is set at the coordinate located at the center of the set of maximum points, and a horizontal line segment is extracted in the same manner, and if a large number are observed, the rectangular area is a vehicle candidate. Figure 4
Shows a time-series image of projected edge density values in the vertical gaze area V-ROI, and curves of symmetrical density at substantially equal intervals correspond to both ends of the vehicle.

【0032】ところが、この場合、垂直注視領域V-ROI
は1つ設定すればよいが、水平注視領域H-ROIは車両候
補数だけ設定しなければならず、垂直注視領域V-ROIで
の極大点が増えると組み合わせは極めて多くなることか
ら、本発明では次のような改良を加えている。即ち、図
5に示すように、水平方向に長い垂直注視領域V-ROIの
大きさを適切に設定すると、水平エッジ成分は垂直注視
領域V-ROIの中にも多数含むことができるため、垂直注
視領域V-ROI内で水平エッジ成分を投影することで、水
平成分の総量を検出して演算処理の高速化を図ることが
できる。
However, in this case, the vertical gaze area V-ROI
However, the horizontal gaze area H-ROI must be set by the number of vehicle candidates, and the number of combinations increases as the maximum points in the vertical gaze area V-ROI increase. Then, the following improvements have been added. That is, as shown in FIG. 5, if the size of the vertical gaze region V-ROI that is long in the horizontal direction is appropriately set, a large number of horizontal edge components can be included in the vertical gaze region V-ROI. By projecting the horizontal edge component in the gazing area V-ROI, the total amount of the horizontal component can be detected to speed up the arithmetic processing.

【0033】そして、カメラモジュール2により、図5
に示すように、撮像画像に対して所定の大きさの垂直注
視領域V-ROIが設定され、この垂直注視領域V-ROIにお
ける画素の濃淡から、X方向(水平方向)へのエッジヒ
ストグラムEHx、これに直交するY方向(垂直方向)
へのエッジヒストグラムEHy、及び両方向へのエッジ
ヒストグラムの積EHxyが演算される。
Then, by the camera module 2, FIG.
As shown in, the vertical gaze area V-ROI of a predetermined size is set for the captured image, and the edge histogram EHx in the X direction (horizontal direction) from the grayscale of pixels in the vertical gaze area V-ROI, Y direction orthogonal to this (vertical direction)
Edge histogram EHy and the edge histogram products EHxy in both directions are calculated.

【0034】図5について説明すると、図5中の(i) は
参考のためレーダの反射を画像上に透視変換して表示し
たもので、高さが反射強度を表わしており、(ii)は画像
処理のために設定された注視領域V-ROIであり、(iii)
はこの注視領域V-ROI内で垂直エッジ成分を垂直方向に
加算(投影)した値(エッジヒストグラムEHy)を示
し、(iv)は同様に注視領域V-ROI内で水平エッジ成分を
垂直方向に加算した値(エッジヒストグラムEHx)を
示し、参考のため(ix),(x)に注視領域V-ROIの垂直エッ
ジ画像、水平エッジ画像を示している。
Referring to FIG. 5, (i) in FIG. 5 is a view in which the reflection of the radar is perspectively transformed and displayed on the image for reference, and the height represents the reflection intensity, and (ii) is A gaze area V-ROI set for image processing, (iii)
Indicates a value (edge histogram EHy) obtained by adding (projecting) vertical edge components in the vertical direction within the gazing area V-ROI, and (iv) similarly shows horizontal edge components in the vertical direction within the gazing area V-ROI. The added value (edge histogram EHx) is shown, and the vertical edge image and the horizontal edge image of the gazing area V-ROI are shown in (ix) and (x) for reference.

【0035】更に、図5中の(v) は(iii) と(iv)の結果
の積(エッジヒストグラムEHxy)をとったもので、
車両の両端のように多くの水平エッジと垂直エッジが交
差する位置ほど高い値となる。また、(vi)は極大点を検
索しやすくするために(v) を平滑化したものであり、(v
iii)はその極大点の位置を示している。
Further, (v) in FIG. 5 is a product (edge histogram EHxy) of the results of (iii) and (iv), and
The value becomes higher at the positions where many horizontal edges and vertical edges intersect, such as at both ends of the vehicle. In addition, (vi) is a smoothed version of (v) in order to make it easier to find the maximum point.
iii) shows the position of the maximum point.

【0036】このとき、車両のリアガラスやリアバンパ
付近はY方向エッジ成分を多く含むので、車両の後端面
についてはY方向へのエッジヒストグラムEHyが大き
な値となるのに対し、電柱や街灯の柱、ガードレール等
の道路構造物の場合、X方向へのエッジヒストグラムE
Hxは大きくなるがY方向へのエッジヒストグラムEH
yは小さい値となる。そのため、X方向へのエッジヒス
トグラムEHxとY方向へのエッジヒストグラムEHy
とを積算することで、車両後端面以外のエッジヒストグ
ラムの極大点をある程度抑制することができ、逆に車両
後端面のエッジヒストグラムの極大点を強調することが
できる。
At this time, since the rear glass of the vehicle and the vicinity of the rear bumper include a large amount of Y-direction edge components, the edge histogram EHy in the Y direction of the rear end surface of the vehicle has a large value, whereas the pole of a utility pole or a streetlight, For road structures such as guardrails, edge histogram E in the X direction
Hx increases, but edge histogram EH in the Y direction
y has a small value. Therefore, the edge histogram EHx in the X direction and the edge histogram EHy in the Y direction
By integrating and, the maximum points of the edge histogram other than the vehicle rear end surface can be suppressed to some extent, and conversely, the maximum points of the edge histogram of the vehicle rear end surface can be emphasized.

【0037】従って、前フレームでの車両認識位置を基
に計算した現フレームでの車両予測位置から、優先的に
エッジヒストグラムの積EHxyの極大点(xL,x
R)を車両後端位置候補ペアとして切り出していき、区
間(xL,xR)で所定のしきい値以上のY方向エッジ
Eyを水平方向にカウントしたエッジヒストグラムEV
yを作成し、このEVy中の極大点で車間距離と推定車
幅を考慮した車両上(下)端の近さの程度から車両上下
端候補(yU,yD)を求める。こうすると、道路勾配
変化による車両上下位置ずれに、ある程度対応すること
ができる。この4点で定まる矩形が車両候補である。こ
のようにして車両候補としての矩形領域が抽出される。
Therefore, the maximum point (xL, x) of the product EHxy of the edge histogram is preferentially calculated from the vehicle predicted position in the current frame calculated based on the vehicle recognized position in the previous frame.
R) is cut out as a vehicle rear end position candidate pair, and the edge histogram EV is obtained by horizontally counting Y-direction edges Ey equal to or larger than a predetermined threshold in the section (xL, xR).
y is created, and a vehicle upper and lower end candidate (yU, yD) is obtained from the degree of proximity of the vehicle upper (lower) end in consideration of the inter-vehicle distance and the estimated vehicle width at the maximum point in EVy. By doing so, it is possible to cope with the vehicle vertical position shift due to the change in the road gradient to some extent. The rectangle defined by these four points is a vehicle candidate. In this way, the rectangular area as the vehicle candidate is extracted.

【0038】そして、CPU3により、レーザレーダモ
ジュール1による車両候補点群がカメラモジュール2の
カメラ座標系に座標変換して矩形領域と照合され、座標
変換後の車両候補点群が矩形領域とほぼ一致するときに
は、その車両候補点群が前方車両であると判断され、一
致しないときにはその車両候補点群が前方車両でないと
判断される。このようなCPU3による照合処理が照合
部に相当し、CPU3による判断処理が統合部に相当
し、更に、CPU3によるこれらの処理が本発明におけ
る認識部に相当する。
Then, the CPU 3 coordinates-converts the vehicle candidate point group by the laser radar module 1 into the camera coordinate system of the camera module 2 and collates it with the rectangular area, and the vehicle candidate point group after the coordinate conversion substantially coincides with the rectangular area. When it does, it is determined that the vehicle candidate point group is a forward vehicle, and when they do not match, it is determined that the vehicle candidate point group is not a forward vehicle. The matching process by the CPU 3 corresponds to the matching unit, the determination process by the CPU 3 corresponds to the integrating unit, and these processes by the CPU 3 correspond to the recognizing unit in the present invention.

【0039】このCPU3の照合処理を概念的に表わす
と、図6に示すようになり、レーザレーダモジュール1
による全反射点について、カメラ座標系に設定されるウ
ィンドウ内に車両と非車両の反射点がある場合、同図
(a)に示すように、例えばi番目の車両に相当すると
判断されていれば、その反射点は正規のラベルiにラベ
リングされ、画像上に車両がなければそれらの反射点は
削除される。また、画像座標系に設定されるウィンドウ
内に存在する複数の正規ラベルが存在する場合には、同
図(b)に示すように、同じ検索ウィンドウ内にあって
も別車両として分離されるのである。
The collating process of the CPU 3 is conceptually represented as shown in FIG.
In the case where there are reflection points of a vehicle and a non-vehicle in the window set in the camera coordinate system, if the total reflection point is determined to correspond to, for example, the i-th vehicle, as shown in FIG. , The reflection points are labeled with the regular label i, and if there are no vehicles on the image, those reflection points are deleted. Further, when there are a plurality of regular labels existing in the window set in the image coordinate system, they are separated as different vehicles even in the same search window as shown in FIG. is there.

【0040】こうして、図7に示すようなレーザレーダ
とカメラによる車両認識の融合システムにより、前方車
両以外の車両や路側物等からの反射を排除して、精度の
高い認識を行うことが可能になる。このとき、統合部に
相当するCPU3の機能として、前方車両とそれ以外の
路側構造物の位置情報を管理すると共に、レーザレーダ
モジュール1またはカメラモジュール2の処理結果を観
測値とするカルマンフィルタを用いた位置座標の推定を
行い、次回の照合処理に利用するようになっている。
In this way, the system for integrating vehicle recognition by the laser radar and the camera as shown in FIG. 7 eliminates reflections from vehicles other than the vehicle in front, roadside objects, etc., and enables highly accurate recognition. Become. At this time, as a function of the CPU 3 corresponding to the integration unit, a Kalman filter that manages the position information of the front vehicle and other roadside structures and uses the processing result of the laser radar module 1 or the camera module 2 as an observation value is used. The position coordinates are estimated and used for the next matching process.

【0041】例えば、図8(a)に示すように、(i) は
ある時刻t=t1の入力画像であり、(ii)は画像による
認識結果で車両両端の位置を示しており、横軸はx座
標、縦軸は時間である。(iii) はレーダの反射点を画像
座標系に投影し、時系列画像として表現したもので、(i
v)はCPU3により画像の認識結果とレーダの反射点と
を照合してラベリングした結果であり、同図(b)は同
図(a)の(iii) の中で示した時刻t=t0、t=t1
で観測された代表的な反射点マップである。
For example, as shown in FIG. 8 (a), (i) is an input image at a certain time t = t1, and (ii) is a recognition result by the image showing the positions of both ends of the vehicle. Is the x coordinate and the vertical axis is the time. (iii) shows the reflection points of the radar projected on the image coordinate system and expressed as a time series image.
v) is the result of labeling by comparing the recognition result of the image with the reflection point of the radar by the CPU 3, and FIG. 7B shows the time t = t0 shown in FIG. t = t1
It is a typical reflection point map observed in.

【0042】この図8から、前方車両だけが明るくラベ
リングされて車両以外と分離され、従来の技術で説明し
た第1の課題である前方車両の近傍の走行車両または駐
停車車両からの反射を前方車両からの反射に含めて処理
してしまうのを防止できていることがわかる。
From FIG. 8, only the forward vehicle is brightly labeled and separated from other vehicles, and the reflection from the traveling vehicle or the parked vehicle near the forward vehicle, which is the first problem described in the prior art, is forward. It can be seen that it is possible to prevent the processing from being included in the reflection from the vehicle.

【0043】次に、図9は前方車両が反射の多い路側物
付近を通過するシーンであり、図9(a)に示すよう
に、(i) はある時刻t=t3の入力画像で、(ii)〜(iv)
は図8(a)の(ii)〜(iv)と同様であり、同図(b)は
同図(a)の(iii) の中で示した時刻t=t2、t=t
3で観測された代表的な反射点マップである。そして、
レーザレーダ単独の場合は、近傍の路側物に認識結果が
引っ張られることが多いが、図9に示すように、画像と
の照合によって路側物を除去することができ、図9か
ら、従来の技術で説明した第2の課題である路側物から
の反射を前方車両からの反射に含めて処理してしまうの
を防止できていることがわかる。
Next, FIG. 9 shows a scene in which a forward vehicle passes near a roadside object with many reflections. As shown in FIG. 9A, (i) is an input image at a certain time t = t3, and ii) ~ (iv)
Is the same as (ii) to (iv) of FIG. 8A, and FIG. 8B shows time t = t2 and t = t shown in FIG. 8A of (iii).
It is a typical reflection point map observed in 3. And
In the case of the laser radar alone, the recognition result is often pulled to the nearby roadside object, but as shown in FIG. 9, the roadside object can be removed by collation with the image. It can be seen that it is possible to prevent the processing from including the reflection from the roadside object, which is the second problem described above, in the reflection from the vehicle in front.

【0044】更に、図10はレーダ検知範囲から追い越
しがある状況に対する認識結果を示し、時刻t=t4に
おいては画像のみが隣接車線からの追い越し車両を認識
しており、レーダ単独ではt=t5になってようやく追
い越し車両の両端を検出することになる。
Further, FIG. 10 shows a recognition result for a situation where there is an overtaking from the radar detection range. At time t = t4, only the image recognizes an overtaking vehicle from the adjacent lane, and when the radar is alone, t = t5. Finally, both ends of the overtaking vehicle will be detected.

【0045】この区間は車両からのレーダの反射が部分
的であるため、画像で認識した車両と照合の結果が一致
すれば、この車両の距離情報として使用することが可能
で、従ってレーダ単独よりも早い時期に追い越し車両座
標を認識することができ、図10から、従来の技術で説
明した第3の課題である近距離での割り込み車両を早期
に検出できていることがわかる。
Since the reflection of the radar from the vehicle is partial in this section, it can be used as the distance information of this vehicle if the result of the collation matches the vehicle recognized in the image, and therefore, it can be used as the distance information of the radar alone. It is understood that the passing vehicle coordinates can be recognized at an early stage, and from FIG. 10, the interrupting vehicle at a short distance, which is the third problem described in the conventional technique, can be detected at an early stage.

【0046】このように、上記した実施形態によれば、
レーザレーダモジュール1により特定された各反射点の
位置と、カメラモジュール2による矩形領域とがCPU
3により照合され、矩形領域に対応する位置の反射点が
前方車両上の反射点と判断されるため、距離測定に優れ
るレーザレーダと、車両とそれ以外を精度よく識別でき
るCCDカメラの特性を利用し、CCDカメラによる車
両認識を、レーザレーダによる車両認識に融合すること
により、従来のように前方車両以外の車両や路側物等か
らの反射を前方車両からの反射に含めてしまうことを防
止でき、前方車両を高精度に認識することができる。
As described above, according to the above-described embodiment,
The position of each reflection point specified by the laser radar module 1 and the rectangular area by the camera module 2 are the CPU
3 and the reflection point at the position corresponding to the rectangular area is determined to be the reflection point on the vehicle in front. Therefore, the characteristics of the laser radar that excels in distance measurement and the characteristics of the CCD camera that can accurately identify the vehicle and the other areas are used. However, by combining the vehicle recognition by the CCD camera with the vehicle recognition by the laser radar, it is possible to prevent the reflection from the vehicle other than the front vehicle or the roadside object from being included in the reflection from the front vehicle as in the conventional case. The vehicle in front can be recognized with high accuracy.

【0047】なお、上記した実施形態では、画像センサ
として単眼CCDカメラを用いた場合について説明した
が、画像センサは上記した単眼CCDカメラに限定され
るものでないのはいうまでもない。
In the above embodiment, the case where the monocular CCD camera is used as the image sensor has been described, but it goes without saying that the image sensor is not limited to the monocular CCD camera described above.

【0048】また、本発明は上記した実施形態に限定さ
れるものではなく、その趣旨を逸脱しない限りにおいて
上述したもの以外に種々の変更を行うことが可能であ
る。
The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention.

【0049】[0049]

【発明の効果】以上のように、請求項1、5に記載の発
明によれば、レーザレーダは距離測定に優れ、画像セン
サは車両とそれ以外を精度よく識別できるため、画像セ
ンサによる車両認識を、レーザレーダによる車両認識に
融合することにより、従来のように前方車両以外の車両
や路側物等からの反射を前方車両からの反射に含めてし
まうことを防止でき、前方車両を高精度に認識すること
が可能になり、より高度でより快適な運転支援システム
の提供が可能になる。
As described above, according to the first and fifth aspects of the invention, the laser radar is excellent in distance measurement, and the image sensor can accurately distinguish between the vehicle and the other parts. By integrating the above with the vehicle recognition by the laser radar, it is possible to prevent the reflection from the vehicle other than the front vehicle or the roadside object from being included in the reflection from the front vehicle as in the conventional case, and the front vehicle is highly accurate. It becomes possible to recognize, and it becomes possible to provide a more advanced and more comfortable driving support system.

【0050】また、請求項2、6に記載の発明によれ
ば、レーザレーダにより特定された各反射点の位置に基
づき、ほぼ等距離の位置にほぼ車両幅の広がり範囲内に
存在する反射点群が車両候補点群とされ、この車両候補
点群が画像センサの座標系に座標変換されて矩形領域と
照合され、座標変換後の車両候補点群が矩形領域とほぼ
一致するときにその車両候補点群が前方車両と判断され
るため、従来のように前方車両以外の車両や路側物等か
らの反射を前方車両からの反射に含めてしまうのを確実
に防止することでき、前方車両の認識精度の向上に寄与
することが可能になる。
Further, according to the inventions described in claims 2 and 6, the reflection points existing at substantially equidistant positions within the widening range of the vehicle width based on the positions of the respective reflection points specified by the laser radar. The group is defined as a vehicle candidate point group, and this vehicle candidate point group is coordinate-converted into the coordinate system of the image sensor and collated with a rectangular area. When the coordinate-converted vehicle candidate point group substantially matches the rectangular area, the vehicle Since the candidate point group is determined to be the front vehicle, it is possible to reliably prevent the reflection from the vehicle other than the front vehicle, the reflection from the roadside object, etc. from being included in the reflection from the front vehicle as in the conventional case. It becomes possible to contribute to the improvement of recognition accuracy.

【0051】また、請求項3、7に記載の発明によれ
ば、前方車両と判断した車両候補点群の動きを予測して
次回の照合処理に利用するため、より精度の高い車両認
識を実現することが可能になる。
According to the third and seventh aspects of the present invention, the movement of the vehicle candidate point group judged to be a forward vehicle is predicted and used in the next matching process, so that more accurate vehicle recognition is realized. It becomes possible to do.

【0052】また、請求項4、8に記載の発明によれ
ば、エッジヒストグラムから車両候補としての矩形領域
を抽出するときに、車両以外を確実に排除することがで
き、車両候補としての矩形領域を精度よく抽出すること
が可能になる。
Further, according to the present invention as defined in claims 4 and 8, when the rectangular area as the vehicle candidate is extracted from the edge histogram, the areas other than the vehicle can be reliably excluded, and the rectangular area as the vehicle candidate can be surely excluded. Can be accurately extracted.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の一実施形態のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】この発明の一実施形態の動作説明図である。FIG. 2 is an operation explanatory diagram of the embodiment of the present invention.

【図3】この発明の一実施形態の動作説明図である。FIG. 3 is an operation explanatory diagram of the embodiment of the present invention.

【図4】この発明の一実施形態の動作説明図である。FIG. 4 is an operation explanatory diagram of the embodiment of the present invention.

【図5】この発明の一実施形態の動作説明図である。FIG. 5 is an operation explanatory diagram of the embodiment of the present invention.

【図6】この発明の一実施形態の動作説明図である。FIG. 6 is an operation explanatory diagram of the embodiment of the present invention.

【図7】この発明の一実施形態の動作説明図である。FIG. 7 is an operation explanatory diagram of the embodiment of the present invention.

【図8】この発明の一実施形態の動作説明図である。FIG. 8 is an operation explanatory diagram of the embodiment of the present invention.

【図9】この発明の一実施形態の動作説明図である。FIG. 9 is an operation explanatory diagram of the embodiment of the present invention.

【図10】この発明の一実施形態の動作説明図である。FIG. 10 is an operation explanatory diagram of the embodiment of the present invention.

【図11】この発明の背景となるスキャンレーザレーダ
による車両認識の動作説明図である。
FIG. 11 is an operation explanatory diagram of vehicle recognition by the scan laser radar which is the background of the present invention.

【符号の説明】[Explanation of symbols]

1 レーザレーダモジュール 2 CCDカメラモジュール(画像処理部) 3 CPU(照合部、統合部、認識部) 1 Laser radar module 2 CCD camera module (image processing unit) 3 CPUs (collation unit, integration unit, recognition unit)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G01B 11/00 G08G 1/16 C G08G 1/16 H04N 7/18 J H04N 7/18 K G01S 17/88 A Fターム(参考) 2F065 AA01 AA12 BB05 BB15 CC11 FF04 JJ03 JJ26 QQ00 QQ24 QQ27 QQ29 QQ33 QQ36 QQ38 QQ43 QQ45 QQ51 5C054 AA01 AA04 CC02 FC12 HA30 5H180 AA01 CC04 CC14 LL01 LL04 5J084 AA04 AA05 AA07 AD01 BA49 DA01 DA09 EA04 EA22 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI theme code (reference) G01B 11/00 G08G 1/16 C G08G 1/16 H04N 7/18 J H04N 7/18 K G01S 17/88 AF term (reference) 2F065 AA01 AA12 BB05 BB15 CC11 FF04 JJ03 JJ26 QQ00 QQ24 QQ27 QQ29 QQ33 QQ36 QQ38 QQ43 QQ45 QQ51 5C054 AA01 AA04 CC02 FC12 HA04 5A180AA CC27

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 自車の前方を走行する車両を認識する前
方車両の認識装置において、 自車前方にレーザ光を水平方向にスキャンしつつ照射す
ると共に反射点からの反射光を受光し複数個の前記反射
点の位置を特定するレーザレーダと、 自車前方を撮像する画像センサと、 前記画像センサによる撮像画像から前方車両の後端面画
像を含む所定の矩形領域を抽出する画像処理部と、 前記レーザレーダにより特定された前記各反射点の位置
と前記画像処理部による前記矩形領域とを照合し前記矩
形領域に対応する位置の前記反射点を前方車両上の反射
点と判断して前方車両を認識する認識部とを備えている
ことを特徴とする前方車両の認識装置。
1. A front vehicle recognizing device for recognizing a vehicle traveling in front of the host vehicle, wherein a plurality of laser beams are emitted in front of the host vehicle while being horizontally scanned and reflected light is received from a reflection point. A laser radar that identifies the position of the reflection point, an image sensor that images the front of the vehicle, an image processing unit that extracts a predetermined rectangular area including the rear end face image of the vehicle ahead from the image captured by the image sensor, The position of each of the reflection points specified by the laser radar is compared with the rectangular area by the image processing unit, and the reflection point at a position corresponding to the rectangular area is determined as a reflection point on the front vehicle, and the front vehicle is detected. And a recognition unit for recognizing the vehicle.
【請求項2】 前記認識部が、 前記レーザレーダにより特定された前記各反射点の位置
に基づきほぼ等距離の位置にほぼ車両幅の広がり範囲内
に存在する前記反射点群を車両候補点群とし、この車両
候補点群を前記画像センサの座標系に座標変換して前記
矩形領域と照合する照合部と、 座標変換後の前記車両候補点群が前記矩形領域とほぼ一
致するときにその車両候補点群を前方車両と判断する統
合部とを備えていることを特徴とする請求項1に記載の
前方車両の認識装置。
2. The vehicle candidate point group is configured such that the recognizing unit determines the reflection point groups existing at substantially equidistant positions based on the positions of the respective reflection points specified by the laser radar and within a wide range of the vehicle width. And a collating unit that transforms the vehicle candidate point group into the coordinate system of the image sensor and collates it with the rectangular area, and the vehicle when the vehicle candidate point group after coordinate conversion substantially matches the rectangular area. The front vehicle recognition device according to claim 1, further comprising: an integration unit that determines the candidate point group as a front vehicle.
【請求項3】 前記統合部が、前方車両と判断した前記
車両候補点群についてカルマンフィルタによる動き予測
を行い、前記照合部による次回の照合処理に利用するこ
とを特徴とする請求項2に記載の前方車両の認識装置。
3. The combination unit according to claim 2, wherein a motion prediction is performed by the Kalman filter for the vehicle candidate point group determined to be a forward vehicle, and the motion estimation is used for the next matching process by the matching unit. Recognition device for the vehicle ahead.
【請求項4】 前記画像処理部が、 前記画像センサによる撮像画像に対して所定の注視領域
を設定しその注視領域における各画素の濃淡からX方向
へのエッジヒストグラム、これに直交するY方向へのエ
ッジヒストグラム、及び両方向へのエッジヒストグラム
の積を演算してその極大点を導出することで車両候補と
しての前記矩形領域を抽出することを特徴とする請求項
1ないし3のいずれかに記載の前方車両の認識装置。
4. The image processing unit sets a predetermined gaze area for an image picked up by the image sensor, and an edge histogram in the X direction from the grayscale of each pixel in the gaze area, in the Y direction orthogonal thereto. 4. The rectangular area as a vehicle candidate is extracted by calculating a product of the edge histogram of No. 1 and the edge histogram in both directions and deriving a maximum point thereof. Recognition device for the vehicle ahead.
【請求項5】 自車の前方を走行する車両を認識する前
方車両の認識方法において、 レーザレーダにより、自車前方にレーザ光を水平方向に
スキャンしつつ照射すると共に反射点からの反射光を受
光し複数個の前記反射点の位置を特定する工程と、 画像センサにより、自車前方を撮像して得られる撮像画
像から前方車両の後端面画像を含む所定の矩形領域を抽
出する工程と、 前記レーザレーダにより特定された前記各反射点の位置
と前記矩形領域とを照合する工程と、 前記矩形領域に対応する位置の前記反射点を前方車両上
の反射点と判断して前方車両を認識する工程とを含むこ
とを特徴とする前方車両の認識方法。
5. A front vehicle recognizing method for recognizing a vehicle traveling ahead of the own vehicle, wherein a laser radar irradiates the front of the own vehicle with laser light while scanning the same in a horizontal direction and reflects light from a reflection point. A step of receiving light and specifying the positions of the plurality of reflection points; and a step of extracting a predetermined rectangular area including the rear end face image of the front vehicle from the captured image obtained by capturing the front of the vehicle by the image sensor, A step of comparing the position of each reflection point specified by the laser radar with the rectangular area, and recognizing the front vehicle by determining that the reflection point at the position corresponding to the rectangular area is a reflection point on the front vehicle. The method for recognizing a forward vehicle, comprising:
【請求項6】 前記レーザレーダにより特定された前記
各反射点の位置に基づきほぼ等距離の位置にほぼ車両幅
の広がり範囲内に存在する前記反射点群を車両候補点群
とし、この車両候補点群を前記画像センサの座標系に座
標変換して前記矩形領域と照合する工程と、 座標変換後の前記車両候補点群が前記矩形領域とほぼ一
致するときにその車両候補点群を前方車両と判断する工
程とを含むことを特徴とする請求項5に記載の前方車両
の認識方法。
6. The vehicle candidate point group is defined as the vehicle candidate point group, and the reflection point groups existing at substantially equidistant positions within a substantially widened range of the vehicle width based on the positions of the respective reflection points specified by the laser radar are set as vehicle candidate points. Coordinate conversion of the point cloud into the coordinate system of the image sensor and matching with the rectangular area; and when the vehicle candidate point cloud after coordinate conversion substantially matches the rectangular area, the vehicle candidate point cloud The method for recognizing a forward vehicle according to claim 5, further comprising:
【請求項7】 前方車両と判断した前記車両候補点群に
ついてカルマンフィルタによる動き予測を行い、前記照
合部による次回の照合処理に利用する工程を含むことを
特徴とする請求項6に記載の前方車両の認識方法。
7. The front vehicle according to claim 6, further comprising a step of performing a motion prediction by a Kalman filter for the vehicle candidate point group determined to be a front vehicle, and utilizing the motion estimation in a next matching process by the matching unit. Recognition method.
【請求項8】 前記画像センサによる撮像画像に対して
所定の注視領域を設定しその注視領域における各画素の
濃淡からX方向へのエッジヒストグラム、これに直交す
るY方向へのエッジヒストグラム、及び両方向へのエッ
ジヒストグラムの積を演算してその極大点を導出するこ
とで車両候補としての前記矩形領域を抽出する工程を含
むことを特徴とする請求項5ないし7のいずれかに記載
の前方車両の認識方法。
8. A predetermined gaze area is set for an image picked up by the image sensor, an edge histogram in the X direction from the grayscale of each pixel in the gaze area, an edge histogram in a Y direction orthogonal to the gray area, and both directions. 8. The vehicle ahead according to any one of claims 5 to 7, further comprising a step of calculating a product of an edge histogram of the vehicle and deriving a maximum point thereof to extract the rectangular area as a vehicle candidate. Recognition method.
JP2001276321A 2001-09-12 2001-09-12 Device and method for recognizing vehicle in front side Pending JP2003084064A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001276321A JP2003084064A (en) 2001-09-12 2001-09-12 Device and method for recognizing vehicle in front side

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001276321A JP2003084064A (en) 2001-09-12 2001-09-12 Device and method for recognizing vehicle in front side

Publications (1)

Publication Number Publication Date
JP2003084064A true JP2003084064A (en) 2003-03-19

Family

ID=19101041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001276321A Pending JP2003084064A (en) 2001-09-12 2001-09-12 Device and method for recognizing vehicle in front side

Country Status (1)

Country Link
JP (1) JP2003084064A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003172780A (en) * 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd Recognition device and recognition method of preceding vehicle
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
JP2005084035A (en) * 2003-09-11 2005-03-31 Toyota Motor Corp Object detection device
JP2005141517A (en) * 2003-11-07 2005-06-02 Daihatsu Motor Co Ltd Vehicle detecting method and device
JP2005339175A (en) * 2004-05-26 2005-12-08 Alpine Electronics Inc Object recognition device, navigation device and object recognition means
JP2006004188A (en) * 2004-06-17 2006-01-05 Daihatsu Motor Co Ltd Obstacle recognition method and obstacle recognition device
JP2006151125A (en) * 2004-11-26 2006-06-15 Omron Corp In-vehicle image processing device
JP2006226682A (en) * 2005-02-15 2006-08-31 Daihatsu Motor Co Ltd Infrared imaging display device and infrared imaging display method for vehicle
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Front object recognition device
US7417580B2 (en) 2003-09-11 2008-08-26 Toyota Jidosha Kabushiki Kaisha Object detection system and object detection method
JP2009098025A (en) * 2007-10-17 2009-05-07 Toyota Motor Corp Object detection device
US7542825B2 (en) 2003-11-28 2009-06-02 Denso Corporation Sensor fusion system and vehicle control system therewith
JP2009223504A (en) * 2008-03-14 2009-10-01 Omron Corp Vehicle detection device, method, and program
JP2010152839A (en) * 2008-12-26 2010-07-08 Mitsubishi Electric Corp Vehicle surroundings monitoring device
US8483442B2 (en) 2007-02-16 2013-07-09 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
KR101302944B1 (en) * 2009-11-04 2013-09-06 주식회사 만도 Vehicle recognition method and device
KR101316387B1 (en) 2011-12-01 2013-10-08 현대자동차주식회사 Method of object recognition using vision sensing and distance sensing
KR101342124B1 (en) 2013-10-18 2013-12-19 주식회사 지티 A front vehicle detecting and tracking system using the image and detecting and tracking method using the same
JP2015099496A (en) * 2013-11-19 2015-05-28 株式会社デンソー Target recognition device
JP2016102764A (en) * 2014-11-28 2016-06-02 株式会社デンソー Object detection device
CN106043169A (en) * 2016-07-01 2016-10-26 百度在线网络技术(北京)有限公司 Environment perception device and information acquisition method applicable to environment perception device
JP2019106022A (en) * 2017-12-13 2019-06-27 株式会社Soken Roadside object recognition device
JP2019145089A (en) * 2017-12-29 2019-08-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and device for fusing point cloud data
CN111860219A (en) * 2020-06-30 2020-10-30 杭州科度科技有限公司 High-speed road occupation judging method and device and electronic equipment
CN112567264A (en) * 2018-08-17 2021-03-26 Sk电信有限公司 Apparatus and method for acquiring coordinate transformation information
JPWO2021152340A1 (en) * 2020-01-31 2021-08-05
WO2021241189A1 (en) * 2020-05-25 2021-12-02 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
US11415698B2 (en) 2017-02-15 2022-08-16 Toyota Jidosha Kabushiki Kaisha Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
WO2025104999A1 (en) * 2023-11-15 2025-05-22 株式会社日立製作所 Sensing device, sensing method, and sensing system
CN120539744A (en) * 2025-07-28 2025-08-26 华召科技(广东)有限公司 Railway inspection methods, devices, equipment, media and products for inspection vehicles

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225276A (en) * 1994-02-10 1995-08-22 Mitsubishi Electric Corp Vehicle optical radar device
JPH08156723A (en) * 1994-12-06 1996-06-18 Nissan Motor Co Ltd Vehicle obstacle detection device
JPH08329393A (en) * 1995-05-29 1996-12-13 Daihatsu Motor Co Ltd Preceding vehicle detector
JPH0991595A (en) * 1995-09-25 1997-04-04 Mitsubishi Motors Corp Obstacle recognition device
JPH09145833A (en) * 1995-11-24 1997-06-06 Toyota Motor Corp In-vehicle scanning radar device
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
JP2001021647A (en) * 1999-07-02 2001-01-26 Fujitsu Ten Ltd Scanning radar apparatus
JP2002116255A (en) * 2000-10-06 2002-04-19 Nissan Motor Co Ltd Inter-vehicle distance setting device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225276A (en) * 1994-02-10 1995-08-22 Mitsubishi Electric Corp Vehicle optical radar device
JPH08156723A (en) * 1994-12-06 1996-06-18 Nissan Motor Co Ltd Vehicle obstacle detection device
JPH08329393A (en) * 1995-05-29 1996-12-13 Daihatsu Motor Co Ltd Preceding vehicle detector
JPH0991595A (en) * 1995-09-25 1997-04-04 Mitsubishi Motors Corp Obstacle recognition device
JPH09145833A (en) * 1995-11-24 1997-06-06 Toyota Motor Corp In-vehicle scanning radar device
JPH09264954A (en) * 1996-03-29 1997-10-07 Fujitsu Ten Ltd Image processing system using radar
JP2001021647A (en) * 1999-07-02 2001-01-26 Fujitsu Ten Ltd Scanning radar apparatus
JP2002116255A (en) * 2000-10-06 2002-04-19 Nissan Motor Co Ltd Inter-vehicle distance setting device

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003172780A (en) * 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd Recognition device and recognition method of preceding vehicle
JP2003315458A (en) * 2002-04-23 2003-11-06 Daihatsu Motor Co Ltd Recognition apparatus and method for forward vehicle
US7358889B2 (en) 2003-09-11 2008-04-15 Toyota Jidosha Kabushiki Kaishi Object detection system and method of detecting object
JP2005084035A (en) * 2003-09-11 2005-03-31 Toyota Motor Corp Object detection device
US7417580B2 (en) 2003-09-11 2008-08-26 Toyota Jidosha Kabushiki Kaisha Object detection system and object detection method
JP2005141517A (en) * 2003-11-07 2005-06-02 Daihatsu Motor Co Ltd Vehicle detecting method and device
US7542825B2 (en) 2003-11-28 2009-06-02 Denso Corporation Sensor fusion system and vehicle control system therewith
JP2005339175A (en) * 2004-05-26 2005-12-08 Alpine Electronics Inc Object recognition device, navigation device and object recognition means
JP2006004188A (en) * 2004-06-17 2006-01-05 Daihatsu Motor Co Ltd Obstacle recognition method and obstacle recognition device
EP1666919A3 (en) * 2004-11-26 2006-10-18 Omron Corporation Image processing system for automotive application
US7176830B2 (en) 2004-11-26 2007-02-13 Omron Corporation Image processing system for mounting to a vehicle
JP2006151125A (en) * 2004-11-26 2006-06-15 Omron Corp In-vehicle image processing device
CN100451676C (en) * 2004-11-26 2009-01-14 欧姆龙株式会社 Image processing system for mounting to a vehicle
EP1847849A3 (en) * 2004-11-26 2010-08-11 Omron Corporation Image processing system for automotive application
JP2006226682A (en) * 2005-02-15 2006-08-31 Daihatsu Motor Co Ltd Infrared imaging display device and infrared imaging display method for vehicle
JP2006258507A (en) * 2005-03-15 2006-09-28 Omron Corp Front object recognition device
US8625851B2 (en) 2007-02-16 2014-01-07 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
US8483442B2 (en) 2007-02-16 2013-07-09 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
US8571265B2 (en) 2007-02-16 2013-10-29 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus
JP2009098025A (en) * 2007-10-17 2009-05-07 Toyota Motor Corp Object detection device
JP2009223504A (en) * 2008-03-14 2009-10-01 Omron Corp Vehicle detection device, method, and program
JP2010152839A (en) * 2008-12-26 2010-07-08 Mitsubishi Electric Corp Vehicle surroundings monitoring device
KR101302944B1 (en) * 2009-11-04 2013-09-06 주식회사 만도 Vehicle recognition method and device
KR101316387B1 (en) 2011-12-01 2013-10-08 현대자동차주식회사 Method of object recognition using vision sensing and distance sensing
KR101342124B1 (en) 2013-10-18 2013-12-19 주식회사 지티 A front vehicle detecting and tracking system using the image and detecting and tracking method using the same
JP2015099496A (en) * 2013-11-19 2015-05-28 株式会社デンソー Target recognition device
US9540002B2 (en) 2013-11-19 2017-01-10 Denso Corporation Target recognition apparatus
JP2016102764A (en) * 2014-11-28 2016-06-02 株式会社デンソー Object detection device
WO2016084502A1 (en) * 2014-11-28 2016-06-02 株式会社デンソー Object detection device and object detection method
CN107003427A (en) * 2014-11-28 2017-08-01 株式会社电装 Article detection device and object detecting method
US10380424B2 (en) 2014-11-28 2019-08-13 Denso Corporation Object detection device and object detection method
CN106043169A (en) * 2016-07-01 2016-10-26 百度在线网络技术(北京)有限公司 Environment perception device and information acquisition method applicable to environment perception device
US11415698B2 (en) 2017-02-15 2022-08-16 Toyota Jidosha Kabushiki Kaisha Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
JP2019106022A (en) * 2017-12-13 2019-06-27 株式会社Soken Roadside object recognition device
JP7005326B2 (en) 2017-12-13 2022-01-21 株式会社Soken Roadside object recognition device
JP2019145089A (en) * 2017-12-29 2019-08-29 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Method and device for fusing point cloud data
US10789771B2 (en) 2017-12-29 2020-09-29 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for fusing point cloud data
CN112567264A (en) * 2018-08-17 2021-03-26 Sk电信有限公司 Apparatus and method for acquiring coordinate transformation information
JPWO2021152340A1 (en) * 2020-01-31 2021-08-05
WO2021152340A1 (en) * 2020-01-31 2021-08-05 日産自動車株式会社 Object recognition method and object recognition device
CN115038990A (en) * 2020-01-31 2022-09-09 日产自动车株式会社 Object recognition method and object recognition device
WO2021241189A1 (en) * 2020-05-25 2021-12-02 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
CN115485723A (en) * 2020-05-25 2022-12-16 索尼半导体解决方案公司 Information processing device, information processing method, and program
JP7615141B2 (en) 2020-05-25 2025-01-16 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
CN111860219A (en) * 2020-06-30 2020-10-30 杭州科度科技有限公司 High-speed road occupation judging method and device and electronic equipment
CN111860219B (en) * 2020-06-30 2024-01-05 杭州科度科技有限公司 High-speed channel occupation judging method and device and electronic equipment
WO2025104999A1 (en) * 2023-11-15 2025-05-22 株式会社日立製作所 Sensing device, sensing method, and sensing system
CN120539744A (en) * 2025-07-28 2025-08-26 华召科技(广东)有限公司 Railway inspection methods, devices, equipment, media and products for inspection vehicles

Similar Documents

Publication Publication Date Title
JP2003084064A (en) Device and method for recognizing vehicle in front side
JP5407898B2 (en) Object detection apparatus and program
US6670912B2 (en) Method for detecting stationary object located above road
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
US11110923B2 (en) Adaptive cruise control device
JP4246766B2 (en) Method and apparatus for locating and tracking an object from a vehicle
JP2003296736A (en) Obstacle detection apparatus and method
US20080166024A1 (en) Image processing apparatus, method and program thereof
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
JP2002352225A (en) Obstacle detection apparatus and method
JP4070437B2 (en) Forward vehicle recognition device and recognition method
US20050270286A1 (en) Method and apparatus for classifying an object
JP2008304344A (en) Target detection device
US20050232491A1 (en) Method and apparatus for differentiating pedestrians, vehicles, and other objects
JP2011039833A (en) Vehicle detector, vehicle detection program, and vehicle detection method
US7466860B2 (en) Method and apparatus for classifying an object
JP3656056B2 (en) Interrupting vehicle detection device and method
JP2002334330A (en) Vehicle recognition device
US20200372264A1 (en) Image-based road cone recognition method and appartus, storage medium, and vehicle
JP2003172780A (en) Recognition device and recognition method of preceding vehicle
JP4102885B2 (en) Parked vehicle detection method and parked vehicle detection system
JP3319401B2 (en) Roadway recognition device
JP3740531B2 (en) Parked vehicle detection method, detection system, and parked vehicle detection device
Ponsa et al. On-board image-based vehicle detection and tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060725