[go: up one dir, main page]

JPH09218937A - Compartment line detector - Google Patents

Compartment line detector

Info

Publication number
JPH09218937A
JPH09218937A JP8022844A JP2284496A JPH09218937A JP H09218937 A JPH09218937 A JP H09218937A JP 8022844 A JP8022844 A JP 8022844A JP 2284496 A JP2284496 A JP 2284496A JP H09218937 A JPH09218937 A JP H09218937A
Authority
JP
Japan
Prior art keywords
image
lane mark
coordinates
lane
lane marking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8022844A
Other languages
Japanese (ja)
Other versions
JP3961584B2 (en
Inventor
Takashi Naoi
孝 直井
Hiroyuki Kani
博之 可児
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Soken Inc
Original Assignee
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Soken Inc filed Critical Nippon Soken Inc
Priority to JP02284496A priority Critical patent/JP3961584B2/en
Publication of JPH09218937A publication Critical patent/JPH09218937A/en
Application granted granted Critical
Publication of JP3961584B2 publication Critical patent/JP3961584B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately detect a compartment line (white line lane mark) present far from a straight line part on an image. SOLUTION: An alarm main body 20 is broadly divided into an image input part 21, a lane mark detection part 22, a three-dimensional object detection part 23 and a position judgement part 24. Image signals inputted from an image pickup device 10 to the image input part 21 are transmitted to the lane mark detection part 22 and the three-dimensional object detection part 23. In the lane mark detection part 22, in steps S111-S114, edge extraction inside the image, the extraction of lane mark candidates by pairing, Hough transformation and the edge extraction near the lane mark are performed. Also, obtained edge points are transformed from an image coordinate system to a birds-eye coordinate system in the step S115 and the edge points transformed to the birds-eye coordinate system are approximated to a cubic curve by using the method of least squares in the step S116. By outputting the white line lane mark as the function of a cubic polynomial, even the white line lane mark far away is estimated by a curve function.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、例えばCCD
(Charge Coupled Device )カメラ等の撮像装置により
得られた画像情報を用いて道路上の区画線(白線レーン
マーク)を検出する区画線検出装置に関するものであ
る。
BACKGROUND OF THE INVENTION The present invention relates to, for example, a CCD.
(Charge Coupled Device) The present invention relates to a marking line detection device that detects a marking line (white line lane mark) on a road by using image information obtained by an imaging device such as a camera.

【0002】[0002]

【従来の技術】画像から区画線を検出する技術として、
従来の検出装置では、単眼視の画像から得られる画像情
報を基にエッジを抽出し、当該抽出されたエッジにハフ
(Hough)変換を施して区画線の直線部分を抽出す
る。また、その直線部分を基にして画像上のエッジ探査
を行い、区画線を検出していた。
2. Description of the Related Art As a technique for detecting marking lines from an image,
In the conventional detection device, an edge is extracted based on image information obtained from a monocular image, and the extracted edge is subjected to a Hough transform to extract a straight line portion of a lane marking. In addition, based on the straight line portion, edge search on the image was performed to detect the lane markings.

【0003】以下、上記処理をより具体的に説明する。
図9は撮像装置で撮影された映像を示す。この映像の画
像信号を画像処理装置に取り込み、例えば明るさの相対
的な変化に応じてエッジ抽出を行う。エッジ抽出には多
数の方法があるが、その一例としては横方向の2画素間
の差分を用いて区画線のエッジを抽出する。差分を用い
てエッジ抽出を行った結果を図10に示す。図10にお
いて、白抜きの点は差分が正となったエッジ点(アップ
エッジ)であり、黒点は負となったエッジ点(ダウンエ
ッジ)である。ここで、区画線を横切るエッジに注目す
ると、区画線部分では左側に位置する白抜きエッジ点と
右側に位置する黒エッジ点とがペアになっていることが
分かる。この性質を利用し、ペアリング(白抜きエッジ
点と黒エッジ点のペアを取り出す処理)を行い、区画線
と判断される点を抽出した結果が図11である。これに
ハフ変換を施すと、図12のL1,L2のような直線を
取り出すことができる。
The above processing will be described more specifically below.
FIG. 9 shows an image taken by the image pickup apparatus. The image signal of this video is taken into the image processing device, and for example, edge extraction is performed according to a relative change in brightness. Although there are many methods for edge extraction, as an example, the edge of the dividing line is extracted using the difference between two pixels in the horizontal direction. The result of edge extraction using the difference is shown in FIG. In FIG. 10, white points are edge points (up edges) where the difference is positive, and black points are edge points (down edge) where the difference is negative. Here, paying attention to the edge that crosses the lane marking, it can be seen that the white edge point located on the left side and the black edge point located on the right side are paired in the lane marking part. FIG. 11 shows the result of extracting points that are judged to be division lines by performing pairing (a process of extracting a pair of white edge points and black edge points) using this property. If Hough transformation is applied to this, straight lines such as L1 and L2 in FIG. 12 can be extracted.

【0004】[0004]

【発明が解決しようとする課題】ところが、図14にお
いて、前記ハフ変換により求められる区画線の直線部分
は図中のa,b線のようになり、これでは例えばe,f
線のように右方に曲がった区画線に対応することはでき
ない。また、区画線のエッジ点が殆ど抽出されなかった
自車両から遠方領域では、直線の延長にて区画線を推定
することにより大きな誤差が発生する。
However, in FIG. 14, the straight line portions of the lane markings obtained by the Hough transformation are as shown by lines a and b in the figure.
It cannot correspond to a right-turned marking line like a line. Further, in a region far from the vehicle where the edge points of the lane markings are hardly extracted, a large error occurs by estimating the lane markings by extending the straight line.

【0005】一方、道路上の区画線は直線、円弧、クロ
ソイド曲線で成り立っているため、これは実用上問題の
ない誤差レベルで3次式に近似できる。しかし、撮像装
置に入力された画像では、道路面上の直線は画像上でも
直線であるが、円弧、クロソイド曲線は全く違うものと
なっている。そのため、画像上の区画線に3次近似曲線
を当てはめた場合、図14のc,d線に示すように、デ
ータのある所までは、ある程度元データと一致した曲線
となるが、データの無い領域の予測線はe,f線(実際
の区画線)から大きくかけ離れてしまう。
On the other hand, the lane markings on the road are composed of straight lines, arcs, and clothoid curves, so that this can be approximated to a cubic equation at an error level that poses no practical problem. However, in the image input to the image pickup device, the straight line on the road surface is a straight line on the image, but the arc and clothoid curve are completely different. Therefore, when a cubic approximation curve is applied to the demarcation line on the image, as shown by the lines c and d in FIG. 14, the curve is in agreement with the original data to some extent, but there is no data. The predicted line of the area is far from the e and f lines (actual division lines).

【0006】また、この種の他の従来技術として、特開
平3−282710号公報の「移動車の環境認識装置」
が開示されており、同装置では区画線の曲線近似を画像
座標系で行っているが、かかる場合にもその区画線の検
出結果はやはり図14のc,d線のようになる。つま
り、エッジデータの無い遠方領域では予測曲線を求める
ことができなかった。
Further, as another conventional technique of this type, there is disclosed an "environment recognizing device for a moving vehicle" in Japanese Patent Laid-Open No. 3-28710.
However, in this apparatus, the curve approximation of the lane markings is performed in the image coordinate system. In such a case, the lane marking detection results are as shown by lines c and d in FIG. In other words, the prediction curve could not be obtained in the distant region where there is no edge data.

【0007】この発明は、上記問題に着目してなされた
ものであって、その目的とするところは、遠方領域にお
いても区画線を精度良く検出することができる区画線検
出装置を提供することにある。
The present invention has been made in view of the above problems, and an object of the present invention is to provide a marking line detecting device capable of accurately detecting marking lines even in a distant region. is there.

【0008】[0008]

【課題を解決するための手段】本発明では、撮像装置と
して、例えば光軸が道路面にほぼ水平となるCCDカメ
ラを用い、同CCDカメラにより自車両前方の映像を取
得する。また、本発明では、前記撮像装置により取得さ
れた撮像情報に基づいて、道路面を真上から見おろした
俯瞰図を作成し、その俯瞰図上で区画線(白線レーンマ
ーク)を検出する。そして、俯瞰座標上において、関数
近似により道路上の区画線を推定する。なお、道路上の
区画線は直線、円弧、クロソイド曲線の組み合わせで成
り立っており、クロソイド曲線は緩和曲線と言われ、直
線から円弧に移行する区間に使われる。また、クロソイ
ド曲線は3次式で近似でき、直線、円弧も実用上問題の
ない誤差で3次式で近似できる。
According to the present invention, as an image pickup device, for example, a CCD camera whose optical axis is substantially horizontal to a road surface is used, and an image in front of the vehicle is acquired by the CCD camera. Further, in the present invention, an overhead view of the road surface viewed from directly above is created based on the imaging information acquired by the imaging device, and the lane markings (white line lane marks) are detected on the overhead view. Then, on the overhead coordinates, the lane markings on the road are estimated by function approximation. The lane markings on the road consist of a combination of straight lines, circular arcs, and clothoid curves, and the clothoid curves are called relaxation curves, and are used in the sections that transition from straight lines to circular arcs. Further, the clothoid curve can be approximated by a cubic expression, and the straight line and the arc can also be approximated by a cubic expression with an error that causes no practical problem.

【0009】その具体的な手段として、請求項1に記載
の発明では、撮像手段(例えばCCDカメラ)により得
られた画像情報から画像座標上の区画線エッジを抽出す
る(区画線エッジ抽出手段)。また、抽出された画像座
標上の区画線エッジを俯瞰座標、若しくは3次元座標に
変換し、その変換された区画線エッジを2次以上のn次
曲線で近似する(n次近似手段)。さらに、前記n次曲
線に基づいて区画線を推定する(区画線推定手段)。
As a concrete means thereof, in the invention described in claim 1, the dividing line edge on the image coordinates is extracted from the image information obtained by the image pickup means (for example, CCD camera) (the dividing line edge extracting means). . In addition, the lane marking edges on the extracted image coordinates are converted into overhead coordinates or three-dimensional coordinates, and the transformed lane marking edges are approximated by an quadratic or higher nth-order curve (nth-order approximation means). Further, the marking line is estimated based on the n-th order curve (marking line estimating means).

【0010】上記請求項1に記載の発明によれば、俯瞰
座標に変換された区画線情報に2次以上のn次近似式を
適用することにより、画像座標系での近似に比べて誤差
の少ない予測曲線を検出することができる。つまり、精
度の高い近似曲線を求めることができ、ひいては画像情
報に現れない遠方の区画線、即ち、画像情報からの区画
線エッジがない遠方の区画線も近似曲線から予測可能と
なる。
According to the first aspect of the present invention, by applying the quadratic or higher order nth-order approximation formula to the lane marking information converted into the overhead coordinates, the error of error is greater than the approximation in the image coordinate system. Fewer predictive curves can be detected. That is, a highly accurate approximate curve can be obtained, and thus a distant lane line that does not appear in the image information, that is, a distant lane line without a lane line edge from the image information can be predicted from the approximate curve.

【0011】一方、請求項2に記載の発明では、撮像手
段(例えばCCDカメラ)により得られた画像情報から
画像座標上の区画線エッジを抽出する(区画線エッジ抽
出手段)。また、抽出された画像座標上の区画線エッジ
を俯瞰座標、若しくは3次元座標に変換し、その変換さ
れた区画線エッジを関数近似する(関数近似手段)。さ
らに、その近似関数を前記座標変換時の定数を用いて元
の画像座標に逆変換し、当該逆変換の結果に基づいて区
画線を推定する(区画線推定手段)。
On the other hand, according to the second aspect of the present invention, the lane marking edge on the image coordinates is extracted from the image information obtained by the image pickup means (for example, CCD camera) (lane marking edge extraction means). Further, the lane marking edges on the extracted image coordinates are converted into overhead coordinates or three-dimensional coordinates, and the converted lane marking edges are function-approximated (function approximating means). Further, the approximate function is inversely transformed into the original image coordinates by using the constant at the time of the coordinate transformation, and the lane marking is estimated based on the result of the inverse transformation (lane marking estimating means).

【0012】要するに、CCDカメラによる画像情報を
俯瞰座標系、若しくは3次元座標系に変換する場合に
は、CCDカメラの光軸と路面との角度が重要な一要素
となっているが、実際の車両走行時には、路面の凹凸等
の影響から前記光軸と路面とでなされる角度が変動す
る。かかる場合、俯瞰座標系、若しくは3次元座標系へ
の変換時においてその影響が生じ、関数曲線の精度が悪
化する。これに対して、請求項2に記載の構成によれ
ば、関数近似後において、座標変換時の定数(例えばC
CDカメラ等の光軸の角度に関する定数)を用いて俯瞰
座標若しくは3次元座標を元の画像座標に戻すことによ
り、前記の角度変化に起因して発生する座標変換に伴う
誤差を抑制することができる。その結果、前記した路面
の凹凸等に起因する不具合を解消し、画像座標で近似を
行うよりも誤差の少ない予測曲線を検出して区画線の検
出精度をより一層高めることができる。
In short, when the image information from the CCD camera is converted to the bird's-eye view coordinate system or the three-dimensional coordinate system, the angle between the optical axis of the CCD camera and the road surface is an important factor. When the vehicle is running, the angle formed between the optical axis and the road surface changes due to the influence of the unevenness of the road surface. In such a case, the effect is generated at the time of conversion into the overhead coordinate system or the three-dimensional coordinate system, and the accuracy of the function curve is deteriorated. On the other hand, according to the configuration of claim 2, after the function approximation, a constant (for example, C
By returning the bird's-eye view coordinates or the three-dimensional coordinates to the original image coordinates by using (a constant related to the angle of the optical axis of a CD camera or the like), it is possible to suppress an error caused by the coordinate conversion caused by the angle change. it can. As a result, it is possible to eliminate the above-mentioned problems caused by the unevenness of the road surface, etc., and detect a prediction curve having a smaller error than performing approximation by image coordinates, and further improve the detection accuracy of lane markings.

【0013】[0013]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(第1の実施の形態)以下、この発明を障害物検出装置
に具体化した第1の実施の形態を図面に従って説明す
る。
(First Embodiment) A first embodiment in which the present invention is embodied in an obstacle detecting device will be described below with reference to the drawings.

【0014】図1は本実施の形態における障害物検出装
置の構成を示すブロック図である。図1において、撮像
手段としての撮像装置10は、車両前方を撮像する左右
一対のCCDカメラ(図示しない)を有し、同装置10
にて得られた画像信号は警報装置本体20に入力され
る。図9は、撮像装置10により得られた一画像を示し
ており、画像内には、区画線(本実施の形態では白線レ
ーンマークという)81,82や自車両の前方を走行す
る車両83,84や電柱85等が映し出されている。
FIG. 1 is a block diagram showing the structure of an obstacle detection device according to this embodiment. In FIG. 1, an image pickup device 10 as an image pickup means has a pair of left and right CCD cameras (not shown) for picking up an image of the front of the vehicle.
The image signal obtained in step 1 is input to the alarm device main body 20. FIG. 9 shows an image obtained by the image pickup apparatus 10. In the image, lane markings (referred to as white line lane marks in the present embodiment) 81, 82 and a vehicle 83 traveling in front of the host vehicle are shown. 84, telephone poles 85, etc. are displayed.

【0015】また、警報装置本体20には、車速センサ
30からの速度信号、ヨーレートセンサ・ピッチレート
センサ40からのヨーレート・ピッチレート検出信号、
ブレーキスイッチ50からのブレーキ信号が入力され
る。警報装置本体20は、前記画像信号を基に画像処理
を行い、立体物及び白線レーンマークを検出すると共
に、速度信号、ヨーレート・ピッチレート信号、ブレー
キ信号の情報との照合により、自車両の障害物に対する
危険度等を判定する。そして、警報装置本体20は、障
害物に対する危険度等に応じてスピーカ60により警報
を出力したり、表示装置70により障害物までの距離な
どを出力したりする。なお、本実施の形態では、警報装
置本体20により区画線エッジ抽出手段、n次近似手段
及び区画線推定手段が構成されている。
Further, the alarm device main body 20 has a speed signal from the vehicle speed sensor 30, a yaw rate / pitch rate detection signal from the yaw rate sensor / pitch rate sensor 40,
A brake signal is input from the brake switch 50. The alarm device main body 20 performs image processing on the basis of the image signal to detect a three-dimensional object and a white line lane mark, and collates with information of a speed signal, a yaw rate / pitch rate signal, and a brake signal to obstruct the own vehicle. Determine the degree of danger to an object. Then, the alarm device main body 20 outputs an alarm from the speaker 60 according to the degree of danger to the obstacle or the like, and outputs a distance to the obstacle or the like from the display device 70. In this embodiment, the alarm device main body 20 constitutes the lane marking edge extraction means, the nth order approximation means, and the lane marking estimation means.

【0016】図2は、警報装置本体20の構成を作用毎
に示す機能ブロック図であり、以下、図2に従って本実
施の形態における障害物判定処理を説明する。図2にお
いて、警報装置本体20は、画像入力部21と、レーン
マーク検出部22と、立体物検出部23と、位置判定部
24とに大別される。画像入力部21では、前記撮像装
置10からの画像信号が入力され、同画像信号はレーン
マーク検出部22及び立体物検出部23に送信される。
かかる場合、レーンマーク検出部22には、左右いずれ
か一方のCCDカメラの画像信号が送信され、立体物検
出部23には左右両方のCCDカメラの画像信号が送信
される。
FIG. 2 is a functional block diagram showing the configuration of the alarm device main body 20 for each action, and the obstacle determination processing in the present embodiment will be described below with reference to FIG. In FIG. 2, the alarm device body 20 is roughly divided into an image input unit 21, a lane mark detection unit 22, a three-dimensional object detection unit 23, and a position determination unit 24. The image input unit 21 receives the image signal from the imaging device 10, and the image signal is transmitted to the lane mark detection unit 22 and the three-dimensional object detection unit 23.
In such a case, the lane mark detection unit 22 is transmitted with the image signal of one of the left and right CCD cameras, and the three-dimensional object detection unit 23 is transmitted with the image signals of both the left and right CCD cameras.

【0017】レーンマーク検出部22では、以下のステ
ップS111〜S116の手順に従って白線レーンマー
クが検出される。即ち、ステップS111では、画像内
における横方向について所定画素間の相対的な明るさの
差分が所定のしきい値を越えた点をエッジ点として抽出
する。このエッジ抽出処理により図10のようなエッジ
点が抽出される。図10において、白抜きの点は差分が
正となったエッジ点(アップエッジ)であり、黒点は負
となったエッジ点(ダウンエッジ)である。このとき、
白線レーンマークを横切るエッジに着目すると、レーン
マーク部分は左側に位置するアップエッジと、右側に位
置するダウンエッジのペアになっていることが分かる。
The lane mark detecting section 22 detects a white lane mark according to the procedure of steps S111 to S116 below. That is, in step S111, a point at which the relative brightness difference between predetermined pixels in the horizontal direction in the image exceeds a predetermined threshold is extracted as an edge point. By this edge extraction processing, edge points as shown in FIG. 10 are extracted. In FIG. 10, white points are edge points (up edges) where the difference is positive, and black points are edge points (down edge) where the difference is negative. At this time,
Focusing on the edge that crosses the white line lane mark, it can be seen that the lane mark portion is a pair of an up edge located on the left side and a down edge located on the right side.

【0018】次に、ステップS112では、アップエッ
ジとダウンエッジのペアを結びつけるペアリングを行
い、図11に示す如く白線レーンマークの候補となるエ
ッジ点のみを抽出する。かかるペアリングの手順を以下
に略述する。つまり、図3は平行に延びる白線レーンマ
ークが画像上で一点(消失点)に収束することを示して
おり、同図では消失点からYだけ下方へ離れた位置の画
像上の白線レーンマークの幅をWとしている。この場
合、CCDカメラの取り付け高さh、同カメラの横方向
の画角θh 及び画素数nh 、縦方向の画角θv 及び画素
数nv 、及び道路上における実際の白線レーンマークの
幅dが既知であるとすれば、画像上の白線レーンマーク
の幅Wは、下記の式(1)により近似的に求めることが
できる。
Next, in step S112, pairing is performed to connect the pair of the up edge and the down edge, and only the edge points that are candidates for the white line lane mark are extracted as shown in FIG. The procedure of such pairing will be outlined below. That is, FIG. 3 shows that the white line lane marks extending in parallel converge to one point (vanishing point) on the image, and in FIG. 3, the white line lane marks on the image at a position separated by Y downward from the vanishing point. The width is W. In this case, the mounting height h of the CCD camera, the horizontal angle of view θh and the number of pixels nh of the camera, the vertical angle of view θv and the number of pixels nv, and the actual width d of the white lane mark on the road are known. Then, the width W of the white line lane mark on the image can be approximately calculated by the following equation (1).

【0019】[0019]

【数1】 しかして、上記式(1)において、画像上の白線レーン
マークの幅Wは消失点を基準とする垂直走査位置Yの関
数として表される。そして、水平走査時の画像上の間隔
が上記式(1)にて求まる幅W以内にあるアップエッジ
とダウンエッジとを選択することにより、レーンマーク
候補のエッジ点が抽出できる。この場合、例えばアップ
エッジの横方向位置とダウンエッジの横方向位置との中
間位置をエッジ点の候補とする(図11)。このとき、
図9の車両83,84や電柱85等に相当するエッジ点
はレーンマーク候補から削除される。
[Equation 1] Therefore, in the above formula (1), the width W of the white line lane mark on the image is expressed as a function of the vertical scanning position Y based on the vanishing point. Then, the edge points of the lane mark candidates can be extracted by selecting the up edge and the down edge in which the interval on the image during horizontal scanning is within the width W obtained by the above equation (1). In this case, for example, an intermediate position between the horizontal position of the up edge and the horizontal position of the down edge is set as the edge point candidate (FIG. 11). At this time,
Edge points corresponding to the vehicles 83, 84 and telephone poles 85 in FIG. 9 are deleted from the lane mark candidates.

【0020】次いで、ステップS113では、レーンマ
ーク候補のエッジ点についてハフ変換処理を行い、実際
の白線レーンマーク上のエッジ点を求めるための基とな
る直線を検出する。図12はハフ変換により抽出された
直線L1,L2を示す。続くステップS114では、ハ
フ変換により抽出した直線L1,L2に基づいて図11
のレーンマーク候補から白線レーンマークのエッジ点を
取り出す。その結果を図13に示す。
Next, in step S113, Hough transform processing is performed on the edge points of the lane mark candidates, and a straight line which is a basis for obtaining the edge points on the actual white line lane mark is detected. FIG. 12 shows straight lines L1 and L2 extracted by the Hough transform. In the following step S114, based on the straight lines L1 and L2 extracted by the Hough transform,
The edge points of the white line lane marks are extracted from the lane mark candidates of. The result is shown in FIG.

【0021】ステップS115では、上記の如く得られ
たエッジ点を画像座標系から俯瞰座標系(X−Z座標)
に変換する。図15は白線レーンマークのエッジ点を俯
瞰図上に点在させた結果を示す図である。以下に、画像
座標系から俯瞰座標系への変換手順を示す。
In step S115, the edge points obtained as described above are taken from the image coordinate system to the bird's-eye view coordinate system (XZ coordinate).
Convert to FIG. 15 is a diagram showing a result of having the edge points of the white line lane marks scattered on the overhead view. The procedure for converting from the image coordinate system to the bird's-eye view coordinate system is shown below.

【0022】図4は撮像装置10と路面を横から見た
図、図5は図4を上から見た図(俯瞰図)、図6は撮像
装置10により撮像された画像を示す図である。ここで
は、図4の座標系を(Y,Z)、図5の座標系を(X,
Z)とする。また、図5の俯瞰座標系では路面を平面と
して扱っているが、横から見た図4の座標系を併せて考
慮すると、それは3次元座標(X,Y,Z)に拡張でき
る。
FIG. 4 is a side view of the imaging device 10 and the road surface, FIG. 5 is a top view of FIG. 4 (overhead view), and FIG. 6 is an image taken by the imaging device 10. . Here, the coordinate system of FIG. 4 is (Y, Z), and the coordinate system of FIG. 5 is (X,
Z). Further, although the road surface is treated as a plane in the overhead coordinate system of FIG. 5, it can be expanded to three-dimensional coordinates (X, Y, Z) if the coordinate system of FIG. 4 viewed from the side is also taken into consideration.

【0023】また、路面上に任意の点p1 をとると、画
像上でのその位置は(x1 ,y1 )となる。かかる場
合、図6の消失ラインy0 、図4のZm の関係式は、次
の式(2),(3)で表すことができる。
When an arbitrary point p1 is taken on the road surface, its position on the image is (x1, y1). In this case, the relational expression of the disappearance line y0 in FIG. 6 and Zm in FIG. 4 can be expressed by the following equations (2) and (3).

【0024】[0024]

【数2】 [Equation 2]

【0025】[0025]

【数3】 ここで、式(2),(3)におけるym ,θv ,θv0,
hは既知の値とすれば、y0 ,Zm は所定のある値(固
定値)として求められる。
(Equation 3) Here, ym, θv, θv0 in the equations (2) and (3),
If h is a known value, y0 and Zm are calculated as predetermined values (fixed values).

【0026】また、図4のZ1 はy0 ,Zm を含む次の
式(4)で表すことができる。
Further, Z1 in FIG. 4 can be expressed by the following equation (4) including y0 and Zm.

【0027】[0027]

【数4】 さらに、図5のθh1は、次の式(5)で表され、(Equation 4) Further, θh1 in FIG. 5 is expressed by the following equation (5),

【0028】[0028]

【数5】 図5のX1 は、次の式(6)で表される。(Equation 5) X1 in FIG. 5 is expressed by the following equation (6).

【0029】[0029]

【数6】 以上の式(2)〜(6)を用いることにより俯瞰座標系
の(X1 ,Z1 )が確定できる。
(Equation 6) By using the above equations (2) to (6), (X1, Z1) in the overhead coordinate system can be determined.

【0030】ステップS116では、俯瞰座標系に変換
されたエッジ点を最小2乗法を用いて3次曲線に近似す
る。そして、白線レーンマークを3次多項式の関数とし
て出力することにより、図16のF1 (Z),F2
(Z)の曲線関数が得られる。このとき、F1 (Z)は
右側の白線レーンマークの関数、F2 (Z)は左側の白
線レーンマークの関数であり、これらによる3次の近似
曲線は、前記ハフ変換により求められた直線部分の延長
線として予測されることになる。
In step S116, the edge points converted into the bird's-eye view coordinate system are approximated to a cubic curve using the least square method. Then, by outputting the white line lane marks as a function of a cubic polynomial, F1 (Z) and F2 in FIG.
The curve function of (Z) is obtained. At this time, F1 (Z) is a function of the white line lane mark on the right side, and F2 (Z) is a function of the white line lane mark on the left side, and the cubic approximation curve by these is the linear part of the straight line portion obtained by the Hough transformation. It will be predicted as an extension.

【0031】一方、立体物検出部23において、画像入
力部21から左右一対のCCDカメラによる画像信号が
入力されると、ステップS121では周知の立体視法を
用いて他の走行車両等、立体物の画像中の位置と実際の
距離を出力する。ここで、立体視法による距離検出手順
について図7を用いて簡単に説明する。図7において、
撮像装置10には、2つの視点を形成するために物体M
に対向して2つのレンズ11,12が配設され、この2
つのレンズ11,12の後ろにそれらの光軸S1,S2
が一致するCCD13,14が配設されている。ここ
で、図中の「De」はレンズ11,12と物体Mとの距
離、「f」はレンズ11,12の焦点距離、「xa 」,
「xb 」はそれぞれ物体Mからレンズ11,12を経て
CCD13,14へ焦点を結ぶ点と光軸S1,S2との
距離、「P」は光軸S1,S2間のピッチである。かか
る場合、距離Deは、
On the other hand, in the three-dimensional object detection unit 23, when the image signals from the pair of left and right CCD cameras are input from the image input unit 21, three-dimensional objects such as other traveling vehicles are known using the known stereoscopic method in step S121. The position in the image and the actual distance are output. Here, the distance detection procedure by the stereoscopic method will be briefly described with reference to FIG. 7. In FIG.
The imaging device 10 includes an object M for forming two viewpoints.
Two lenses 11 and 12 are arranged facing each other.
Behind the two lenses 11, 12, their optical axes S1, S2
CCDs 13 and 14 that match each other are arranged. Here, “De” in the figure is the distance between the lenses 11 and 12 and the object M, “f” is the focal length of the lenses 11 and 12, “xa”,
"Xb" is the distance between the optical axis S1, S2 and the point where the object M passes through the lenses 11, 12 to the CCDs 13, 14 and "P" is the pitch between the optical axes S1, S2. In such a case, the distance De is

【0032】[0032]

【数7】 で求めることができる。即ち、焦点距離f,ピッチPが
既知であるため、(xa+xb )が求まれば物体Mまで
の距離Deが分かる。ここで、(xa +xb )は左右画
像の視差に相当し、左右の画像中の対象物の輝度値を少
しずつ(例えば1画素ずつ)ずらしながら比較し、最も
一致するずらし量として求めることができる。視差を求
める一般的な手法としては、相関計算が用いられ、次の
式(8)によて求められる相関値V(i)が最小となる
点のずらし量iが視差となる。
(Equation 7) Can be obtained by That is, since the focal length f and the pitch P are known, the distance De to the object M can be known by obtaining (xa + xb). Here, (xa + xb) corresponds to the parallax between the left and right images, and the luminance values of the objects in the left and right images are compared while being slightly shifted (for example, by one pixel), and can be obtained as the best matching shift amount. . As a general method for obtaining the parallax, correlation calculation is used, and the shift amount i of the point where the correlation value V (i) obtained by the following equation (8) is the minimum is the parallax.

【0033】[0033]

【数8】 但し、式(8)において、「an 」,「bn 」は画像の
単位領域(例えば8画素×8画素)を一次元画像とした
場合の輝度の並び(数列)、「n」は画像の横方向の画
素番号、「W」は単位領域の大きさ(この場合は8)で
ある。なお、輝度の並びを示す数列を「am,n 」,「b
m,n 」として、単位領域における二次元画像から相関値
V(i)を求め、その相関値V(i)が最小値となるず
らし量iから視差を求めることも可能である。
(Equation 8) However, in Expression (8), “an” and “bn” are a sequence of luminance (a sequence) when a unit area (for example, 8 pixels × 8 pixels) of the image is a one-dimensional image, and “n” is a horizontal direction of the image. The pixel number in the direction, “W”, is the size of the unit area (8 in this case). It should be noted that the numerical sequence showing the arrangement of the luminance is "am, n", "b
It is also possible to obtain the correlation value V (i) from the two-dimensional image in the unit area, and obtain the parallax from the shift amount i at which the correlation value V (i) becomes the minimum value.

【0034】また、続くステップS122では、画像座
標上における立体物の位置を俯瞰座標系に変換する。こ
のとき、図4〜6に示す任意の点p1 に立体物(例えば
他車両)があったとすると、俯瞰変換上のZ1 は前記式
(8)の距離Deとして直接求められ、このZ1 を前記
の式(5),(6)に代入することによりX1 を求める
ことができる。かかる処理によれば、図16に示す俯瞰
図において、前記図8の車両83,84がP1,P2の
位置にて検出されることになる。
Further, in the following step S122, the position of the three-dimensional object on the image coordinates is converted into the overhead coordinate system. At this time, if there is a three-dimensional object (for example, another vehicle) at an arbitrary point p1 shown in FIGS. 4 to 6, Z1 on the bird's-eye view conversion is directly obtained as the distance De of the equation (8), and this Z1 is calculated as described above. X1 can be obtained by substituting the equations (5) and (6). According to this processing, the vehicles 83 and 84 shown in FIG. 8 are detected at the positions P1 and P2 in the overhead view shown in FIG.

【0035】最後に、位置判定部24では、図16のよ
うに立体物とレーンマーク関数の関係を求め、立体物と
白線レーンマークとの位置関係を判定する。この場合、
既述した通り俯瞰座標上では、白線レーンマークは関数
F1 (Z),F2 (Z)で表される。また、立体物は物
体左右両端の位置(Xr ,Z),(Xl ,Z)を持つ。
そして、位置判定部24は、位置判定処理の一つ例とし
て図8のルーチンを実行し、その時々の要否に応じて警
報情報を発生させる。
Finally, the position determining unit 24 determines the relationship between the three-dimensional object and the lane mark function as shown in FIG. 16, and determines the positional relationship between the three-dimensional object and the white line lane mark. in this case,
As described above, the white line lane mark is represented by the functions F1 (Z) and F2 (Z) on the overhead coordinate. Further, the three-dimensional object has positions (Xr, Z) and (Xl, Z) at the left and right ends of the object.
Then, the position determination unit 24 executes the routine of FIG. 8 as an example of the position determination processing, and generates alarm information according to the necessity at each time.

【0036】つまり、図8において、ステップS201
でルーチンが開始されると、ステップS202では右側
の白線レーンマークの内側に立体物があるか否かを判別
し、次のステップS203では左側の白線レーンマーク
の内側に立体物があるか否かを判別する。より具体的に
は、次の式(9),(10)の関係に従い判別処理を実
施する。ここで、「Xra」は立体物の右側端X方向位
置、「Xla」は立体物の左側端X方向位置、「Za 」は
Z方向の位置を示す。
That is, in FIG. 8, step S201.
When the routine is started in step S202, it is determined in step S202 whether there is a three-dimensional object inside the white lane mark on the right side, and in the next step S203, whether there is a three-dimensional object inside the white line lane mark on the left side. To determine. More specifically, the determination process is performed according to the relationship of the following expressions (9) and (10). Here, "Xra" indicates the right end X direction position of the three-dimensional object, "Xla" indicates the left end X direction position of the three-dimensional object, and "Za" indicates the Z direction position.

【0037】[0037]

【数9】 [Equation 9]

【0038】[0038]

【数10】 さらに、ステップS204では、車速センサ30からの
速度信号と立体物との距離変化から相対速度を求め、相
対速度、距離、自車速度の関係から現時点の走行状態が
危険な状態か否かを判別する。ステップS205では、
ブレーキスイッチ50からのブレーキ信号の有無に基づ
き、ドライバが危険を回避しようとしているか否かを判
別する。そして、ステップS202〜S205が全て肯
定判別されれば、ステップS206で立体物(障害物)
との衝突の可能性があるとしてドライバに警報する音を
発生させ、その後ステップS207で処理を終了する。
また、ステップS202〜S205のいずれかが否定判
別されれば、直ちにステップS207で処理を終了す
る。
(Equation 10) Further, in step S204, the relative speed is obtained from the speed signal from the vehicle speed sensor 30 and the change in the distance to the three-dimensional object, and it is determined from the relationship between the relative speed, the distance, and the own vehicle speed whether the current traveling state is dangerous. To do. In step S205,
Based on the presence or absence of the brake signal from the brake switch 50, it is determined whether or not the driver is trying to avoid the danger. If all the determinations in steps S202 to S205 are affirmative, a three-dimensional object (obstacle) in step S206.
A sound is generated to warn the driver that there is a possibility of collision with, and then the process ends in step S207.
If any of the steps S202 to S205 is negatively determined, the process is immediately ended in the step S207.

【0039】以上詳述した本実施の形態によれば、以下
に示す効果が得られる。 (a)先ず以て、自車両にとって比較的近距離の領域に
ついては、ハフ変換により直線近似が施される。この場
合、近距離領域では白線レーンマークについて多数のエ
ッジ点が得られることから、正確な直線近似が可能とな
る。
According to this embodiment described in detail above, the following effects can be obtained. (A) First, for a region that is relatively close to the host vehicle, linear approximation is performed by Hough transform. In this case, a large number of edge points can be obtained for the white line lane mark in the short-distance region, so that accurate straight line approximation is possible.

【0040】(b)これに対して、比較的遠距離の領域
では白線レーンマークについて少数のエッジ点しか得ら
れないが、画像座標を俯瞰座標に変換すると共に、俯瞰
座標に変換された区画線情報に3次近似式を適用するこ
とにより、画像座標系での近似に比べて誤差の少ない予
測曲線を検出することができる。つまり、道路上の白線
レーンマークは直線、円弧、クロソイド曲線の組み合わ
せで成り立っており、3次近似を行うことによりクロソ
イド曲線成分も含めた道路上の白線レーンマークを精度
良く検出することができる。かかる場合、ハフ変換によ
り得られた白線レーンマークの直線部分の延長線とし
て、俯瞰座標上にて求められた3次曲線部分を延長させ
たため、広域にわたって白線レーンマークを予測でき
る。その結果、従来からの懸案であった画像情報に現れ
ない遠方の区画線、即ち、画像情報からの区画線エッジ
がない遠方の区画線も精度良く推定することができる。
(B) On the other hand, in a relatively distant area, only a small number of edge points can be obtained for the white lane mark, but the image coordinates are converted into the overhead coordinates and the lane markings converted into the overhead coordinates. By applying a cubic approximation formula to the information, it is possible to detect a prediction curve with less error than approximation in the image coordinate system. That is, the white line lane mark on the road is made up of a combination of straight lines, arcs, and clothoid curves, and the white line lane mark on the road including the clothoid curve component can be accurately detected by performing the cubic approximation. In this case, since the cubic curve portion obtained on the overhead coordinates is extended as an extension line of the straight line portion of the white line lane mark obtained by the Hough transform, the white line lane mark can be predicted over a wide area. As a result, it is possible to accurately estimate a distant lane line that does not appear in image information, which has been a problem in the past, that is, a distant lane line that has no lane line edge from the image information.

【0041】(c)レーンマーク情報と立体物情報とを
それぞれに俯瞰座標系に変換し、その座標上でそれらの
関係を比較判定することにより、障害物の検出精度を高
めることができ、安全走行が実現できる。
(C) By converting the lane mark information and the three-dimensional object information into an overhead coordinate system and comparing and determining their relationship on the coordinates, it is possible to enhance the accuracy of obstacle detection and to ensure safety. Driving can be realized.

【0042】(第2の実施の形態)次に、第2の実施の
形態について説明する。但し、本実施の形態の構成にお
いて、上述した第1の実施の形態と同等であるものにつ
いてはその説明を省略する。そして、以下には第1の実
施の形態との相違点を中心に説明する。
(Second Embodiment) Next, a second embodiment will be described. However, in the configuration of the present embodiment, the description of the same components as those in the above-described first embodiment will be omitted. Then, the differences from the first embodiment will be mainly described below.

【0043】つまり、上記第1の実施の形態では、撮像
装置10により得られた画像情報を画像座標系から俯瞰
座標系に変換し、俯瞰座標にて白線レーンマークを3次
近似したが、本実施の形態では、画像情報を画像座標系
(2次元座標系)から3次元座標系に変換し、3次元座
標にて白線レーンマークを3次近似するものである。そ
の詳細を以下に説明する。
That is, in the first embodiment, the image information obtained by the image pickup device 10 is converted from the image coordinate system to the bird's-eye view coordinate system, and the white line lane marks are cubically approximated by the bird's-eye view coordinates. In the embodiment, the image information is converted from the image coordinate system (two-dimensional coordinate system) to the three-dimensional coordinate system, and the white line lane marks are cubically approximated by the three-dimensional coordinates. The details will be described below.

【0044】本実施の形態におけるレーンマーク検出手
順としては、前記図2のS115の内容が変更されるの
みで他の処理は同一である。即ち、図2のS115では
下記の処理が行われる。図17(前記図13に相当する
図)のように抽出された白線レーンマークのエッジ点に
ついて所定の枠α1を設定し、同α1の拡大図を図18
に示す。図18内において、点p1 に対して幅w×高さ
hのウィンドウα2を設定する。このウィンドウα2は
白線レーンマークの横幅が当該ウィンドウ内に収まるよ
うに設定し、画面の上に行くに従って幅wを小さくして
いく。ウィンドウα2の幅wを式に表すと、式(11)
となる。
The lane mark detection procedure in this embodiment is the same as the other processing except that the contents of S115 in FIG. 2 are changed. That is, the following process is performed in S115 of FIG. A predetermined frame α1 is set for the edge points of the white line lane marks extracted as shown in FIG. 17 (a diagram corresponding to FIG. 13), and an enlarged view of the same α1 is shown in FIG.
Shown in In FIG. 18, a window α2 of width w × height h is set for the point p1. The window α2 is set so that the horizontal width of the white line lane mark is within the window, and the width w is reduced as it goes to the top of the screen. When the width w of the window α2 is expressed by an equation, the equation (11)
Becomes

【0045】[0045]

【数11】 但し、式(11)において、「wmax 」はレーンマーク
の画面最下部の横幅が十分入る値とし、「wmin 」は相
関計算が精度良く行える範囲内で最小値とする。本実施
の形態では、wmax =50、wmin =8、h=8とし
た。
[Equation 11] However, in the equation (11), “wmax” is a value that allows the width of the lane mark at the bottom of the screen to be sufficiently large, and “wmin” is the minimum value within the range where the correlation calculation can be performed accurately. In the present embodiment, wmax = 50, wmin = 8 and h = 8.

【0046】このウィンドウα2に対して相関計算を用
いて距離Z1 を求める。なお、かかる場合にウィンドウ
α2の相関計算を行うにあたり、レーンマーク検出部2
2では撮像装置10からの左右一対の画像情報が必要と
なる。X1 は前記の式(6)、Y1 については以下の式
(12),(13)により導くものとする。
A distance Z1 is obtained by using a correlation calculation for this window α2. In this case, when performing the correlation calculation of the window α2, the lane mark detection unit 2
2 requires a pair of left and right image information from the imaging device 10. X1 is derived from the above equation (6), and Y1 is derived from the following equations (12) and (13).

【0047】[0047]

【数12】 (Equation 12)

【0048】[0048]

【数13】 以上のようにして、白線レーンマークに関する画像情報
が3次元座標へ変換されることとなる。そして、上記第
1の実施の形態と同様に、最小2乗法による3次曲線近
似によって白線レーンマークが検出される。
(Equation 13) As described above, the image information regarding the white line lane mark is converted into the three-dimensional coordinates. Then, similar to the first embodiment, the white line lane mark is detected by the cubic curve approximation by the least square method.

【0049】一方、図2の立体物検出部23において
も、上記レーンマークの3次元座標変換と同様に変換処
理が施される。即ち、上記の式(12),(13)を用
いて座標変換が行われる。なお、式(12),(13)
では、撮像装置10(CCDカメラ)の光軸と路面とで
なす角度θv0を微小なものとして省略して扱ったが、こ
の場合、白線レーンマークと立体物の両方共に同じ手順
にて3次元座標への変換処理を行ったため、障害物の判
定精度に影響を及ぼすことはい。
On the other hand, also in the three-dimensional object detection unit 23 in FIG. 2, conversion processing is performed in the same manner as the three-dimensional coordinate conversion of the lane mark. That is, coordinate conversion is performed using the above equations (12) and (13). Note that equations (12) and (13)
In the above, the angle θv0 formed by the optical axis of the image pickup device 10 (CCD camera) and the road surface is omitted as a minute one, but in this case, both the white line lane mark and the three-dimensional object are three-dimensionally coordinated in the same procedure. Since the conversion processing to the has been performed, it does not affect the accuracy of the obstacle judgment.

【0050】以上第2の実施の形態によれば、前記第1
の実施の形態と同様に、白線レーンマークの近似曲線を
精度良く求めることができ、ひいては画像情報に現れな
い遠方の白線レーンマークも予測可能となる。
As described above, according to the second embodiment, the first
Similar to the embodiment described above, the approximated curve of the white line lane mark can be obtained with high accuracy, and consequently the distant white line lane mark that does not appear in the image information can be predicted.

【0051】(第3の実施の形態)次に、請求項2に記
載の発明を具体化した第3の実施の形態を説明する。但
し、本実施の形態の構成において、上述した第1の実施
の形態と同等であるものについてはその説明を省略す
る。そして、以下には第1の実施の形態との相違点を中
心に説明する。なお、本実施の形態では、警報装置本体
20により区画線エッジ抽出手段、関数近似手段及び区
画線推定手段が構成されている。
(Third Embodiment) Next, a third embodiment of the invention as defined in claim 2 will be described. However, in the configuration of the present embodiment, the description of the same components as those in the above-described first embodiment will be omitted. Then, the differences from the first embodiment will be mainly described below. In the present embodiment, the alarm device main body 20 constitutes the lane marking edge extraction means, the function approximation means, and the lane marking estimation means.

【0052】図19は、本実施の形態における警報装置
本体20の構成を作用毎に示す機能ブロック図である。
図19において、画像入力部21に入力された画像信号
は、レーンマーク検出部22に送信される。レーンマー
ク検出部22では、前記第1の実施の形態の図2(ステ
ップS111〜S116)と同様に、ステップS311
〜S316において画像信号を用いて画像座標上のレー
ンマークのエッジ点を俯瞰座標上に変換すると共に、同
俯瞰座標系にてエッジ点から3次曲線近似を行って白線
レーンマークを検出する。さらに、本実施の形態では新
たにステップS317が加えられており、同ステップS
317では、俯瞰座標系でのレーンマーク検出結果を画
像座標系に再変換する。
FIG. 19 is a functional block diagram showing the structure of the alarm device main body 20 according to this embodiment for each operation.
In FIG. 19, the image signal input to the image input unit 21 is transmitted to the lane mark detection unit 22. In the lane mark detector 22, as in the case of the first embodiment shown in FIG. 2 (steps S111 to S116), step S311 is performed.
In step S316, the edge points of the lane marks on the image coordinates are converted to the overhead coordinates using the image signal, and a cubic curve approximation is performed from the edge points in the overhead coordinate system to detect the white line lane marks. Further, in the present embodiment, step S317 is newly added.
In 317, the lane mark detection result in the overhead coordinate system is reconverted into the image coordinate system.

【0053】このとき、ステップS316で発生させた
俯瞰図上のレーンマーク関数をそのまま関数の形で逆変
換して画像座標系に変換するのはその扱いが難しい。そ
こで、先ずは白線レーンマークの3次関数F1 (Z),
F2 (Z)にZ=0から計測最大距離Z=Zmax まで距
離計測分解能Zanずつ増加させた値を代入していき、俯
瞰座標系でのレーンマークテーブルを作成する。次に、
このテーブル上の1ポイント毎に画像座標変換を行い、
画像座標系でのレーンマークテーブルを作成する。ここ
で、逆変換の式は、前記の式(2)〜(6)を逆変換し
たものであり、次の式(14),(15)となる。
At this time, it is difficult to handle the lane mark function on the bird's-eye view generated in step S316 by inversely converting it in the form of the function and converting it to the image coordinate system. Therefore, first, the cubic function F1 (Z) of the white line lane mark,
A value obtained by increasing the distance measurement resolution Zan from Z = 0 to the maximum measurement distance Z = Zmax is substituted into F2 (Z) to create a lane mark table in the overhead coordinate system. next,
Image coordinate conversion is performed for each point on this table,
Create a lane mark table in the image coordinate system. Here, the inverse transform formula is a reverse transform of the above formulas (2) to (6) and becomes the following formulas (14) and (15).

【0054】[0054]

【数14】 [Equation 14]

【0055】[0055]

【数15】 式(14),(15)により得られた(x1 ,y1 )
は、例えば図21の画像座標上における点p1 の位置を
示す。このとき、白線レーンマークの曲線関数はf1
(y),f2 (y)として表される。
(Equation 15) (X1, y1) obtained by the equations (14) and (15)
Indicates the position of the point p1 on the image coordinates in FIG. 21, for example. At this time, the curve function of the white line lane mark is f1
(Y), f2 (y).

【0056】一方、立体物検出部23においては、第1
の実施の形態と同様にステップS321で立体視法によ
る立体物の検出処理を行うが、同検出結果を俯瞰座標に
変換する処理は実施しない(図2のステップS122に
相当する処理は省略している)。
On the other hand, in the three-dimensional object detection unit 23, the first
In the same way as in the embodiment described above, the stereoscopic object detection process by the stereoscopic method is performed in step S321, but the process of converting the detection result into the overhead coordinates is not performed (the process corresponding to step S122 in FIG. 2 is omitted. Exist).

【0057】位置判定部24では、図21に示す画像座
標系で立体物と白線レーンマークとの関係を求め、立体
物と白線レーンマークの位置関係を判定する。つまり、
レーンマーク検出部22のステップS317の画像座標
変換(逆変換)により、白線レーンマークは画像座標系
の点の集まりのテーブルとなっており、これは関数f1
(y),f2 (y)となっている。また、立体物検出部
23の立体物抽出により、画像座標系での立体物の下部
の左右端ol ,or のx座標xl ,xr とy座標yl ,
yr と距離Zが算出される。
The position determining unit 24 obtains the relationship between the three-dimensional object and the white line lane mark in the image coordinate system shown in FIG. 21, and determines the positional relationship between the three-dimensional object and the white line lane mark. That is,
By the image coordinate conversion (inverse conversion) in step S317 of the lane mark detection unit 22, the white line lane marks are a table of a set of points in the image coordinate system, which is a function f1.
(Y) and f2 (y). In addition, by extracting the three-dimensional object by the three-dimensional object detection unit 23, the x-coordinates xl, xr and the y-coordinate yl of the left and right ends ol, or of the lower part of the three-dimensional object in the image coordinate system.
yr and distance Z are calculated.

【0058】そこで、位置判定部24では、前記図8の
ルーチンの一部を変更した位置判定処理により立体物と
レーンマークとの位置関係を判定する。図20は、図8
のステップS202,S203を各々ステップS40
2.S403に変更したものであって、ステップS40
2では、右側の白線レーンマークの内側に立体物がある
か否か、即ち、f1 (yr )≧xr であるか否かが判別
され、ステップS403では、左側の白線レーンマーク
の内側に立体物があるか否か、即ち、f2 (yl)≦xl
であるか否かが判別される。
Therefore, the position determination unit 24 determines the positional relationship between the three-dimensional object and the lane mark by the position determination processing which is a part of the routine of FIG. 8 modified. FIG. 20 corresponds to FIG.
Steps S202 and S203 of Step S40
2. It has been changed to S403, and step S40
At 2, it is judged whether or not there is a three-dimensional object inside the right white line lane mark, that is, whether or not f1 (yr) ≧ xr is satisfied. At step S403, a three-dimensional object inside the left white line lane mark is determined. Or not, that is, f2 (yl) ≤xl
Is determined.

【0059】なお、図22は、前記図9〜図16に従っ
て最終的に画像座標上にレーンマーク関数f1 (y),
f2 (y)及び立体物(他車両)P3,P4を配置した
図である。
Note that, in FIG. 22, the lane mark function f1 (y), finally on the image coordinates according to FIGS.
It is the figure which arranged f2 (y) and three-dimensional thing (other vehicles) P3 and P4.

【0060】要するに、俯瞰座標系への変換時には、撮
像装置10と路面との関係を示す定数(路面に対するC
CDカメラの光軸ずれの角度θv0や、θv1等)に基づい
て演算処理が行われている。かかる場合、車両などの移
動体に装置を搭載した場合には、例えば走行路面の凹凸
によりθv0等が変動するため、俯瞰座標上のレーンマー
ク位置Z1 に影響を与え、白線レーンマークの検出に際
して誤差を生じるおそれがあった。しかし、本実施の形
態では、俯瞰座標変換に用いた定数θv0を用いて逆変換
を行うため、上述したようなθv0の変動による誤差の発
生を抑制することができる。その結果、白線レーンマー
クの検出精度をより一層高めることができる。
In short, at the time of conversion to the overhead coordinate system, a constant (C for the road surface) indicating the relationship between the image pickup device 10 and the road surface is obtained.
The calculation processing is performed based on the angle θv0 of the optical axis shift of the CD camera, θv1, etc.). In this case, when the device is mounted on a moving body such as a vehicle, for example, θv0 and the like fluctuate due to the unevenness of the traveling road surface, which affects the lane mark position Z1 on the overhead coordinates and causes an error in detecting the white line lane mark. Could occur. However, in the present embodiment, since the inverse transformation is performed using the constant θv0 used for the overhead coordinate transformation, it is possible to suppress the occurrence of an error due to the variation of θv0 as described above. As a result, the white line lane mark detection accuracy can be further improved.

【0061】また、白線レーンマークと立体物との位置
関係を判定する場合において、各々のZ方向における位
置ズレが解消される。つまり、立体視法によれば立体物
の距離が直接検出でき、上記したようなθv0の変動によ
る検出誤差を生じることはない。また、前述した通り白
線レーンマークの検出に際してもθv0の変動による誤差
が解消されている。その結果、白線レーンマークと立体
物との位置関係が正確に把握でき、ひいては障害物の判
定時においても精度の高い判定処理を実現することが可
能となる。
Further, when determining the positional relationship between the white line lane mark and the three-dimensional object, each positional deviation in the Z direction is eliminated. That is, according to the stereoscopic method, the distance of the three-dimensional object can be directly detected, and the above-mentioned detection error due to the variation of θv0 does not occur. Further, as described above, the error due to the variation of θv0 is eliminated even when the white line lane mark is detected. As a result, the positional relationship between the white line lane mark and the three-dimensional object can be accurately grasped, and thus it is possible to realize highly accurate determination processing even when determining an obstacle.

【0062】なお、本発明は上記実施の形態の他に次の
(1)〜(5)に示す様態にて具体化することができ
る。 (1)上記各実施の形態において、道路上の直線部分、
円弧部分、クロソイド曲線部分を近似するにあたって3
次曲線近似を行ったが、これを変更してもよい。つま
り、誤差をさらに小さくしたければ、近似曲線として3
次以上の高次多項式を適応してもよい。また、2次曲線
近似は、3次曲線近似に比べて誤差が大きくなるが、装
置の仕様などによっては適応でき、計算量を少なくでき
るという利点がある。
The present invention can be embodied in the following modes (1) to (5) in addition to the above-described embodiment. (1) In each of the above embodiments, a straight line portion on the road,
When approximating arcs and clothoid curves 3
Although the quadratic curve approximation is performed, this may be changed. In other words, if you want to further reduce the error, the approximation curve
Higher-order polynomials of degree higher than or equal to may be applied. Although the quadratic curve approximation has a larger error than the cubic curve approximation, it has an advantage that it can be adapted depending on the specifications of the device and the calculation amount can be reduced.

【0063】(2)上記実施の形態では、画像上のアッ
プエッジとダウンエッジとのペアリングにより白線レー
ンマークを抽出したが、この抽出法としてはこれに限定
されるものではない。例えば単に相対的に輝度情報が変
化する位置をエッジとして抽出するようにして、エッジ
抽出処理の簡略化を図ってもよい。また、俯瞰図上のZ
1 を求めるには、左右画像を用いた立体物法の相関計算
を用いてもよい。
(2) In the above embodiment, the white line lane mark is extracted by pairing the up edge and the down edge on the image, but the extraction method is not limited to this. For example, the edge extraction process may be simplified by simply extracting the position at which the brightness information relatively changes as the edge. Also, Z on the bird's-eye view
To obtain 1, the correlation calculation of the three-dimensional object method using the left and right images may be used.

【0064】(3)上記第1の実施の形態(請求項1の
発明)では白線レーンマークを2次以上のn次曲線で近
似することを要件としたが、第2の実施の形態(請求項
2の発明)では白線レーンマークを1次関数(直線式)
で近似してもよく、かかる場合にも従来にない新規な効
果が得られる。つまり、請求項2に記載の発明は、CC
Dカメラの光軸と路面との角度変動による誤差を抑制す
ることを主目的としたものであって、1次近似により白
線レーンマークを推定してもかかる目的を達成すること
は可能である。
(3) In the first embodiment (the invention of claim 1), the white line lane mark is required to be approximated by an nth-order curve of quadratic or higher, but the second embodiment (claim) In the invention of item 2, the white lane mark is a linear function (linear equation).
May be approximated, and in such a case, a novel effect which has never been obtained can be obtained. That is, the invention according to claim 2 is CC
The main purpose is to suppress the error due to the angle variation between the optical axis of the D camera and the road surface, and even if the white line lane mark is estimated by the first-order approximation, such purpose can be achieved.

【0065】(4)上記第3の実施の形態では、請求項
2に記載の発明を具体化するものとして、白線レーンマ
ークの画像情報について画像座標→俯瞰座標→画像座標
の順で変換処理を行ったが、これを画像座標→3次元座
標→画像座標の順で変換処理を行うように変更してもよ
い。この場合、3次元座標から画像座標への逆変換を行
わずとも、白線レーンマークと立体物との位置判定の精
度は殆ど変わらないが、白線レーンマークの検出処理の
みを考えれば、3次元座標から画像座標への逆変換を行
うことによりその検出精度は向上すると言える。
(4) In the third embodiment, as an embodiment of the invention described in claim 2, the conversion processing is performed on the image information of the white line lane mark in the order of image coordinates → overhead view coordinates → image coordinates. However, the conversion process may be performed in the order of image coordinates → three-dimensional coordinates → image coordinates. In this case, the accuracy of the position determination between the white line lane marks and the three-dimensional object is almost the same without performing the inverse conversion from the three-dimensional coordinates to the image coordinates, but if only the white line lane mark detection processing is considered, the three-dimensional coordinates are considered. It can be said that the detection accuracy is improved by performing the inverse conversion from the image coordinates to the image coordinates.

【0066】(5)上記実施の形態では、立体物(他車
両)の検出方法としてステレオ画像による立体視法を用
いたが、これを変更してもよい。例えばレーダ光を用い
て立体物を検出するようにしてもよい。
(5) In the above embodiment, the stereoscopic method using a stereo image is used as a method for detecting a three-dimensional object (other vehicle), but this may be changed. For example, a three-dimensional object may be detected using radar light.

【図面の簡単な説明】[Brief description of drawings]

【図1】発明の実施の形態における障害物検出装置の概
要を示す構成図。
FIG. 1 is a configuration diagram showing an outline of an obstacle detection device according to an embodiment of the invention.

【図2】第1の実施の形態における警報装置本体の構成
を作用毎に示す機能ブロック図。
FIG. 2 is a functional block diagram showing, for each action, the configuration of the alarm device main body according to the first embodiment.

【図3】路面画像を示す概略図。FIG. 3 is a schematic diagram showing a road surface image.

【図4】撮像装置と道路面との関係を横から見た図。FIG. 4 is a side view of the relationship between the imaging device and the road surface.

【図5】図4を上から見た図(俯瞰図)。5 is a top view of FIG. 4 (overhead view).

【図6】画像上での路面情報を示す図。FIG. 6 is a diagram showing road surface information on an image.

【図7】立体視法による距離計測の手順を説明するため
の図。
FIG. 7 is a diagram for explaining a procedure of distance measurement by a stereoscopic method.

【図8】位置判定ルーチンを示すフローチャート。FIG. 8 is a flowchart showing a position determination routine.

【図9】撮像装置から取り込まれた一画像を示す図。FIG. 9 is a diagram showing an image captured from an image pickup apparatus.

【図10】画像にエッジ抽出処理を施した結果を示す
図。
FIG. 10 is a diagram showing a result of performing edge extraction processing on an image.

【図11】ペアリングによりレーンマーク候補を抽出し
た結果を示す図。
FIG. 11 is a diagram showing a result of extracting lane mark candidates by pairing.

【図12】ハフ変換により直線を抽出した結果を示す
図。
FIG. 12 is a diagram showing a result of extracting straight lines by Hough transform.

【図13】ハフ変換の直線からレーンマーク情報を取り
出した結果を示す図。
FIG. 13 is a diagram showing a result of extracting lane mark information from a Hough-transformed straight line.

【図14】レーンマーク情報と近似関数線との関係を示
す図。
FIG. 14 is a diagram showing a relationship between lane mark information and an approximate function line.

【図15】俯瞰図上でのレーンマーク情報を示す図。FIG. 15 is a diagram showing lane mark information on an overhead view.

【図16】俯瞰図上での白線レーンマークと立体物との
位置関係を示す図。
FIG. 16 is a diagram showing a positional relationship between a white line lane mark and a three-dimensional object on the overhead view.

【図17】白線レーンマークのエッジ点を示す図。FIG. 17 is a diagram showing edge points of a white line lane mark.

【図18】図17のα1を拡大して示す図。FIG. 18 is an enlarged view showing α1 of FIG.

【図19】第3の実施の形態における警報装置本体の構
成を作用毎に示す機能ブロック図。
FIG. 19 is a functional block diagram showing, for each action, the configuration of the alarm device main body according to the third embodiment.

【図20】第3の実施の形態における位置判定ルーチン
の一部を示すフローチャート。
FIG. 20 is a flowchart showing a part of a position determination routine according to the third embodiment.

【図21】画像上での路面情報を示す図。FIG. 21 is a diagram showing road surface information on an image.

【図22】画像上での白線レーンマークと立体物との位
置関係を示す図。
FIG. 22 is a diagram showing a positional relationship between a white line lane mark and a three-dimensional object on the image.

【符号の説明】[Explanation of symbols]

10…撮像手段としての撮像装置、20…区画線エッジ
抽出手段,n次近似手段,区画線推定手段,関数近似手
段としての警報装置本体。
10 ... Image pickup device as image pickup means, 20 ... Marking line edge extraction means, nth order approximation means, marking line estimation means, alarm device main body as function approximation means.

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G08G 1/04 G08G 1/04 D 1/16 1/16 C H04N 7/18 H04N 7/18 J Front page continuation (51) Int.Cl. 6 Identification code Office reference number FI Technical display location G08G 1/04 G08G 1/04 D 1/16 1/16 C H04N 7/18 H04N 7/18 J

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】撮像手段を用いて得られた画像情報に基づ
いて、道路上の区画線を検出する区画線検出装置におい
て、 前記撮像手段により得られた画像情報から画像座標上の
区画線エッジを抽出する区画線エッジ抽出手段と、 前記区画線エッジ抽出手段により抽出された画像座標上
の区画線エッジを俯瞰座標、若しくは3次元座標に変換
し、その変換された区画線エッジを2次以上のn次曲線
で近似するn次近似手段と、 前記n次近似手段によるn次曲線に基づいて区画線を推
定する区画線推定手段とを備えることを特徴とする区画
線検出装置。
1. A lane marking detection device for detecting a lane marking on a road based on image information obtained by using an image pickup means, wherein a lane marking edge on image coordinates is obtained from the image information obtained by the image pickup means. Demarcation line edge extraction means for extracting the demarcation line edge extraction means, and converting the demarcation line edges on the image coordinates extracted by the demarcation line edge extraction means into bird's-eye view coordinates or three-dimensional coordinates, and the converted demarcation line edges The lane marking detection device, comprising: an nth approximation means for approximating the nth curve; and a lane marking estimating means for estimating the lane marking based on the nth curve obtained by the nth approximation means.
【請求項2】撮像手段を用いて得られた画像情報に基づ
いて、道路上の区画線を検出する区画線検出装置におい
て、 前記撮像手段により得られた画像情報から画像座標上の
区画線エッジを抽出する区画線エッジ抽出手段と、 前記区画線エッジ抽出手段により抽出された画像座標上
の区画線エッジを俯瞰座標、若しくは3次元座標に変換
し、その変換された区画線エッジを関数近似する関数近
似手段と、 前記関数近似手段による近似関数を前記座標変換時の定
数を用いて元の画像座標に逆変換し、当該逆変換の結果
に基づいて区画線を推定する区画線推定手段とを備える
ことを特徴とする区画線検出装置。
2. A lane marking detection device for detecting a lane marking on a road based on image information obtained by using an image pickup means, wherein a lane marking edge on image coordinates is obtained from the image information obtained by the image pickup means. Demarcation line edge extraction means for extracting the demarcation line edge extraction means and the demarcation line edge on the image coordinates extracted by the demarcation line edge extraction means are converted to overhead coordinates or three-dimensional coordinates, and the converted demarcation line edge is approximated by a function. A function approximating means, and a lane marking estimating means for inversely transforming the approximate function by the function approximating means into the original image coordinates by using the constant at the time of the coordinate transformation and estimating the lane markings based on the result of the inverse transformation. A lane marking detection device comprising.
【請求項3】請求項2に記載の区画線検出装置におい
て、 前記近似手段は、区画線エッジを2次以上のn次曲線で
近似することを特徴とする区画線検出装置。
3. The marking line detecting apparatus according to claim 2, wherein the approximating means approximates the marking line edge by an nth-order curve of quadratic or higher degree.
JP02284496A 1996-02-08 1996-02-08 Lane marking detector Expired - Lifetime JP3961584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02284496A JP3961584B2 (en) 1996-02-08 1996-02-08 Lane marking detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02284496A JP3961584B2 (en) 1996-02-08 1996-02-08 Lane marking detector

Publications (2)

Publication Number Publication Date
JPH09218937A true JPH09218937A (en) 1997-08-19
JP3961584B2 JP3961584B2 (en) 2007-08-22

Family

ID=12094028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02284496A Expired - Lifetime JP3961584B2 (en) 1996-02-08 1996-02-08 Lane marking detector

Country Status (1)

Country Link
JP (1) JP3961584B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11255052A (en) * 1998-03-10 1999-09-21 Nissan Motor Co Ltd Parking space detection device
WO1999060545A1 (en) * 1998-05-19 1999-11-25 Japan As Represented By Director General Of Agency Of Industrial Science And Technology Method and apparatus for detecting deviation of automobile from lane
US7095432B2 (en) 2001-07-18 2006-08-22 Kabushiki Kaisha Toshiba Image processing apparatus and method
JP2007316790A (en) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd Pedestrian detection device and pedestrian detection method
JP2008014682A (en) * 2006-07-03 2008-01-24 Pentax Industrial Instruments Co Ltd Surveying instrument
JP2008027046A (en) * 2006-07-19 2008-02-07 Fuji Heavy Ind Ltd Lane recognition device
EP1890264A4 (en) * 2005-04-28 2008-11-26 Honda Motor Co Ltd Vehicle, image processing system, image processing method, image processing program, image processing system configuration method, and server
JP2011090681A (en) * 2010-10-25 2011-05-06 Aisin Aw Co Ltd Image recognition device and method, and navigation apparatus
KR101044728B1 (en) * 2009-09-15 2011-06-28 에스엘 주식회사 Lane Departure Warning System and Method
JP2012080497A (en) * 2010-10-06 2012-04-19 Suzuki Motor Corp Parking frame detection device and parking frame detection method
JP2014026396A (en) * 2012-07-25 2014-02-06 Ricoh Co Ltd Movable surface boundary line recognition device, movable body having movable surface boundary line recognition device, movable surface boundary line recognition method, and movable surface boundary line recognition program
JP2014177196A (en) * 2013-02-14 2014-09-25 Honda Motor Co Ltd Steering control unit of vehicle
US9098751B2 (en) 2011-07-27 2015-08-04 Gentex Corporation System and method for periodic lane marker identification and tracking
WO2016031753A1 (en) * 2014-08-25 2016-03-03 株式会社デンソー Road shape recognition device
JP2016134095A (en) * 2015-01-21 2016-07-25 株式会社デンソー Lane marking recognition system
JP2016203817A (en) * 2015-04-23 2016-12-08 本田技研工業株式会社 Driving support system and driving support method
JP2017151764A (en) * 2016-02-25 2017-08-31 トヨタ自動車株式会社 Travel control device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03135718A (en) * 1989-10-21 1991-06-10 Nippon Soken Inc Measuring method for behavior of vehicle
JPH03158976A (en) * 1989-11-17 1991-07-08 Honda Motor Co Ltd How to determine driving lane
JPH04205320A (en) * 1990-11-30 1992-07-27 Honda Motor Co Ltd Method for evaluating moving path data
JPH0620189A (en) * 1992-06-29 1994-01-28 Nissan Motor Co Ltd Road shape measuring instrument
JPH06225308A (en) * 1993-01-27 1994-08-12 Mazda Motor Corp Running course detector
JPH0793693A (en) * 1993-09-21 1995-04-07 Nissan Motor Co Ltd Vehicle object detection device
JPH07146145A (en) * 1993-11-24 1995-06-06 Fujitsu Ltd Road detector
JPH07271952A (en) * 1994-03-30 1995-10-20 Mazda Motor Corp Road recognition device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03135718A (en) * 1989-10-21 1991-06-10 Nippon Soken Inc Measuring method for behavior of vehicle
JPH03158976A (en) * 1989-11-17 1991-07-08 Honda Motor Co Ltd How to determine driving lane
JPH04205320A (en) * 1990-11-30 1992-07-27 Honda Motor Co Ltd Method for evaluating moving path data
JPH0620189A (en) * 1992-06-29 1994-01-28 Nissan Motor Co Ltd Road shape measuring instrument
JPH06225308A (en) * 1993-01-27 1994-08-12 Mazda Motor Corp Running course detector
JPH0793693A (en) * 1993-09-21 1995-04-07 Nissan Motor Co Ltd Vehicle object detection device
JPH07146145A (en) * 1993-11-24 1995-06-06 Fujitsu Ltd Road detector
JPH07271952A (en) * 1994-03-30 1995-10-20 Mazda Motor Corp Road recognition device

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11255052A (en) * 1998-03-10 1999-09-21 Nissan Motor Co Ltd Parking space detection device
WO1999060545A1 (en) * 1998-05-19 1999-11-25 Japan As Represented By Director General Of Agency Of Industrial Science And Technology Method and apparatus for detecting deviation of automobile from lane
US6614469B1 (en) 1998-05-19 2003-09-02 Japan As Represented By Director General Of Agency Of Industrial Science And Technology Method and apparatus for detecting deviation of automobile from lane
US7095432B2 (en) 2001-07-18 2006-08-22 Kabushiki Kaisha Toshiba Image processing apparatus and method
EP1890264A4 (en) * 2005-04-28 2008-11-26 Honda Motor Co Ltd Vehicle, image processing system, image processing method, image processing program, image processing system configuration method, and server
US8107683B2 (en) 2005-04-28 2012-01-31 Honda Motor Co., Ltd. Method and system for in-vehicle image processing
JP2007316790A (en) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd Pedestrian detection device and pedestrian detection method
JP2008014682A (en) * 2006-07-03 2008-01-24 Pentax Industrial Instruments Co Ltd Surveying instrument
JP2008027046A (en) * 2006-07-19 2008-02-07 Fuji Heavy Ind Ltd Lane recognition device
KR101044728B1 (en) * 2009-09-15 2011-06-28 에스엘 주식회사 Lane Departure Warning System and Method
JP2012080497A (en) * 2010-10-06 2012-04-19 Suzuki Motor Corp Parking frame detection device and parking frame detection method
JP2011090681A (en) * 2010-10-25 2011-05-06 Aisin Aw Co Ltd Image recognition device and method, and navigation apparatus
US9098751B2 (en) 2011-07-27 2015-08-04 Gentex Corporation System and method for periodic lane marker identification and tracking
US9836657B2 (en) 2011-07-27 2017-12-05 Gentex Corporation System and method for periodic lane marker identification and tracking
JP2014026396A (en) * 2012-07-25 2014-02-06 Ricoh Co Ltd Movable surface boundary line recognition device, movable body having movable surface boundary line recognition device, movable surface boundary line recognition method, and movable surface boundary line recognition program
JP2014177196A (en) * 2013-02-14 2014-09-25 Honda Motor Co Ltd Steering control unit of vehicle
WO2016031753A1 (en) * 2014-08-25 2016-03-03 株式会社デンソー Road shape recognition device
JP2016043837A (en) * 2014-08-25 2016-04-04 株式会社日本自動車部品総合研究所 Road shape recognition device
JP2016134095A (en) * 2015-01-21 2016-07-25 株式会社デンソー Lane marking recognition system
WO2016117507A1 (en) * 2015-01-21 2016-07-28 株式会社デンソー Section-line recognition device
JP2016203817A (en) * 2015-04-23 2016-12-08 本田技研工業株式会社 Driving support system and driving support method
JP2017151764A (en) * 2016-02-25 2017-08-31 トヨタ自動車株式会社 Travel control device

Also Published As

Publication number Publication date
JP3961584B2 (en) 2007-08-22

Similar Documents

Publication Publication Date Title
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP3961584B2 (en) Lane marking detector
KR102580476B1 (en) Method and device for calculating the occluded area within the vehicle's surrounding environment
JP4899424B2 (en) Object detection device
EP2928178B1 (en) On-board control device
JP3562751B2 (en) Forward vehicle detection method and device
JP5561064B2 (en) Vehicle object recognition device
JP6597792B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2023089311A (en) Information processing device, image capturing system, information processing method, and computer program
JP2005329779A (en) Method and device for recognizing obstacle
JPH10283462A (en) Outer-vehicle monitoring device
JP2008309519A (en) Object detection device using image processing
WO2017047282A1 (en) Image processing device, object recognition device, device control system, image processing method, and program
JP3710548B2 (en) Vehicle detection device
JP2007183912A (en) Runway boundary line detection apparatus and runway boundary line detection method
JP2008310440A (en) Pedestrian detection device
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
JPWO2017099199A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP5832850B2 (en) Lane monitoring system and lane monitoring method
JP3540005B2 (en) Obstacle detection device
JP2006027481A (en) Object warning device and object warning method
KR20060021922A (en) Obstacle detection technology and device using two cameras
JP3757500B2 (en) Leading vehicle following device
JP4106163B2 (en) Obstacle detection apparatus and method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041015

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20041207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070517

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term