[go: up one dir, main page]

JP2003187227A - Lane detection device - Google Patents

Lane detection device

Info

Publication number
JP2003187227A
JP2003187227A JP2001385262A JP2001385262A JP2003187227A JP 2003187227 A JP2003187227 A JP 2003187227A JP 2001385262 A JP2001385262 A JP 2001385262A JP 2001385262 A JP2001385262 A JP 2001385262A JP 2003187227 A JP2003187227 A JP 2003187227A
Authority
JP
Japan
Prior art keywords
information
contour
image data
lane boundary
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001385262A
Other languages
Japanese (ja)
Other versions
JP3854143B2 (en
Inventor
Munehiro Takayama
宗広 高山
Toshiaki Kakinami
俊明 柿並
Hisashi Satonaka
久志 里中
Makoto Nishida
誠 西田
Arata Takahashi
新 高橋
Yoshiki Ninomiya
芳樹 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2001385262A priority Critical patent/JP3854143B2/en
Publication of JP2003187227A publication Critical patent/JP2003187227A/en
Application granted granted Critical
Publication of JP3854143B2 publication Critical patent/JP3854143B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

(57)【要約】 【課題】車線境界を安定に検出することのできる車線境
界検出装置を提供すること。 【解決手段】第一エッジ検出部14は、原画像データの
空間的な濃度変化に対して感度が比較的高く設定され第
一の輪郭線情報を抽出する。第二エッジ検出部15は、
原画像データの空間的な濃度変化に対して感度が比較的
低く設定され第二の輪郭線情報を抽出する。この第一の
輪郭線情報は白線間の隙間に対応するエッジの情報を含
み、第二の輪郭線情報はそれを含まない。そして、最外
輪郭抽出部16は、第一及び第二の輪郭線情報から白線
群の最外輪郭情報を抽出する。
(57) [Problem] To provide a lane boundary detection device capable of stably detecting a lane boundary. A first edge detection unit is set to have relatively high sensitivity to a spatial density change of original image data and extracts first contour line information. The second edge detection unit 15
The sensitivity is set relatively low with respect to the spatial density change of the original image data, and the second contour information is extracted. The first contour information includes edge information corresponding to a gap between white lines, and the second contour information does not include the edge information. Then, the outermost contour extraction unit 16 extracts the outermost contour information of the white line group from the first and second outline information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は撮像装置にて得た画
像データから区画線の車線境界位置を検出する車線境界
検出装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a lane boundary detecting device for detecting a lane boundary position of a marking line from image data obtained by an image pickup device.

【0002】[0002]

【従来の技術】従来、自動車等の移動体の走行を制御す
る装置に、走路形状を認識して操舵制御も自動的に行う
自動運転装置がある。この自動運転を実現するために
は、走路を認識する必要があり、画像処理により走路、
例えば区画線により車線境界位置を検出する検出装置が
必要となる。この種の検出装置として、例えば特開昭6
3−142478号公報、特開平6−20189号公
報、特開平6−119594号公報に記載されたものが
知られている。
2. Description of the Related Art Conventionally, as an apparatus for controlling the traveling of a moving body such as an automobile, there is an automatic driving apparatus for recognizing a running path shape and automatically performing steering control. In order to realize this automatic driving, it is necessary to recognize the road,
For example, a detection device for detecting the lane boundary position based on the marking line is required. As this type of detection device, for example, Japanese Patent Laid-Open No.
Those described in JP-A-3-142478, JP-A-6-20189, and JP-A-6-119594 are known.

【0003】これら検出装置は、白線は道路面より明る
いという特性を利用するものであり、撮影した画像の中
から、画像データに微分等の処理を施して高輝度部分の
輪郭データを抽出する。その後、道路に沿った方向に延
びる輪郭データの内、所定間隔(例えば設計基準値)に
対応する間隔のデータを白線の輪郭と見なすという手法
をとっていた。
These detecting devices utilize the characteristic that the white line is brighter than the road surface, and the image data is subjected to processing such as differentiation to extract the contour data of the high-luminance portion from the photographed image. After that, among the contour data extending in the direction along the road, the data of the interval corresponding to the predetermined interval (for example, the design reference value) is regarded as the outline of the white line.

【0004】[0004]

【発明が解決しようとする課題】ところで、区画線は、
走路の状態により形状が異なっている。図10(a)〜
(d)はその例を示す図である。図10(a)に示すよ
うに、一般的な区間には、一方(左側)に実線の区画線
61が設けられ、他方(右側)に破線の区画線62が設
けられている。これに対し、図10(b)に示すよう
に、高速道路等の入口、出口、分岐点、登坂車線等の区
間には、一方(左側)に設けられた破線の区画線63
は、他方(右側)の区画線62に比べて幅広く形成され
ている。この場合、従来の手法では、図10(b)の区
画線63を認識できないことがある。
By the way, the lane marking is
The shape differs depending on the condition of the track. FIG. 10 (a)-
(D) is a figure which shows the example. As shown in FIG. 10A, a solid section line 61 is provided on one side (left side) and a dashed section line 62 is provided on the other side (right side) in a general section. On the other hand, as shown in FIG. 10B, a section line 63 with a broken line is provided on one side (on the left side) in a section such as an entrance, an exit, a branch point, an uphill lane of a highway.
Is formed wider than the other (right) partition line 62. In this case, the conventional method may not be able to recognize the lane marking 63 in FIG.

【0005】また、図10(c)に示すように、カーブ
等の注意喚起が必要な区間には、実線又は破線の左右一
方又は左右両側に幅広な破線よりなる標示を併設した区
画線(複合白線と呼ぶ)64,65が設けられている。
また、対向車線区間には、複数の実線を併設した区画線
(多重白線と呼ぶ)66が設けられている。これらの場
合、区画線の輪郭を安定して検出することができないこ
とがある。それは、以下の理由による。
Further, as shown in FIG. 10 (c), in a section requiring attention such as a curve, a marking line (composite line) with a wide broken line is provided on one of the left and right sides of the solid line or the broken line. 64 and 65 are provided.
Further, in the oncoming lane section, a partition line (called a multiple white line) 66 provided with a plurality of solid lines is provided. In these cases, the contour of the lane marking may not be stably detected. The reason is as follows.

【0006】・撮像装置には広角レンズを用いているた
め、複合白線64,65や多重白線66が画面の周辺部
に映るとき、小さく縮退しているために、白線と白線の
隙間が見えたり見えなかったりする。また、白線自体の
汚れや剥がれにより、それらの隙間が見えたり見えなか
ったりする。
Since a wide-angle lens is used in the image pickup device, when the composite white lines 64, 65 and the multiple white line 66 are reflected in the peripheral portion of the screen, they are slightly degenerated, so that the gap between the white lines and the white line can be seen. I can't see it. Also, due to the dirt and peeling of the white line itself, the gaps between them are visible or invisible.

【0007】・カメラの露出不適正により白線部分が飽
和して隙間が見えない。例えば、画面内に自車影が大き
な面積を占めているとき、白線部は露出オーバーとな
り、境界位置を判別することが難しく、隙間が判別しに
くくなる。
The white line portion is saturated due to improper exposure of the camera and the gap cannot be seen. For example, when the shadow of the vehicle occupies a large area on the screen, the white line portion is overexposed, and it is difficult to determine the boundary position, and it is difficult to determine the gap.

【0008】・現実の白線が汚れ/剥がれ等により薄く
なってコントラストが低下しているため、隙間が判別困
難である。これら要因により、隙間の見え方が常に一定
ではないため区画線の輪郭が安定せず、車線境界位置を
安定に検出することができないという問題があった。
Since the actual white line is thinned due to dirt / peeling and the contrast is lowered, it is difficult to determine the gap. Due to these factors, the appearance of the gap is not always constant, so the contour of the lane markings is not stable, and there is a problem that the lane boundary position cannot be detected stably.

【0009】本発明の目的は、車線境界を安定に検出す
ることのできる車線境界検出装置を提供することにあ
る。
An object of the present invention is to provide a lane boundary detecting device which can stably detect a lane boundary.

【0010】[0010]

【課題を解決するための手段】上記問題点を解決するた
め、請求項1に記載の発明は、撮像装置により撮影され
その視野に区画線を含む走行路の画像データから道路面
の車線境界位置を検出する車線境界検出装置において、
前記画像データの空間的な濃度変化に対する感度が比較
的高く設定され、前記画像データから第一の輪郭線情報
を抽出する第一の輪郭情報検出手段と、前記画像データ
の空間的な濃度変化に対する感度が比較的低く設定さ
れ、前記画像データから第二の輪郭線情報を抽出する第
二の輪郭情報検出手段と、前記第一及び第二の輪郭線情
報から白線群の最外輪郭情報を抽出する輪郭抽出手段を
備え、該最外輪郭情報に基づいて車線境界位置を設定す
るようにした。
In order to solve the above-mentioned problems, the invention according to claim 1 is based on image data of a traveling road photographed by an image pickup device and including a marking line in its field of view, based on the lane boundary position of the road surface. In the lane boundary detection device that detects
Sensitivity to the spatial density change of the image data is set to be relatively high, first contour information detecting means for extracting first contour line information from the image data, and to the spatial density change of the image data. A second contour information detecting unit that has a relatively low sensitivity and extracts second contour information from the image data, and extracts the outermost contour information of the white line group from the first and second contour information. And a lane boundary position is set based on the outermost contour information.

【0011】請求項2に記載の発明のように、前記第一
及び第二の輪郭情報検出手段はそれぞれ前記感度に応じ
てサイズが異なるオペレータにより同一の前記画像デー
タから前記第一及び第二の輪郭線情報を抽出する。
According to a second aspect of the present invention, the first and second contour information detecting means are different from each other in the same image data by the operators having different sizes depending on the sensitivity. Extract contour line information.

【0012】請求項3に記載の発明は、撮像装置により
撮影されその視野に区画線を含む走行路の画像データか
ら道路面の車線境界位置を検出する車線境界検出装置に
おいて、解像度が異なる第一及び第二の画像データから
第一及び第二の輪郭線情報を抽出する輪郭情報検出手段
と、前記第一及び第二の輪郭線情報から白線群の最外輪
郭情報を抽出する輪郭抽出手段を備え、該最外輪郭情報
に基づいて車線境界位置を設定するようにした。
According to a third aspect of the present invention, there is provided a lane boundary detecting device which detects a lane boundary position of a road surface from image data of a traveling road captured by an image pickup device and including a marking line in its field of view. Outline information detecting means for extracting first and second outline information from the second and second image data, and outline extracting means for extracting outermost outline information of the white line group from the first and second outline information. Therefore, the lane boundary position is set based on the outermost contour information.

【0013】前記輪郭情報検出手段は、請求項4に記載
の発明のように、解像度が高い第一の画像データから前
記第一の輪郭情報を抽出する第一の輪郭情報検出手段
と、解像度が低い第二の画像データから前記第二の輪郭
情報を抽出する第二の輪郭情報検出手段とからなる。
The contour information detecting means has a first contour information detecting means for extracting the first contour information from the first image data having a high resolution, and a resolution of the first contour information detecting means. And second contour information detecting means for extracting the second contour information from low second image data.

【0014】前記輪郭抽出手段は、請求項5に記載の発
明のように、前記第一の輪郭線情報とノイズレベル以上
に設定した第一のしきい値を比較してノイズレベル以上
の振幅を有する成分を抽出した第一のエッジ情報と、前
記第二の輪郭線情報から第二のしきい値以上の振幅を有
する成分だけを抽出した第二のエッジ情報とを生成し、
該第一及び第二のエッジ情報を合成処理して前記最外輪
郭情報を抽出する。
The contour extracting means compares the first contour line information with a first threshold value set to a noise level or higher to detect an amplitude equal to or higher than the noise level, as in the fifth aspect of the invention. First edge information extracted components having, and second edge information extracted only components having an amplitude of a second threshold or more from the second contour information is generated,
The outermost contour information is extracted by synthesizing the first and second edge information.

【0015】(作用)請求項1に記載の発明によれば、
画像データの空間的な濃度変化に対する感度が比較的高
く設定され、画像データから第一の輪郭線情報を抽出す
る第一の輪郭情報検出手段と、画像データの空間的な濃
度変化に対する感度が比較的低く設定され、画像データ
から第二の輪郭線情報を抽出する第二の輪郭情報検出手
段と、第一及び第二の輪郭線情報から白線群の最外輪郭
情報を抽出する輪郭抽出手段が備えられ、該最外輪郭情
報に基づいて車線境界位置が設定される。従って、濃度
変化に対する感度が高く設定されることで一方には白線
間の隙間に対応するエッジの情報が含まれ、他方にはそ
れが含まれないので、その隙間に対応するエッジの情報
の削除が容易になる。
(Operation) According to the invention described in claim 1,
The sensitivity of the image data to the spatial density change is set to be relatively high, and the sensitivity to the spatial density change of the image data is compared with the first contour information detecting means for extracting the first outline information from the image data. A second contour information detecting unit that is set to be relatively low and extracts the second contour information from the image data, and a contour extracting unit that extracts the outermost contour information of the white line group from the first and second contour information. A lane boundary position is set based on the outermost contour information. Therefore, by setting the sensitivity to the density change to be high, one side contains the information of the edge corresponding to the gap between the white lines, and the other does not contain the information of the edge. Therefore, the information of the edge corresponding to the gap is deleted. Will be easier.

【0016】請求項2に記載の発明によれば、第一及び
第二の輪郭情報検出手段はそれぞれ感度に応じてサイズ
が異なるオペレータにより同一の画像データから第一及
び第二の輪郭線情報が抽出される。従って、白線間の隙
間に対応するエッジの情報を含まない輪郭線情報の抽出
が容易になる。
According to the second aspect of the present invention, the first and second contour information detecting means obtain the first and second contour line information from the same image data by the operators having different sizes depending on the sensitivities. To be extracted. Therefore, it becomes easy to extract the contour line information that does not include the information on the edge corresponding to the gap between the white lines.

【0017】請求項3に記載の発明によれば、解像度が
異なる第一及び第二の画像データから第一及び第二の輪
郭線情報を抽出する輪郭情報検出手段と、第一及び第二
の輪郭線情報から白線群の最外輪郭情報を抽出する輪郭
抽出手段が備えられ、該最外輪郭情報に基づいて車線境
界位置が設定される。従って、低い解像度の画像データ
には白線間の隙間に対応するエッジが含まれないため、
その隙間に対応するエッジの情報の削除が容易になる。
According to the third aspect of the invention, the contour information detecting means for extracting the first and second contour line information from the first and second image data having different resolutions, and the first and second contour information detecting means. A contour extracting means for extracting the outermost contour information of the white line group from the contour information is provided, and the lane boundary position is set based on the outermost contour information. Therefore, since the low resolution image data does not include the edges corresponding to the gaps between the white lines,
It becomes easy to delete the information of the edge corresponding to the gap.

【0018】請求項4に記載の発明によれば、輪郭情報
検出手段は、解像度が高い第一の画像データから第一の
輪郭情報を抽出する第一の輪郭情報検出手段と、解像度
が低い第二の画像データから第二の輪郭情報を抽出する
第二の輪郭情報検出手段とからなる。従って、白線間の
隙間に対応するエッジの情報を含まない輪郭線情報の抽
出が容易になる。
According to the fourth aspect of the present invention, the contour information detecting means includes the first contour information detecting means for extracting the first contour information from the first image data having a high resolution and the first contour information detecting means having a low resolution. And second contour information detecting means for extracting second contour information from the second image data. Therefore, it becomes easy to extract the contour line information that does not include the information on the edge corresponding to the gap between the white lines.

【0019】請求項5に記載の発明によれば、輪郭抽出
手段は、第一の輪郭線情報とノイズレベル以上に設定し
た第一のしきい値を比較してノイズレベル以上の振幅を
有する成分を抽出した第一のエッジ情報と、第二の輪郭
線情報から第二のしきい値以上の振幅を有する成分だけ
を抽出した第二のエッジ情報とを生成し、該第一及び第
二のエッジ情報を合成処理して最外輪郭情報を抽出す
る。第二のしきい値を設定することで、白線の隙間に対
応するエッジの情報含まない第二の輪郭線情報を容易に
作成でき、白線間の隙間に対応するエッジの情報を含ま
ない輪郭線情報を抽出できる。
According to the fifth aspect of the invention, the contour extracting means compares the first contour line information with the first threshold value set above the noise level and has a component having an amplitude above the noise level. To generate first edge information and second edge information obtained by extracting only components having an amplitude equal to or greater than a second threshold value from the second contour line information. The outermost contour information is extracted by combining the edge information. By setting the second threshold, it is possible to easily create the second contour line information that does not include the information of the edge corresponding to the gap between the white lines, and the contour line that does not include the information of the edge corresponding to the gap between the white lines. Information can be extracted.

【0020】[0020]

【発明の実施の形態】(第1実施形態)以下、本発明を
具体化した第1実施形態を図1〜図5に従って説明す
る。
BEST MODE FOR CARRYING OUT THE INVENTION (First Embodiment) A first embodiment of the present invention will be described below with reference to FIGS.

【0021】図1は、車線境界検出装置10の概略構成
を示すブロック図である。車線境界検出装置10は移動
体上に設置され、該移動体が走行する走路を撮影した画
像を処理してレーン境界位置(車線境界位置)を判断す
る。
FIG. 1 is a block diagram showing a schematic configuration of a lane boundary detecting device 10. The lane boundary detection device 10 is installed on a moving body, and processes an image of a running path on which the moving body travels to determine a lane boundary position (lane boundary position).

【0022】車線境界検出装置(以下、検出装置)10
は、撮像部11、A/D変換器12、フレームバッファ
(Frame Buffer)部13、輪郭情報検出手段としての第一
エッジ検出部14及び第二エッジ検出部15、最外輪郭
抽出手段としての最外輪郭抽出部16、オフセット設定
部17、レーン境界設定部18、出力部19を備える。
検出装置10は例えばCPUよりなる制御部20に接続
され、該制御部20は上記の各部11〜19を制御す
る。
Lane boundary detecting device (hereinafter, detecting device) 10
Is an image pickup unit 11, an A / D converter 12, a frame buffer
(Frame Buffer) section 13, first edge detecting section 14 and second edge detecting section 15 as contour information detecting means, outermost contour extracting section 16 as outermost contour extracting means, offset setting section 17, lane boundary setting section 18 and an output unit 19.
The detection device 10 is connected to a control unit 20 including, for example, a CPU, and the control unit 20 controls each of the above units 11 to 19.

【0023】撮像部11は、道路を撮影した画像データ
を出力する。A/D変換器12は、撮像部11から入力
される画像データをアナログ−デジタル変換し、その変
換データを出力する。フレームバッファ部13は、A/
D変換器12の出力信号を原画像データとして記憶す
る。
The image pickup section 11 outputs image data of a road image. The A / D converter 12 performs analog-digital conversion on the image data input from the imaging unit 11, and outputs the converted data. The frame buffer unit 13 is A /
The output signal of the D converter 12 is stored as original image data.

【0024】第一エッジ検出部14は、フレームバッフ
ァ部13に記憶された原画像データに対して第一のエッ
ジ検出処理を施して輪郭線(エッジ)の情報を含む第一
の輪郭線情報を抽出する。第一のエッジ検出処理は、第
一のオペレータを原画像データに作用させ、該原画像デ
ータから第一の輪郭線情報(微分画像データ)を抽出す
る処理である。
The first edge detection unit 14 performs a first edge detection process on the original image data stored in the frame buffer unit 13 to obtain first contour line information including contour line (edge) information. Extract. The first edge detection process is a process of causing a first operator to act on original image data and extracting first contour line information (differential image data) from the original image data.

【0025】第二エッジ検出部15は、フレームバッフ
ァ部13に記憶された原画像データに対して第二のエッ
ジ検出処理を施して輪郭線(エッジ)の情報を含む第二
の輪郭線情報を抽出する。第二のエッジ検出処理は、第
二のオペレータを原画像データに作用させ、該原画像デ
ータから第二の輪郭線情報(微分画像データ)を抽出す
る処理である。
The second edge detecting section 15 performs a second edge detecting process on the original image data stored in the frame buffer section 13 to obtain second contour line information including contour line (edge) information. Extract. The second edge detection process is a process of causing a second operator to act on the original image data and extracting second contour line information (differential image data) from the original image data.

【0026】第一のオペレータは、第二のオペレータに
比べてマトリクスサイズの小さなものが使用される。例
えば、第二のオペレータには図3に示す1次元オペレー
タ21を用い、第二のオペレータには1次元オペレータ
22を用いる。図4には、第一のオペレータ21と第二
のオペレータ22の各要素の値を示す。
The first operator has a smaller matrix size than the second operator. For example, the one-dimensional operator 21 shown in FIG. 3 is used as the second operator, and the one-dimensional operator 22 is used as the second operator. FIG. 4 shows the value of each element of the first operator 21 and the second operator 22.

【0027】第一及び第二エッジ検出部14,15は、
それぞれ使用する第一,第二のオペレータ21,22に
より各画素における第一及び第二の輪郭線情報を得る。
例えば、第一エッジ検出部14は、第一のオペレータ2
1を使用し、着目する画素の前後(走査方向における前
後)の画素の濃度値の差を算出し、その算出値を着目す
る画素における輪郭線情報とする。尚、図4に示すよう
にオペレータの要素値を設定した場合、第一エッジ検出
部14は、前後の画素の濃度値にマトリックス要素の値
を乗算し、両画素の演算結果を合計して第一の輪郭線情
報を得る。
The first and second edge detectors 14 and 15 are
The first and second operators 21 and 22 used respectively obtain the first and second contour line information in each pixel.
For example, the first edge detection unit 14 uses the first operator 2
1 is used to calculate the difference between the density values of pixels before and after the pixel of interest (before and after in the scanning direction), and the calculated value is used as contour line information for the pixel of interest. When the element values of the operator are set as shown in FIG. 4, the first edge detection unit 14 multiplies the density values of the pixels before and after by the values of the matrix element and sums the calculation results of both pixels to calculate the first value. Obtain one contour line information.

【0028】第二エッジ検出部15は、第二のオペレー
タ22を使用し、着目する画素の前2画素の濃度値の平
均値と後2画素の濃度値の平均値との差を算出し、その
算出値を着目する画素における輪郭線情報とする。尚、
図4に示すようにオペレータの要素値を設定した場合、
第二エッジ検出部15は第一エッジ検出部14と同様に
各画素の演算結果を合計して輪郭線情報を得る。
The second edge detection section 15 uses the second operator 22 to calculate the difference between the average value of the density values of the two pixels before and the two pixels after the pixel of interest, The calculated value is used as contour line information for the pixel of interest. still,
When the element values of the operator are set as shown in FIG.
The second edge detection unit 15 sums up the calculation results of each pixel in the same manner as the first edge detection unit 14 to obtain contour line information.

【0029】第一のオペレータ21と第二のオペレータ
22のサイズは、白線群に含まれる隙間に基づいて、予
め実験等の結果に基づいて設定される。詳しくは、第一
のオペレータ21と第二のオペレータ22は、第一及び
第二の輪郭線情報の強度に差が生じるように設定され
る。具体的には、第一のオペレータ21は、着目する画
素の両側それぞれのマトリックス要素のサイズが白線の
隙間よりも小さく設定され、第二のオペレータ22は、
それのサイズが白線の隙間よりも大きく設定される。
The sizes of the first operator 21 and the second operator 22 are set in advance based on the results of experiments and the like based on the gaps included in the white line group. Specifically, the first operator 21 and the second operator 22 are set so that there is a difference in the intensities of the first and second contour line information. Specifically, the first operator 21 sets the size of the matrix elements on both sides of the pixel of interest to be smaller than the gap between the white lines, and the second operator 22 sets
Its size is set larger than the gap between the white lines.

【0030】図5及び図6の(a)原画像は、原画像デ
ータにおける一つの走査線に沿った画素の濃度値を表す
波形である。尚、説明を解りやすくするために、濃度値
を2値(0,1)とする。
The original image (a) in FIGS. 5 and 6 is a waveform representing the density value of a pixel along one scanning line in the original image data. In order to make the explanation easy to understand, the density value is binary (0, 1).

【0031】この(a)原画像は、白線の隙間が1画素
分(図の上部中央にて丸で囲む部分)である。この隙間
に対して、図5に示す第一のオペレータ21は、着目す
る画素に対応する要素bと、その両側にそれぞれ1画素
分の要素a,cを持つ。この第一のオペレータ21を
(b)に示す各位置に移動させて得た第一の輪郭線情報
(微分出力)を(c)に示す。白線の隙間に対応するエ
ッジの近傍では、その微分出力が「0,−1,0,1,
0」のように得られ、白線のエッジ近傍(図において上
部右側の丸で囲む部分)では「−1,−1,0」のよう
に得られる。このように、第一の輪郭線情報は、エッジ
の位置に関わらず同様な振幅(強度)を持つ。
In the original image (a), the white line has a gap of one pixel (the portion circled in the upper center of the figure). For this gap, the first operator 21 shown in FIG. 5 has an element b corresponding to the pixel of interest and elements a and c for one pixel on both sides thereof. The first contour line information (differential output) obtained by moving the first operator 21 to each position shown in (b) is shown in (c). In the vicinity of the edge corresponding to the gap of the white line, the differential output is "0, -1, 0, 1,
0 ", and in the vicinity of the edge of the white line (the part surrounded by the circle on the upper right side in the figure) is obtained as" -1, -1, 0 ". In this way, the first contour line information has the same amplitude (intensity) regardless of the position of the edge.

【0032】これに対して、図6に示す第二のオペレー
タ22は、着目する画素に対応する要素cと、その両側
にそれぞれ2画素分の要素a,bと要素d,eを持つ。
この第二のオペレータ22を(b)に示す各位置に移動
させて得た第一の輪郭線情報(微分出力)を(c)に示
す。白線の隙間に対応するエッジの近傍では、その微分
出力が「-0.5,-0.5,0, 0.5, 0.5,0,0」のよう
に得られ、白線のエッジ近傍(図において上部右側の丸
で囲む部分)では「−1,−1,-0.5」のように得られ
る。このように、第二の輪郭線情報は、エッジの位置に
応じた振幅(強度)を持つ。
On the other hand, the second operator 22 shown in FIG. 6 has an element c corresponding to the pixel of interest, and elements a and b for two pixels and elements d and e on both sides thereof.
The first contour line information (differential output) obtained by moving the second operator 22 to each position shown in (b) is shown in (c). In the vicinity of the edge corresponding to the gap of the white line, the differential output is obtained as "-0.5, -0.5, 0, 0.5, 0.5, 0, 0", and near the edge of the white line (in the upper right circle in the figure, In the surrounding part), it is obtained as "-1, -1, -0.5". Thus, the second contour line information has an amplitude (intensity) according to the position of the edge.

【0033】上記のように、第一の輪郭線情報は、エッ
ジ近傍における微分出力の変化率が、第二の輪郭線情報
に比べて大きい。換言すれば、第一のオペレータ21
は、原画像データの空間的な濃度変化に対して微分出力
(第一の輪郭線情報)の振幅、即ち感度が、第二のオペ
レータ22と比べて高くなるようにそのサイズが設定さ
れている。即ち、第一エッジ検出部14は、原画像デー
タの空間的な濃度変化に対する感度が比較的高く設定さ
れ、第二エッジ検出部15は、濃度変化に対する感度が
比較的低く設定されているといえる。そして、車線境界
検出装置10は、サイズの異なる第一,第二のオペレー
タ21,22を使用することで、白線の間隔(隙間)に
応じた強度を有する第一及び第二の輪郭線情報(微分画
像データ)を得る。
As described above, the change rate of the differential output in the vicinity of the edge of the first contour line information is larger than that of the second contour line information. In other words, the first operator 21
Is set so that the amplitude of the differential output (first contour line information) with respect to the spatial density change of the original image data, that is, the sensitivity, is higher than that of the second operator 22. . That is, it can be said that the first edge detection unit 14 is set to have a relatively high sensitivity to a spatial density change of the original image data, and the second edge detection unit 15 is set to be a relatively low sensitivity to a density change. . Then, the lane boundary detection device 10 uses the first and second operators 21 and 22 having different sizes, so that the first and second contour line information (having the strength corresponding to the space (gap) between the white lines ( Differential image data).

【0034】尚、第一のオペレータに図3の2次元オペ
レータ23を用い、第二のオペレータに2次元オペレー
タ24を用いても良い(図4にその2次元オペレータの
各要素の値を示す)。
The two-dimensional operator 23 shown in FIG. 3 may be used as the first operator and the two-dimensional operator 24 may be used as the second operator (FIG. 4 shows the values of each element of the two-dimensional operator). .

【0035】最外輪郭抽出部(以下、抽出部)16は、
第一の輪郭線情報と第二の輪郭線情報とを照合し、白
線、白線群の最も外側の輪郭の位置情報を求める。白線
群は複数(複数種類)の白線にて構成され、図10
(c)の複合白線64,65、図10(d)に示す多重
白線66を含む。
The outermost contour extraction unit (hereinafter, extraction unit) 16 is
The first contour line information is collated with the second contour line information, and the position information of the outermost contour of the white line and the white line group is obtained. The white line group is composed of a plurality (a plurality of types) of white lines.
The composite white lines 64 and 65 of (c) and the multiple white line 66 shown in FIG.

【0036】抽出部16は、第一エッジ検出部14の出
力(第一の輪郭線情報)と第二エッジ検出部15の出力
(第二の輪郭線情報)とを照合し、複数の白線が接近し
ているときに、最も外側の輪郭線である最外輪郭情報を
抽出する。
The extraction unit 16 collates the output of the first edge detection unit 14 (first contour line information) with the output of the second edge detection unit 15 (second contour line information), and a plurality of white lines are detected. When approaching, the outermost contour information, which is the outermost contour line, is extracted.

【0037】詳しくは、抽出部16は、第一の輪郭線情
報とノイズレベル以上に設定した第一のしきい値を比較
し、ノイズレベル以上の振幅を有する成分だけを抽出し
た第一のエッジ情報を生成する。
Specifically, the extraction unit 16 compares the first contour line information with the first threshold value set above the noise level, and extracts only the component having the amplitude above the noise level. Generate information.

【0038】また、抽出部16は、第二の輪郭線情報か
ら第二のしきい値以上の振幅を有する成分だけを抽出し
た第二のエッジ情報を生成する。第二のしきい値は、白
線の隙間に対応するエッジを抽出しないように、予め実
験等の結果により設定されている。例えば、図6(c)
の微分出力の場合、0.5より大きな値がしきい値に設
定される。
Further, the extraction unit 16 generates second edge information by extracting only the component having the amplitude equal to or more than the second threshold value from the second contour line information. The second threshold value is set in advance based on the results of experiments and the like so as not to extract the edge corresponding to the gap between the white lines. For example, FIG. 6 (c)
In the case of the differential output of, the value larger than 0.5 is set as the threshold value.

【0039】そして、抽出部16は、第一のエッジ情報
と、第二のエッジ情報を合成処理して最外輪郭情報を生
成する。合成処理は、本実施形態では和処理であり、抽
出部16は第一のエッジ情報と第二のエッジ情報の合計
値(微分値の合計値)を、それぞれ対応する画素毎に実
施し、その実施結果を最外輪郭情報とする。
Then, the extraction section 16 synthesizes the first edge information and the second edge information to generate the outermost contour information. The synthesizing process is a summing process in the present embodiment, and the extracting unit 16 performs the total value (total differential value) of the first edge information and the second edge information for each corresponding pixel. The execution result is used as the outermost contour information.

【0040】第一のエッジ情報は、図5(d)の微分出
力として示すように、ノイズレベル以上のデータ(エッ
ジの情報)を含む。第二のエッジ情報は、図6(d)の
微分出力として示すように、第二のしきい値以上のレベ
ルを持つエッジの情報を含む。従って、白線群の最外輪
郭を形成するエッジの位置における合計値は、第一及び
第二のエッジ情報の微分値が合計され、その値は一方の
ほぼ2倍になる。一方、最外輪郭を形成するエッジ以外
の位置における合計値は、一方の微分値と等しくなる。
そして、第一のエッジ情報において、複数の白線が接近
している場所におけるエッジの微分値は、輪郭部分のエ
ッジの微分値に比べて小さい。従って、白線群の最外輪
郭に対応するエッジの微分値と、それ以外のエッジの微
分値との差が極めて大きくなる。このため、抽出部16
は、論理積演算を実施することで、確実に輪郭を形成す
るエッジの情報(最外輪郭情報)を抽出する。
The first edge information includes data (edge information) above the noise level, as shown as the differential output in FIG. 5 (d). The second edge information includes information on edges having a level equal to or higher than the second threshold, as shown as a differential output in FIG. 6D. Therefore, the total value at the position of the edge forming the outermost contour of the white line group is the sum of the differential values of the first and second edge information, and the value is almost twice that of one. On the other hand, the total value at positions other than the edge forming the outermost contour is equal to one differential value.
Then, in the first edge information, the differential value of the edge in the place where the plurality of white lines are close to each other is smaller than the differential value of the edge of the contour portion. Therefore, the difference between the differential value of the edge corresponding to the outermost contour of the white line group and the differential value of the other edges becomes extremely large. Therefore, the extraction unit 16
Performs the logical product operation to extract the information of the edge that surely forms the contour (outermost contour information).

【0041】尚、輪郭線情報がその進行方向に沿って破
線状に離間している場合、抽出部16は輪郭線情報をそ
の進行方向に沿って補完し、最大幅の輪郭線情報(白線
群の輪郭線情報)のうち、広い幅を持つ2つの輪郭線情
報を輪郭位置情報として出力する。
When the contour line information is separated in the form of a broken line along the traveling direction, the extraction unit 16 complements the contour line information along the traveling direction to obtain the contour line information of the maximum width (white line group). Of the contour line information), two pieces of contour line information having a wide width are output as contour position information.

【0042】オフセット設定部17は、レーン境界設定
部18で用いられる最外レーン境界位置からのオフセッ
ト値を記憶している。このオフセット値は、制御部20
により予め設定される。
The offset setting unit 17 stores the offset value from the outermost lane boundary position used by the lane boundary setting unit 18. This offset value is used by the control unit 20.
Is set in advance.

【0043】レーン境界設定部18は、抽出部16から
の輪郭位置情報(輪郭線情報)に基づいて、該輪郭線情
報の両エッジの中間位置である第1レーン境界位置デー
タを生成する。また、レーン境界設定部18は、最外輪
郭線情報とオフセット値に基づいて、該輪郭線情報の一
方のエッジを他方のエッジへ第1オフセット値だけオフ
セットした位置である第2レーン境界位置データと、他
方のエッジを一方のエッジへ第2オフセット値だけオフ
セットした位置である第3レーン境界位置データを生成
する。そして、レーン境界設定部18は、生成した第1
〜第3レーン境界位置データを出力する。
The lane boundary setting unit 18 generates the first lane boundary position data, which is the intermediate position of both edges of the contour line information, based on the contour position information (contour line information) from the extraction unit 16. Further, the lane boundary setting unit 18 is a second lane boundary position data which is a position where one edge of the contour information is offset by the first offset value from the other edge based on the outermost contour information and the offset value. Then, the third lane boundary position data, which is the position where the other edge is offset to the one edge by the second offset value, is generated. Then, the lane boundary setting unit 18 generates the first
~ Outputs the third lane boundary position data.

【0044】出力部19は、制御部20の指示に従っ
て、レーン境界設定部18が出力する第1〜第3レーン
境界位置データのうちの一つを選択し、その選択データ
を出力する。この選択データは、警報装置や速度制御装
置等のシステム制御コンピュータに送られ、それに基づ
いて移動体が制御される。
The output unit 19 selects one of the first to third lane boundary position data output by the lane boundary setting unit 18 according to an instruction from the control unit 20 and outputs the selected data. This selection data is sent to a system control computer such as an alarm device and a speed control device, and the moving body is controlled based on the selection data.

【0045】図2は、抽出部16の構成を示すブロック
図である。抽出部16は、第一しきい値処理部31、第
二しきい値処理部32、演算処理部33を備えている。
FIG. 2 is a block diagram showing the structure of the extraction unit 16. The extraction unit 16 includes a first threshold processing unit 31, a second threshold processing unit 32, and an arithmetic processing unit 33.

【0046】第一しきい値処理部31は、第一エッジ検
出部14の出力(第一の輪郭線情報)とノイズレベル以
上に設定した第一のしきい値を比較し、ノイズレベル以
上の振幅を有する成分だけを抽出した第一エッジ情報を
出力する。
The first threshold value processing unit 31 compares the output (first contour line information) of the first edge detection unit 14 with the first threshold value set above the noise level, and compares it with the noise level above the noise level. It outputs the first edge information obtained by extracting only the component having the amplitude.

【0047】第二しきい値処理部32は、第二の輪郭線
情報から第二のしきい値以上の振幅を有する成分だけを
抽出した第二エッジ情報を出力する。演算処理部33
は、第一のエッジ情報と第二のエッジ情報とを論理合成
して最外輪郭情報を生成する。
The second threshold value processing section 32 outputs second edge information obtained by extracting from the second contour line information only components having an amplitude equal to or greater than the second threshold value. Arithmetic processing unit 33
Generates the outermost contour information by logically synthesizing the first edge information and the second edge information.

【0048】次に、上記のように構成された車線境界検
出装置の作用を図7及び図8を用いて説明する。尚、図
7及び図8は各処理における画像データを可視化したも
のである。
Next, the operation of the lane boundary detecting device configured as described above will be described with reference to FIGS. 7 and 8. 7 and 8 visualize the image data in each process.

【0049】今、図7に示す原画像データ41がフレー
ムバッファ部13に記録されている。第一エッジ検出部
14は、走査線42に沿って原画像データをフレームバ
ッファ部13から読出す。そして、第一エッジ検出部1
4は、該原画像データに対して第一のオペレータ21を
作用させて第一の輪郭線情報を生成する。
Now, the original image data 41 shown in FIG. 7 is recorded in the frame buffer unit 13. The first edge detection unit 14 reads the original image data from the frame buffer unit 13 along the scanning line 42. Then, the first edge detection unit 1
4 operates the first operator 21 on the original image data to generate the first contour line information.

【0050】第二エッジ検出部15は、走査線42に沿
って原画像データをフレームバッファ部13から読出
す。そして、第二エッジ検出部15は、該原画像データ
に対して第二のオペレータ22を作用させて第二の輪郭
線情報43を生成する。この時、白線間の隙間に対応す
るエッジの情報は、白線の汚れ/剥がれ等により値が場
所によって異なるため、図8(a)に示すように、現れ
たり現れなかったりする。
The second edge detector 15 reads the original image data from the frame buffer 13 along the scanning line 42. Then, the second edge detection unit 15 causes the second operator 22 to act on the original image data to generate the second contour line information 43. At this time, the information of the edges corresponding to the gaps between the white lines may or may not appear, as shown in FIG.

【0051】次に、抽出部16は、第一の輪郭線情報と
第二の輪郭線情報を照合し、最も外側の輪郭線である最
外輪郭情報44を抽出する。図8(b)は、抽出された
最外輪郭情報(画像)である。
Next, the extraction unit 16 collates the first contour line information with the second contour line information and extracts the outermost contour information 44 which is the outermost contour line. FIG. 8B is the extracted outermost contour information (image).

【0052】次に、抽出部16は、輪郭位置情報(図8
(b)において左側の白線群によるエッジデータと、左
側の白線群によるエッジデータ)を進行方向に沿って補
完して図8(c)に実線で示す最外輪郭線情報(輪郭位
置情報)45,46を生成する。
Next, the extraction unit 16 uses the contour position information (see FIG. 8).
Outermost contour line information (contour position information) 45 shown by a solid line in FIG. 8C by complementing the edge data by the white line group on the left side and the edge data by the white line group on the left side in (b) along the traveling direction. , 46 are generated.

【0053】これら最外輪郭線情報45,46に基づ
き、図1のレーン境界設定部18は、最外輪郭線情報4
5,46の中間位置を算出し、図8(c)に一点鎖線で
示す第1レーン境界位置データ47,48を生成する。
Based on these outermost contour line information 45 and 46, the lane boundary setting section 18 of FIG.
The intermediate positions of 5 and 46 are calculated, and the first lane boundary position data 47 and 48 indicated by the alternate long and short dash line in FIG. 8C are generated.

【0054】尚、図示しないが、レーン境界設定部18
は、図5(c)に示す最外輪郭線情報に基づき、第2及
び第3レーン境界位置データを生成する。以上詳述した
ように、本実施形態によれば、以下に示す効果が得られ
る。
Although not shown, the lane boundary setting unit 18
Generates the second and third lane boundary position data based on the outermost contour line information shown in FIG. As described in detail above, according to this embodiment, the following effects can be obtained.

【0055】(1)本実施形態では、第一エッジ検出部
14は、原画像データの空間的な濃度変化に対して感度
が比較的高く設定され第一の輪郭線情報を抽出する。第
二エッジ検出部15は、原画像データの空間的な濃度変
化に対して感度が比較的低く設定され第二の輪郭線情報
を抽出する。この第一の輪郭線情報は白線間の隙間に対
応するエッジの情報を含み、第二の輪郭線情報はそれを
含まない。そして、最外輪郭抽出部16は、第一及び第
二の輪郭線情報から白線群の最外輪郭情報を抽出する。
その結果、その隙間に対応するエッジの情報の削除が容
易であるため、白線群の輪郭(最外輪郭情報)が安定
し、車線境界位置を安定して検出することができる。
(1) In the present embodiment, the first edge detection unit 14 is set to have a relatively high sensitivity to the spatial density change of the original image data and extracts the first contour line information. The second edge detection unit 15 is set to have a relatively low sensitivity to a spatial density change of the original image data and extracts the second contour line information. The first contour line information includes information on edges corresponding to the gaps between the white lines, and the second contour line information does not include it. Then, the outermost contour extraction unit 16 extracts the outermost contour information of the white line group from the first and second contour line information.
As a result, since it is easy to delete the information of the edge corresponding to the gap, the contour of the white line group (outermost contour information) is stable, and the lane boundary position can be stably detected.

【0056】(2)本実施形態では、第一,第二エッジ
検出部14は、それぞれ感度に応じたサイズを持つ第
一,第二のオペレータ21,22によりフレームバッフ
ァ部13に格納された原画像データから第一,第二の輪
郭線情報を抽出する。その結果、白線間の隙間に対応す
るエッジの情報を含む第一の輪郭線情報の抽出と、それ
を含まない第二の輪郭線情報の抽出を容易に行うことが
できる。
(2) In the present embodiment, the first and second edge detection sections 14 store the original data stored in the frame buffer section 13 by the first and second operators 21 and 22 each having a size corresponding to the sensitivity. First and second contour line information is extracted from the image data. As a result, it is possible to easily extract the first contour line information including the information of the edge corresponding to the gap between the white lines and the second contour line information that does not include the information.

【0057】(3)本実施形態では、最外輪郭抽出部1
6は、第一の輪郭線情報とノイズレベル以上に設定した
第一のしきい値を比較してノイズレベル以上の振幅を有
する成分を抽出した第一のエッジ情報と、第二の輪郭線
情報から第二のしきい値以上の振幅を有する成分だけを
抽出した第二のエッジ情報とを生成する。次に、最外輪
郭抽出部16は、該第一及び第二のエッジ情報を合成処
理して最外輪郭情報を抽出する。その結果、第二のしき
い値を設定することで、白線の隙間に対応するエッジの
情報含まない第二の輪郭線情報を容易に作成でき、白線
間の隙間に対応するエッジの情報を含まない輪郭線情報
を抽出することができる。
(3) In the present embodiment, the outermost contour extraction unit 1
Reference numeral 6 is first edge information obtained by comparing the first contour line information with a first threshold value set above the noise level to extract a component having an amplitude above the noise level, and second contour line information. And second edge information obtained by extracting only a component having an amplitude equal to or larger than the second threshold value from. Next, the outermost contour extraction unit 16 extracts the outermost contour information by synthesizing the first and second edge information. As a result, by setting the second threshold, it is possible to easily create the second contour line information that does not include the information of the edge corresponding to the gap between the white lines, and include the information of the edge corresponding to the gap between the white lines. It is possible to extract missing contour line information.

【0058】(第2実施形態)以下、本発明を第2実施
形態を図9に従って説明する。なお、説明の便宜上、前
記第1実施形態と同様の構成については同一の符号を付
してその説明を一部省略する。
(Second Embodiment) The second embodiment of the present invention will be described below with reference to FIG. It should be noted that, for convenience of description, the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof is partially omitted.

【0059】図9は、車線境界検出装置50の概略構成
を示すブロック図である。車線境界検出装置(以下、検
出装置)50は、撮像部11、第一及び第二A/D変換
器51,52、第一及び第二フレームバッファ(Frame B
uffer)部53,54、第一及び第二エッジ検出部55,
56、最外輪郭抽出部16、オフセット設定部17、レ
ーン境界設定部18、出力部19を備える。
FIG. 9 is a block diagram showing a schematic configuration of the lane boundary detecting apparatus 50. The lane boundary detection device (hereinafter, detection device) 50 includes an imaging unit 11, first and second A / D converters 51 and 52, first and second frame buffers (Frame B).
uffer) units 53, 54, first and second edge detection units 55,
56, an outermost contour extraction unit 16, an offset setting unit 17, a lane boundary setting unit 18, and an output unit 19.

【0060】第一A/D変換器51は、撮像部11から
入力される画像データを第一のサンプリング間隔でサン
プリングし、そのサンプリング値をアナログ−デジタル
変換して生成した変換データを出力する。第一フレーム
バッファ部53は、第一A/D変換器51の出力信号を
第一の原画像データとして記憶する。
The first A / D converter 51 samples the image data input from the image pickup section 11 at the first sampling interval, and outputs the converted data generated by analog-digital conversion of the sampled value. The first frame buffer unit 53 stores the output signal of the first A / D converter 51 as first original image data.

【0061】第二A/D変換器52は、撮像部11から
入力される画像データを第二のサンプリング間隔でサン
プリングし、そのサンプリング値をアナログ−デジタル
変換して生成した変換データを出力する。第二フレーム
バッファ部54は、第二A/D変換器52の出力信号を
第二の原画像データとして記憶する。
The second A / D converter 52 samples the image data input from the image pickup section 11 at the second sampling interval and outputs the converted data generated by analog-digital conversion of the sampled value. The second frame buffer unit 54 stores the output signal of the second A / D converter 52 as second original image data.

【0062】第一のサンプリング間隔と第二のサンプリ
ング間隔は、必要とする原画像データの解像度に応じて
設定される。尚、本実施形態では、第一のサンプリング
間隔は第二のサンプリング間隔よりも狭く設定されてい
る。従って、第一フレームバッファ部53に格納された
第一の原画像データの解像度は、第二フレームバッファ
部54に格納された第二の原画像データのそれよりも高
い。
The first sampling interval and the second sampling interval are set according to the required resolution of the original image data. In this embodiment, the first sampling interval is set narrower than the second sampling interval. Therefore, the resolution of the first original image data stored in the first frame buffer unit 53 is higher than that of the second original image data stored in the second frame buffer unit 54.

【0063】第一エッジ検出部14は、第一フレームバ
ッファ部53に記憶された原画像データに対して第一の
エッジ検出処理を施して輪郭線(エッジ)の情報を含む
第一の輪郭線情報を抽出する。第一のエッジ検出処理
は、第一のオペレータ21(図3参照)を原画像データ
に作用させ、該原画像データから第一の輪郭線情報(微
分画像データ)を抽出する処理である。
The first edge detecting section 14 performs a first edge detecting process on the original image data stored in the first frame buffer section 53 and includes a first contour line including information of a contour line (edge). Extract information. The first edge detection process is a process of causing the first operator 21 (see FIG. 3) to act on the original image data and extracting the first contour line information (differential image data) from the original image data.

【0064】第二エッジ検出部55は、第二フレームバ
ッファ部54に記憶された原画像データに対して第一エ
ッジ検出部14と同様に第一のオペレータ21を用いた
第一のエッジ検出処理を施して輪郭線(エッジ)の情報
を含む第二の輪郭線情報を抽出する。
The second edge detection unit 55 uses the first operator 21 to perform the first edge detection processing on the original image data stored in the second frame buffer unit 54, as in the first edge detection unit 14. Then, the second contour line information including the contour line (edge) information is extracted.

【0065】即ち、本実施形態の車線境界検出装置50
は、解像度が異なる2つの画像データを記憶し、それら
に対して同一のオペレータを使用して第一及び第二の輪
郭線情報を抽出する。
That is, the lane boundary detection device 50 of this embodiment.
Stores two pieces of image data having different resolutions and uses the same operator for them to extract the first and second contour line information.

【0066】解像度が高い第一の輪郭線情報には白線間
の隙間に対応するエッジの情報が含まれ、解像度が低い
第二の輪郭線情報にはそれが含まれない。従って、第一
実施形態と同様の効果を得ることができる。
The first contour line information having a high resolution includes information on an edge corresponding to a gap between white lines, and the second contour line information having a low resolution does not include it. Therefore, the same effect as that of the first embodiment can be obtained.

【0067】尚、上記各実施形態に限定されるものでは
なく、次のように変更してもよい。・第1実施形態にお
いて、撮像部11、A/D変換器12、フレームバッフ
ァ部13のうちの少なくとも一つを別に構成した車線境
界検出装置に具体化する。第2実施形態において、撮像
部11、第一及び第二A/D変換器51,52、第一及
び第二フレームバッファ部53,54のうちの少なくと
も一つを別に構成した車線境界検出装置に具体化する。
It should be noted that the present invention is not limited to the above-mentioned embodiments, but may be modified as follows. In the first embodiment, at least one of the image pickup unit 11, the A / D converter 12, and the frame buffer unit 13 is embodied as a lane boundary detection device separately configured. In the second embodiment, a lane boundary detection device in which at least one of the image pickup unit 11, the first and second A / D converters 51 and 52, and the first and second frame buffer units 53 and 54 is separately configured. Materialize.

【0068】・各第一,第二エッジ検出部において、使
用するオペレータとして、Sobel,Roberts,Kirsch,Robin
son,単純3レベルオペレータ等を用いてエッジ検出を行
う。また、単純ラプラシアンフィルター、ノイズ抑制型
ラプラシアンフィルター、ブリッジフィルター、サーフ
ボードフィルター等を用いてエッジ検出を行う。
As operators to be used in the first and second edge detection sections, Sobel, Roberts, Kirsch, Robin
Edge detection is performed using a son, simple 3-level operator, or the like. In addition, edge detection is performed using a simple Laplacian filter, a noise suppression type Laplacian filter, a bridge filter, a surfboard filter, or the like.

【0069】・出力部19が予め制御部20の指示を記
憶し、その指示に基づいて選択した第1〜第3レーン境
界位置データのうちの一つを出力する。 ・レーン境界設定部18が制御部20の指示に従って第
1〜第3レーン境界位置データのうちの一つを生成す
る。
The output unit 19 stores the instruction of the control unit 20 in advance and outputs one of the first to third lane boundary position data selected based on the instruction. The lane boundary setting unit 18 generates one of the first to third lane boundary position data according to the instruction of the control unit 20.

【0070】・第1実施形態において、1次元オペレー
タと2次元オペレータを組み合わせて使用する、即ち1
次元オペレータ21と2次元オペレータ24を第一及び
第二のオペレータとして使用する、2次元オペレータ2
3と1次元オペレータ22を第一及び第二のオペレータ
として使用しても良い。更に、各オペレータのマトリク
スサイズを適宜変更しても良い。
In the first embodiment, the one-dimensional operator and the two-dimensional operator are used in combination, that is, 1
Two-dimensional operator 2 using the two-dimensional operator 21 and the two-dimensional operator 24 as the first and second operators
The three and one-dimensional operators 22 may be used as the first and second operators. Furthermore, the matrix size of each operator may be changed appropriately.

【0071】・第2実施形態において、第一及び第二エ
ッジ検出部55,56において図3に示す二次元オペレ
ータ23を含む他のオペレータを使用しても良い。ま
た、第1実施形態と同様にサイズの異なるオペレータを
使用しても良い。
In the second embodiment, other operators including the two-dimensional operator 23 shown in FIG. 3 may be used in the first and second edge detectors 55 and 56. Further, operators having different sizes may be used as in the first embodiment.

【0072】・白線がデータ上において平行となるよう
に原画像データを空間変換した画像データを各フレーム
バッファ部13,53,54に格納し処理すること。 ・上記各実施形態において、抽出部16は第一の輪郭線
情報と第二の輪郭線情報を論理合成(合計)して最外輪
郭情報を抽出したが、それ以外の手法を用いて最外輪郭
情報を抽出しても良い。例えば、第一及び第二の輪郭線
情報の排他的論理和演算結果を生成する。この演算結果
は白線の間隔に対応するエッジの情報を含む集合であ
る。従って、第一の輪郭線情報においてこの演算結果の
集合の補集合を抽出することで第一の輪郭線情報から隙
間に対応するエッジの情報を削除し、上記実施形態と同
様の最外輪郭情報を抽出することができる。また、第一
及び第二の輪郭線情報を照合して輪郭を確認した後、第
一の輪郭線情報と実質的に同一の最外輪郭情報を生成す
るようにしてもよい。更に、第一及び第二の輪郭線情報
を論理積演算して最外輪郭情報を生成するようにしても
よい。
Image data obtained by spatially converting the original image data so that the white lines are parallel to each other in the data is stored in each frame buffer unit 13, 53, 54 and processed. In each of the above embodiments, the extraction unit 16 logically combines (sums) the first contour information and the second contour information to extract the outermost contour information, but the outermost contour information is extracted by using other methods. The contour information may be extracted. For example, an exclusive OR operation result of the first and second contour line information is generated. The result of this calculation is a set including the information of the edges corresponding to the intervals of the white lines. Therefore, by extracting the complementary set of the set of the calculation results in the first contour line information, the information of the edge corresponding to the gap is deleted from the first contour line information, and the outermost contour information similar to that in the above embodiment is obtained. Can be extracted. Further, the outermost contour information that is substantially the same as the first contour information may be generated after checking the contour by collating the first and second contour information. Further, the outermost contour information may be generated by performing a logical product operation of the first and second contour line information.

【0073】・上記各実施形態は機能的にブロックに分
割した例を示したものであり、複数のブロックの機能を
1つのブロックにて提供する、又は1つのブロックの機
能を複数のブロックにて提供するよう変更してもよい。
また、各ブロックに含む機能を適宜変更して実施しても
良い。
Each of the above embodiments shows an example in which the function is divided into blocks, and the function of a plurality of blocks is provided by one block, or the function of one block is provided by a plurality of blocks. May be modified to provide.
Further, the function included in each block may be appropriately changed and implemented.

【0074】次に、以上の実施形態から把握される技術
的思想をその効果とともに以下に記載する。 (イ) 前記輪郭抽出手段は、前記第一の輪郭線情報と
ノイズレベル以上に設定した第一のしきい値を比較して
ノイズレベル以上の振幅を有する成分を抽出した第一の
エッジ情報を生成する第一しきい値処理部と、前記第二
の輪郭線情報から第二のしきい値以上の振幅を有する成
分だけを抽出した第二のエッジ情報とを生成する第二し
きい値処理部と、前記第一及び第二のエッジ情報を合成
処理して前記最外輪郭情報を抽出する演算処理部とを備
えたことを特徴とする請求項1〜4のうちの何れか一項
記載の車線境界検出装置。
Next, the technical idea understood from the above embodiment will be described below along with its effects. (A) The contour extraction means compares the first contour information with a first threshold value set to a noise level or higher to extract first edge information from which a component having an amplitude of a noise level or higher is extracted. A second threshold value processing section that generates a first threshold value generating section and second edge information that extracts only components having an amplitude equal to or greater than a second threshold value from the second contour line information. 5. An arithmetic processing unit that synthesizes the first and second edge information and extracts the outermost contour information. 6. Lane boundary detection device.

【0075】(ロ) オフセット情報を記憶するオフセ
ット設定手段と、前記オフセット設定手段に記憶された
オフセット情報に基づいて車線境界位置を設定する境界
設定手段とを備えたことを特徴とする請求項1〜5のう
ちの何れか一項記載の車線境界検出装置。従って、白線
群の最外輪郭情報に対して車線境界位置を任意の位置に
設定することができる。
(B) An offset setting means for storing the offset information and a boundary setting means for setting the lane boundary position based on the offset information stored in the offset setting means. 6. The lane boundary detection device according to any one of 5 to 5. Therefore, the lane boundary position can be set to an arbitrary position with respect to the outermost contour information of the white line group.

【0076】(ハ) 前記境界設定手段は、前記輪郭位
置情報の白線群に対応する2つのエッジの位置を示す最
外輪郭データに基づく第1車線境界位置を算出し、前記
オフセット情報に基づいて前記2つの最外輪郭データの
うちの一方の位置をオフセットした第2の車線境界位置
と、前記オフセット情報に基づいて前記2つの最外輪郭
データのうちの他方の位置をオフセットした第3の車線
境界位置とを算出し、選択指示に従って前記第1〜第3
車線境界位置のうちの1つを出力する出力手段を備えた
ことを特徴とする上記(ロ)記載の車線境界検出装置。
従って、要求(選択指示)に対応する車線境界位置を容
易に得ることができる。
(C) The boundary setting means calculates the first lane boundary position based on the outermost contour data indicating the positions of the two edges corresponding to the white line group of the contour position information, and based on the offset information. A second lane boundary position in which one position of the two outermost contour data is offset, and a third lane in which the other position of the two outermost contour data is offset based on the offset information. The boundary position is calculated, and the first to third are calculated according to the selection instruction.
The lane boundary detection device according to (B) above, further comprising output means for outputting one of the lane boundary positions.
Therefore, the lane boundary position corresponding to the request (selection instruction) can be easily obtained.

【0077】[0077]

【発明の効果】以上詳述したように、本発明では、車線
境界を安定に検出することのできる車線境界検出装置を
提供することができる。
As described above in detail, according to the present invention, it is possible to provide a lane boundary detecting device capable of stably detecting a lane boundary.

【図面の簡単な説明】[Brief description of drawings]

【図1】 車線境界検出装置の概略構成を示すブロック
図である。
FIG. 1 is a block diagram showing a schematic configuration of a lane boundary detection device.

【図2】 最外輪郭抽出部のブロック図である。FIG. 2 is a block diagram of an outermost contour extraction unit.

【図3】 微分オペレータの説明図である。FIG. 3 is an explanatory diagram of a differential operator.

【図4】 微分オペレータの説明図である。FIG. 4 is an explanatory diagram of a differential operator.

【図5】 輪郭情報検出処理の説明図である。FIG. 5 is an explanatory diagram of contour information detection processing.

【図6】 輪郭情報検出処理の説明図である。FIG. 6 is an explanatory diagram of contour information detection processing.

【図7】 白線の説明図である。FIG. 7 is an explanatory diagram of a white line.

【図8】 白線の説明図である。FIG. 8 is an explanatory diagram of a white line.

【図9】 車線境界検出装置の概略構成を示すブロック
図である。
FIG. 9 is a block diagram showing a schematic configuration of a lane boundary detection device.

【図10】 白線の説明図である。FIG. 10 is an explanatory diagram of a white line.

【符号の説明】[Explanation of symbols]

14,55…第一エッジ検出部(第一の輪郭情報検出手
段)、15,56…第二エッジ検出部(第二の輪郭情報
検出手段)、16…最外輪郭抽出部(輪郭抽出手段)、
21…第一オペレータ、22…第二オペレータ
14, 55 ... First edge detecting section (first contour information detecting means), 15, 56 ... Second edge detecting section (second contour information detecting means), 16 ... Outermost contour extracting section (contour extracting means) ,
21 ... First operator, 22 ... Second operator

フロントページの続き (72)発明者 高山 宗広 愛知県刈谷市朝日町2丁目1番地 アイシ ン精機 株式会社内 (72)発明者 柿並 俊明 愛知県刈谷市朝日町2丁目1番地 アイシ ン精機 株式会社内 (72)発明者 里中 久志 愛知県豊田市トヨタ町1番地 トヨタ自動 車 株式会社内 (72)発明者 西田 誠 愛知県豊田市トヨタ町1番地 トヨタ自動 車 株式会社内 (72)発明者 高橋 新 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 二宮 芳樹 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 Fターム(参考) 5B057 AA16 BA02 DA08 DB02 DB05 DB09 DC16 5H180 AA01 CC04 CC24 LL06 LL09 LL15 5L096 AA03 AA06 BA04 CA02 DA01 FA06 FA14 FA18 Continued front page    (72) Inventor Munehiro Takayama             Aichi, 2-chome, Asahi-cho, Kariya city, Aichi prefecture             N Seiki Co., Ltd. (72) Inventor Toshiaki Kakinami             Aichi, 2-chome, Asahi-cho, Kariya city, Aichi prefecture             N Seiki Co., Ltd. (72) Inventor Hisashi Satonaka             1 Toyota Town, Toyota City, Aichi Prefecture Toyota Auto             Car Co., Ltd. (72) Inventor Makoto Nishida             1 Toyota Town, Toyota City, Aichi Prefecture Toyota Auto             Car Co., Ltd. (72) Inventor Shin Takahashi             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. (72) Inventor Yoshiki Ninomiya             Aichi Prefecture Nagachite Town Aichi District             Ground 1 Toyota Central Research Institute Co., Ltd. F term (reference) 5B057 AA16 BA02 DA08 DB02 DB05                       DB09 DC16                 5H180 AA01 CC04 CC24 LL06 LL09                       LL15                 5L096 AA03 AA06 BA04 CA02 DA01                       FA06 FA14 FA18

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮像装置により撮影されその視野に区画
線を含む走行路の画像データから道路面の車線境界位置
を検出する車線境界検出装置において、 前記画像データの空間的な濃度変化に対する感度が比較
的高く設定され、前記画像データから第一の輪郭線情報
を抽出する第一の輪郭情報検出手段と、 前記画像データの空間的な濃度変化に対する感度が比較
的低く設定され、前記画像データから第二の輪郭線情報
を抽出する第二の輪郭情報検出手段と、 前記第一及び第二の輪郭線情報から白線群の最外輪郭情
報を抽出する輪郭抽出手段を備え、該最外輪郭情報に基
づいて車線境界位置を設定することを特徴とする車線境
界検出装置。
1. A lane boundary detection device for detecting a lane boundary position of a road surface from image data of a traveling road imaged by an imaging device and including lane markings in its field of view, wherein the image data has a sensitivity to a spatial density change. A first contour information detection unit that is set to be relatively high and extracts first contour information from the image data, and a sensitivity to a spatial density change of the image data that is set to be relatively low. Second contour information detecting means for extracting second contour information, and contour extracting means for extracting outermost contour information of a white line group from the first and second contour information, the outermost contour information being provided. A lane boundary detection device, characterized in that the lane boundary position is set based on the above.
【請求項2】 前記第一及び第二の輪郭情報検出手段は
それぞれ前記感度に応じてサイズが異なるオペレータに
より同一の前記画像データから前記第一及び第二の輪郭
線情報を抽出することを特徴とする請求項1記載の車線
境界検出装置。
2. The first and second contour information detecting means respectively extract the first and second contour information from the same image data by operators having different sizes depending on the sensitivity. The lane boundary detection device according to claim 1.
【請求項3】 撮像装置により撮影されその視野に区画
線を含む走行路の画像データから道路面の車線境界位置
を検出する車線境界検出装置において、 解像度が異なる第一及び第二の画像データから第一及び
第二の輪郭線情報を抽出する輪郭情報検出手段と、 前記第一及び第二の輪郭線情報から白線群の最外輪郭情
報を抽出する輪郭抽出手段を備え、該最外輪郭情報に基
づいて車線境界位置を設定することを特徴とする車線境
界検出装置。
3. A lane boundary detection device for detecting a lane boundary position of a road surface from image data of a traveling road imaged by an imaging device and including a marking line in its field of view, from first and second image data having different resolutions. Contour information detecting means for extracting first and second contour line information, and contour extracting means for extracting outermost contour information of the white line group from the first and second contour line information, the outermost contour information A lane boundary detection device, characterized in that the lane boundary position is set based on the above.
【請求項4】 前記輪郭情報検出手段は、 解像度が高い第一の画像データから前記第一の輪郭情報
を抽出する第一の輪郭情報検出手段と、 解像度が低い第二の画像データから前記第二の輪郭情報
を抽出する第二の輪郭情報検出手段とからなることを特
徴とする請求項3記載の車線境界検出装置。
4. The contour information detecting means comprises: first contour information detecting means for extracting the first contour information from first image data having a high resolution; and second contour information detecting means for extracting the first contour information from the second image data having a low resolution. 4. The lane boundary detecting device according to claim 3, further comprising a second contour information detecting means for extracting the second contour information.
【請求項5】 前記輪郭抽出手段は、 前記第一の輪郭線情報とノイズレベル以上に設定した第
一のしきい値を比較してノイズレベル以上の振幅を有す
る成分を抽出した第一のエッジ情報と、前記第二の輪郭
線情報から第二のしきい値以上の振幅を有する成分だけ
を抽出した第二のエッジ情報とを生成し、該第一及び第
二のエッジ情報を合成処理して前記最外輪郭情報を抽出
することを特徴とする請求項1〜4のうちの何れか一項
記載の車線境界検出装置。
5. The first edge extracting unit compares the first contour line information with a first threshold value set above a noise level to extract a component having an amplitude above a noise level. Information, and second edge information obtained by extracting only a component having an amplitude equal to or greater than a second threshold value from the second contour line information, and combining the first and second edge information. The lane boundary detection device according to any one of claims 1 to 4, wherein the outermost contour information is extracted.
JP2001385262A 2001-12-18 2001-12-18 Lane boundary detection device Expired - Fee Related JP3854143B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001385262A JP3854143B2 (en) 2001-12-18 2001-12-18 Lane boundary detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001385262A JP3854143B2 (en) 2001-12-18 2001-12-18 Lane boundary detection device

Publications (2)

Publication Number Publication Date
JP2003187227A true JP2003187227A (en) 2003-07-04
JP3854143B2 JP3854143B2 (en) 2006-12-06

Family

ID=27594765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001385262A Expired - Fee Related JP3854143B2 (en) 2001-12-18 2001-12-18 Lane boundary detection device

Country Status (1)

Country Link
JP (1) JP3854143B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2420404A (en) * 2004-11-23 2006-05-24 Chi-Jui Huang An alerting system of a vehicle deviating from its traffic lane
US7583816B2 (en) 2003-09-24 2009-09-01 Aisin Seiki Kabushiki Kaisha Device for detecting a road traveling lane using an edge histogram
US9489585B2 (en) 2014-04-14 2016-11-08 Honda Motor Co., Ltd. Lane mark recognition device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583816B2 (en) 2003-09-24 2009-09-01 Aisin Seiki Kabushiki Kaisha Device for detecting a road traveling lane using an edge histogram
GB2420404A (en) * 2004-11-23 2006-05-24 Chi-Jui Huang An alerting system of a vehicle deviating from its traffic lane
GB2420404B (en) * 2004-11-23 2010-06-16 Chi-Jui Huang Alerting system of a vehicle deviating from its traffic lane
US9489585B2 (en) 2014-04-14 2016-11-08 Honda Motor Co., Ltd. Lane mark recognition device

Also Published As

Publication number Publication date
JP3854143B2 (en) 2006-12-06

Similar Documents

Publication Publication Date Title
JP4157620B2 (en) Moving object detection apparatus and method
JP2019029940A (en) Adherent detection device and vehicle system including the same
JPH11306283A (en) License plate information reader
JP2994170B2 (en) Vehicle periphery monitoring device
JPH06247246A (en) Approaching vehicle monitoring device
JP2001043383A (en) Image monitoring system
JP3914447B2 (en) Image-type vehicle detection system and image-type vehicle detection method
JP2003187227A (en) Lane detection device
JP2003187252A (en) Lane detection device
CN111914610A (en) Three-dimensional object detection device and three-dimensional object detection method
JP4826355B2 (en) Vehicle surrounding display device
JP3886573B2 (en) Rainfall and snow detection method and apparatus
JP4124861B2 (en) Moving amount detection apparatus and method
JP2000113374A (en) Device for extracting vehicle
JP3638028B2 (en) Vehicle number recognition device
KR101875786B1 (en) Method for identifying vehicle using back light region in road image
JP3999345B2 (en) Own vehicle position recognition device, own vehicle position recognition method and program
JPH10302074A (en) License plate position detector
JP5472252B2 (en) Number mark detection apparatus, computer program, and number mark detection method
JP3198258B2 (en) Parked vehicle detection method and device
Bhope et al. Use of image processing in lane departure warning system
JPH09231376A (en) Number plate detecting system
JP3632088B2 (en) Vehicle detection method
JP3509620B2 (en) Image preprocessing device, lane mark recognition device, vehicle travel control device, and recording medium
JPH0729015A (en) Image recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040402

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040421

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20040421

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060523

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060907

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130915

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees