[go: up one dir, main page]

JP2009009331A - White line detection device and white line detection method - Google Patents

White line detection device and white line detection method Download PDF

Info

Publication number
JP2009009331A
JP2009009331A JP2007169609A JP2007169609A JP2009009331A JP 2009009331 A JP2009009331 A JP 2009009331A JP 2007169609 A JP2007169609 A JP 2007169609A JP 2007169609 A JP2007169609 A JP 2007169609A JP 2009009331 A JP2009009331 A JP 2009009331A
Authority
JP
Japan
Prior art keywords
white line
error
approximate
image
line candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007169609A
Other languages
Japanese (ja)
Inventor
Yohei Aragaki
洋平 新垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2007169609A priority Critical patent/JP2009009331A/en
Publication of JP2009009331A publication Critical patent/JP2009009331A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両の周囲の路面を撮像して得られた撮像画像から、路面上に描かれた白線を精度良く検出できるようにする。
【解決手段】画像変換部21が、路面の撮像画像を、路面を真上方向から見た俯瞰画像に変換し、白線候補画素検索部22が、俯瞰画像において路面に描かれた白線を示す白線候補画素を検索し、白線検出部23が、白線候補画素から近似直線を求める際に、撮像画像を俯瞰画像に変換する際に生じる誤差影響を除外するように白線候補画素の重み付けを調整し、重み付け調整後の白線候補画素から求めた近似直線に基づいて白線を検出することで、路面に描かれた白線を精度良く検出できるようにした。
【選択図】図1
A white line drawn on a road surface can be accurately detected from a captured image obtained by imaging a road surface around a vehicle.
An image conversion unit 21 converts a picked-up image of a road surface into an overhead image when the road surface is viewed from directly above, and a white line candidate pixel search unit 22 indicates a white line indicating a white line drawn on the road surface in the overhead image. Search for candidate pixels, and when the white line detection unit 23 obtains an approximate line from the white line candidate pixels, adjust the weight of the white line candidate pixels so as to exclude the error effect that occurs when converting the captured image to an overhead image, By detecting the white line based on the approximate straight line obtained from the white line candidate pixel after the weight adjustment, the white line drawn on the road surface can be detected with high accuracy.
[Selection] Figure 1

Description

本発明は、車両の周囲の路面の撮像により得られた撮像画像において、路面に描かれた白線を検出する白線検出装置および白線検出方法に関するものである。   The present invention relates to a white line detection device and a white line detection method for detecting a white line drawn on a road surface in a captured image obtained by imaging a road surface around a vehicle.

近年、路面上における車両の位置を特定し、走行中の車両の自動走行制御や、運転者の運転支援制御などを行う運転支援装置が種々提案されている。
そして、路面上における車両の位置を特定するための装置として、例えば、特許文献1に開示された装置がある。この特許文献1に開示された装置では、カメラなどで路面を撮像して得られた撮像画像において、直線データ、例えば路面に描かれた白線を示す直線データを検出し、検出した直線データに基づいて車両が走行する走行レーンを検出すると共に、検出した直線データに基づく射影変換の結果に基づいて、路面上における車両の位置を特定している。
特開2005−148784号公報
2. Description of the Related Art In recent years, various driving assistance devices that specify the position of a vehicle on a road surface and perform automatic traveling control of the traveling vehicle, driving assistance control of a driver, and the like have been proposed.
As an apparatus for specifying the position of the vehicle on the road surface, for example, there is an apparatus disclosed in Patent Document 1. In the apparatus disclosed in Patent Document 1, straight line data, for example, straight line data indicating a white line drawn on a road surface is detected in a captured image obtained by imaging a road surface with a camera or the like, and based on the detected straight line data. In addition, the travel lane in which the vehicle travels is detected, and the position of the vehicle on the road surface is specified based on the result of the projective transformation based on the detected straight line data.
JP 2005-148784 A

カメラによる路面の撮像により得られる撮像画像では、車両から離れて遠くにある路面領域(車両遠方の路面領域)の方が、車両の近くにある路面領域(車両近傍の路面領域)よりも、狭い画素範囲で表示されることになる。そのため、車両遠方の領域において検出される直線データの方が、車両近傍の領域において検出される直線データよりも情報量が少なく、また誤差を含み易い傾向にある。
上記した特許文献1にかかる装置では、車両(カメラ)からの距離の違いによる影響を考慮せず、車両近傍と車両遠方とを等価に扱って直線データの検出を行っているため、検出された直線データは誤差を含み易い。そのため、例えば路面に描かれた白線を示す直線データは、正確性を欠く虞があり、かかる直線データに基づいて走行レーンの検出を行っても、検出された走行レーンが正確でない可能性がある。
In the captured image obtained by imaging the road surface with the camera, the road surface area far away from the vehicle (the road surface area far from the vehicle) is narrower than the road surface area near the vehicle (the road surface area near the vehicle). It is displayed in the pixel range. For this reason, straight line data detected in an area far from the vehicle has a smaller amount of information and tends to contain errors than straight line data detected in an area near the vehicle.
In the apparatus according to Patent Document 1 described above, the detection is performed because linear data is detected by treating the vicinity of the vehicle and the distance from the vehicle equivalently without considering the influence of the difference in distance from the vehicle (camera). Straight line data is likely to contain errors. For this reason, for example, straight line data indicating a white line drawn on the road surface may lack accuracy, and even if a travel lane is detected based on such straight line data, the detected travel lane may not be accurate. .

よって、本発明は、車両からの距離の違いによる影響を考慮した上で、撮像画像において路面上に描かれた白線を精度良く検出し、検出した白線を示す正確なデータを得ることができるようにすることを目的とする。   Therefore, the present invention can accurately detect the white line drawn on the road surface in the captured image in consideration of the influence due to the difference in the distance from the vehicle, and can obtain accurate data indicating the detected white line. The purpose is to.

本発明は、車両に搭載されて周囲の路面を撮像するカメラにより得られた路面の撮像画像を、路面を直上方向から見た俯瞰画像に変換し、俯瞰画像において、路面に描かれた白線を示す画素の候補である白線候補画素を複数検索し、検索された複数の白線候補画素から近似直線を求め、求めた近似直線に基づいて白線を検出するに際し、撮像画像を俯瞰画像に変換する際に生じる誤差の影響を除外するように白線候補画素の重み付けを調整する構成とした。   The present invention converts a picked-up image of a road surface obtained by a camera that is mounted on a vehicle and picks up a surrounding road surface into an overhead image obtained by viewing the road surface from directly above, and in the overhead image, a white line drawn on the road surface is converted. When searching for a plurality of white line candidate pixels that are candidates for the pixel shown, obtaining an approximate line from the searched white line candidate pixels, and detecting a white line based on the obtained approximate line, when converting a captured image to an overhead image The weight of white line candidate pixels is adjusted so as to exclude the influence of errors occurring in the white line.

本発明によれば、白線候補画素の各々について、撮像画像を俯瞰画像に変換する際に生じる誤差の影響を除外するように白線候補画素の重み付けが調整されるので、重み付け調整後の白線候補画素から算出した近似直線に基づいて、俯瞰画像内における白線が検出される。
ここで、撮像画像を俯瞰画像へ変換する際に生じる誤差とは、カメラ(車両)からの離間距離の違いに応じて、撮像画像や俯瞰画像を構成する各画素が有する誤差や、カメラのレンズ系の特徴に起因する固有の誤差を意味し、これらの誤差による影響を除外した上で、白線が検出されることになる。
よって、カメラからの距離の違いによる誤差の影響を除外した上で、白線が検出されるので、路面上に描かれた駐車枠の区切り線のような白線を精度良く検出でき、検出した白線を示す正確なデータを得ることができる。
According to the present invention, for each of the white line candidate pixels, the weight of the white line candidate pixel is adjusted so as to exclude the influence of the error that occurs when the captured image is converted into a bird's-eye view image. Based on the approximate straight line calculated from the above, a white line in the overhead image is detected.
Here, an error that occurs when a captured image is converted into a bird's-eye view image is an error that each pixel constituting the captured image or the bird's-eye image has, according to the difference in the distance from the camera (vehicle), or the camera lens This means an error inherent to the characteristics of the system, and a white line is detected after removing the influence of these errors.
Therefore, since the white line is detected after removing the influence of the error due to the difference in distance from the camera, it is possible to accurately detect the white line such as the parking frame demarcation line drawn on the road surface. Accurate data can be obtained.

以下、本発明の実施例を、添付図面を参照しながら説明する。
図1は、第1の実施例にかかる白線検出装置を、車両の駐車支援を行う駐車支援装置に適用した場合の構成を示すブロック図である。
駐車支援装置は、カメラCと、記憶部10と、制御部20と、表示部30とを含んで構成され、カメラCの撮像画像を俯瞰画像に変換して表示部30に表示すると共に、変換された俯瞰画像より路面上に描かれた白線を検出し、検出した白線も表示部30に表示する。この駐車支援装置において、カメラCと、記憶部10と、制御部20とが白線検出装置に相当する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.
FIG. 1 is a block diagram illustrating a configuration when the white line detection device according to the first embodiment is applied to a parking support device that supports parking of a vehicle.
The parking assistance device is configured to include a camera C, a storage unit 10, a control unit 20, and a display unit 30, and converts a captured image of the camera C into a bird's-eye view image and displays it on the display unit 30. A white line drawn on the road surface is detected from the overhead image thus displayed, and the detected white line is also displayed on the display unit 30. In this parking assistance device, the camera C, the storage unit 10, and the control unit 20 correspond to a white line detection device.

カメラCは、例えば、その指向方向が路面(地面)に対して所定角度となるように車両に設けられたカラーCCDカメラである。本実施例では、広い範囲の撮像が可能な魚眼カメラが、カメラCとして採用される。
カメラCの配置を示す図2に示すように、車両の前端には、前方領域を撮像する前カメラC1が、車両の右側のドアミラーの下部には、右側領域を撮像する右カメラC2が、車両の左側のドアミラーの下部には、左側領域を撮像する左カメラC3が、車両の後端には、後方領域を撮像する後カメラC4が、それぞれ設けられている。
なお、以下の説明においては、これらカメラ(C1〜C4)を特に区別しない場合は、単にカメラCと表記する。
The camera C is, for example, a color CCD camera provided on the vehicle so that its directing direction is a predetermined angle with respect to the road surface (ground). In this embodiment, a fish-eye camera capable of capturing a wide range is employed as the camera C.
As shown in FIG. 2 showing the arrangement of the camera C, a front camera C1 that images the front area is located at the front end of the vehicle, and a right camera C2 that images the right area is located below the right side door mirror of the vehicle. A left camera C3 for imaging the left area is provided below the left side door mirror, and a rear camera C4 for imaging the rear area is provided at the rear end of the vehicle.
In the following description, when these cameras (C1 to C4) are not particularly distinguished, they are simply referred to as camera C.

記憶部10は、RAM、ROMなどの記憶媒体から構成され、撮像画像や、後記する制御部20の各部における処理により生成される種々の情報や、各部の処理を規定するプログラムを記憶する。
図1に示すように、記憶部10は、画像メモリ11と、変換マップ12と、白線候補画素データベース13と、白線パラメータデータベース14とを備える。
The storage unit 10 includes a storage medium such as a RAM and a ROM, and stores a captured image, various information generated by processing in each unit of the control unit 20 described later, and a program that defines processing of each unit.
As illustrated in FIG. 1, the storage unit 10 includes an image memory 11, a conversion map 12, a white line candidate pixel database 13, and a white line parameter database 14.

画像メモリ11は、カメラCにより得られる撮像画像を記憶する。
変換マップ12では、各カメラCから入力される撮像画像の各画素と後記する俯瞰画像の各画素との対応関係が規定されると共に、俯瞰画像の画素毎の、撮像画像を俯瞰画像へ変換する際に生じる誤差の程度が規定される。この変換マップ12は、後記する制御部20において、撮像画像を俯瞰画像に変換する際や、白線を検出する際に参照される。
白線候補画素データベース13は、制御部20における処理により俯瞰画像において検索される白線候補画素の位置を示す情報を記憶する。
白線パラメータデータベース14は、制御部20における処理により検出される白線の位置を示す情報を記憶する。
The image memory 11 stores a captured image obtained by the camera C.
In the conversion map 12, a correspondence relationship between each pixel of the captured image input from each camera C and each pixel of the overhead image described later is defined, and the captured image for each pixel of the overhead image is converted into an overhead image. The degree of error that occurs is defined. The conversion map 12 is referred to when a captured image is converted into a bird's-eye view image or when a white line is detected in the control unit 20 described later.
The white line candidate pixel database 13 stores information indicating the position of the white line candidate pixel searched for in the overhead view image by the processing in the control unit 20.
The white line parameter database 14 stores information indicating the position of the white line detected by the processing in the control unit 20.

制御部20は、画像変換部21と、白線候補画素検索部22と、白線検出部23とを備えて構成される。
画像変換部21は、車両の周囲の路面を撮像して得られた撮像画像を、記憶部10に記憶された変換マップ12を参照して、路面を真上方向から見た俯瞰画像に変換する。
The control unit 20 includes an image conversion unit 21, a white line candidate pixel search unit 22, and a white line detection unit 23.
The image conversion unit 21 converts a captured image obtained by imaging a road surface around the vehicle with reference to the conversion map 12 stored in the storage unit 10 into an overhead image when the road surface is viewed from directly above. .

白線候補画素検索部22は、路面に描かれた白線の領域を俯瞰画像において検出するために、路面に描かれた白線を示す画素の候補(白線候補画素)を、俯瞰画像において検索し、検索した白線候補画素の位置を示す情報を生成する。   The white line candidate pixel search unit 22 searches a bird's-eye view image for a candidate for a white line drawn on the road surface (white line candidate pixel) in order to detect a white line region drawn on the road surface in the bird's-eye view image. Information indicating the position of the white line candidate pixel is generated.

白線検出部23は、白線候補画素の位置情報に基づいて、モデル当てはめによる白線検出を行う。さらに、検出した白線の俯瞰画像内における位置を示す情報を表示部30に出力して、表示部30内に検出した白線を表示させる。   The white line detection unit 23 performs white line detection by model fitting based on the position information of the white line candidate pixels. Further, information indicating the position of the detected white line in the overhead image is output to the display unit 30, and the detected white line is displayed in the display unit 30.

実施例にかかる駐車支援装置における処理を、図3に示すフローチャートを参照して説明する。
ステップ100において、カメラCにより車両の周囲の路面の撮像画像が取得されると、ステップ101において画像変換部21は、変換マップ12を参照して、路面の撮像画像を、路面を真上方向から見た俯瞰画像に変換する。
The process in the parking assistance apparatus concerning an Example is demonstrated with reference to the flowchart shown in FIG.
In step 100, when a captured image of the road surface around the vehicle is acquired by the camera C, in step 101, the image conversion unit 21 refers to the conversion map 12 and displays the captured image of the road surface from the direction directly above the road surface. Convert to a bird's-eye view image.

図4は、画像変換部21が、各カメラC(C1〜C4)から入力される撮像画像から生成する俯瞰画像を説明する説明図である。
車両Vには、計四台のカメラC(C1〜C4)が設けられているので(図2参照)、画像変換部21は、各カメラC(C1〜C4)から入力される撮像画像をそれぞれ変換して俯瞰画像を生成する。そして、得られた4つの俯瞰画像を合成し、予め記憶しておいた車両を示すマークVを重畳(インポーズ)して画像の中央部に位置させた俯瞰画像とする。
なお、以下の説明において、この車両マークVは、インポーズされたマークそのものと、実際の車両を模式的に現す際にも、「車両マークV」として表現することもある。
FIG. 4 is an explanatory diagram illustrating an overhead image generated by the image conversion unit 21 from captured images input from the cameras C (C1 to C4).
Since the vehicle V is provided with a total of four cameras C (C1 to C4) (see FIG. 2), the image conversion unit 21 receives captured images input from the cameras C (C1 to C4), respectively. Convert to generate an overhead image. Then, the obtained four bird's-eye images are synthesized and a pre-stored mark V indicating the vehicle is superimposed (imposed) to obtain a bird's-eye view image positioned at the center of the image.
In the following description, the vehicle mark V may be expressed as a “vehicle mark V” when the imposed mark itself and the actual vehicle are schematically shown.

俯瞰画像では、車両マークVを中心にして、前カメラC1からの撮像画像の変換により得られる俯瞰画像IM1が、車両Vの進行方向前側に、右カメラC2からの撮像画像の変換により得られる俯瞰画像IM2が、車両Vの進行方向右側に、左カメラC3からの撮像画像の変換により得られる俯瞰画像IM3が、車両Vの進行方向左側に、そして後カメラC4からの撮像画像の変換により得られる俯瞰画像IM4が車両Vの進行方向後側に、それぞれ配置される。   In the bird's-eye view image, the bird's-eye view image IM1 obtained by converting the captured image from the front camera C1 with the vehicle mark V as the center is located on the front side in the traveling direction of the vehicle V and obtained by converting the captured image from the right camera C2. An image IM2 is obtained on the right side in the traveling direction of the vehicle V, and an overhead image IM3 obtained by conversion of the captured image from the left camera C3 is obtained on the left side in the traveling direction of the vehicle V and by conversion of the captured image from the rear camera C4. The bird's-eye view image IM4 is arranged on the rear side in the traveling direction of the vehicle V, respectively.

図5は、変換マップ12において、撮像画像の各画素と俯瞰画像の各画素とがどのように関連づけて記憶されているのかを説明するために、左カメラC3で取得した撮像画像Mを俯瞰画像IM3に変換する場合を例示した図である。
変換マップ12では、各カメラCから入力される撮像画像の各画素と、俯瞰画像の画素との対応関係が規定されており、例えば、左カメラC3で取得した撮像画像Mの場合、撮像画像Mにおける画素aが、俯瞰画像IM3における符号a’で示す位置の画素に対応するというような対応関係が規定されている。
よって、画像変換部21は、各カメラCから撮像画像がそれぞれ入力されると、変換マップ12において規定される対応関係に基づいて、各撮像画像から俯瞰画像(図4参照)を生成する。
FIG. 5 shows the captured image M acquired by the left camera C3 in the overhead map in order to explain how each pixel of the captured image and each pixel of the overhead image are stored in the conversion map 12 in association with each other. It is the figure which illustrated the case where it converts into IM3.
In the conversion map 12, the correspondence between each pixel of the captured image input from each camera C and the pixel of the overhead image is defined. For example, in the case of the captured image M acquired by the left camera C3, the captured image M A correspondence relationship is defined such that the pixel a corresponds to the pixel at the position indicated by the symbol a ′ in the overhead image IM3.
Therefore, when each captured image is input from each camera C, the image conversion unit 21 generates an overhead image (see FIG. 4) from each captured image based on the correspondence defined in the conversion map 12.

ステップ102において、白線候補画素検索部22は、路面に描かれた白線を検出するために、俯瞰画像において、路面に描かれた白線を示す画素の候補である白線候補画素を検索し、検索した白線候補画素の位置を示す情報を生成する。   In step 102, the white line candidate pixel search unit 22 searches for and searches for a white line candidate pixel that is a candidate for a pixel indicating a white line drawn on the road surface in the overhead image in order to detect the white line drawn on the road surface. Information indicating the position of the white line candidate pixel is generated.

なお、各俯瞰画像IM1〜IM4(図4参照)で白線候補画素を検索する際の処理の内容は同じであるので、以下の説明においては、俯瞰画像IM3内での白線候補画素の検索処理を例示する。
図6は、俯瞰画像IM3内での白線候補画素の検索を説明する説明図である。
白線候補画素検索部22は、1次微分などのエッジ検出フィルタを用いて、エッジ強度が所定の閾値以上となるエッジを俯瞰画像において検索し、検索結果に基づいてエッジ画像を生成する。
そして、カメラC3の中心軸を基準線Sとし、基準線S上において、複数の基準点d1〜d7を、車両マークV側から所定の間隔をあけて順次設定する。
続いて、各基準点d1〜d7において基準線Sと直交する仮想線L1〜L7の各々に沿って、基準線Sを境にして隣接する二つの領域、すなわち車両の前側に位置する前側領域Fと後側に位置する後側領域Rの各々において、エッジを検索し、エッジが検索されると、エッジが検出された位置にある画素を、白線候補画素とする。
In addition, since the content of the process at the time of searching a white line candidate pixel in each bird's-eye view image IM1-IM4 (refer FIG. 4) is the same, in the following description, the search process of the white line candidate pixel in the bird's-eye view image IM3 is performed. Illustrate.
FIG. 6 is an explanatory diagram for explaining the search for white line candidate pixels in the overhead image IM3.
The white line candidate pixel search unit 22 uses an edge detection filter such as first-order differentiation to search for an edge having an edge strength equal to or higher than a predetermined threshold in the overhead image, and generates an edge image based on the search result.
Then, the central axis of the camera C3 is set as a reference line S, and a plurality of reference points d1 to d7 are sequentially set on the reference line S with a predetermined interval from the vehicle mark V side.
Subsequently, along each of the virtual lines L1 to L7 orthogonal to the reference line S at each of the reference points d1 to d7, two areas adjacent to the reference line S, that is, a front area F located on the front side of the vehicle. In each of the rear regions R located on the rear side, the edge is searched. When the edge is searched, the pixel at the position where the edge is detected is set as a white line candidate pixel.

仮想線L2〜L6は、路面に描かれた白線Wと交差しているので、これら仮想線L2〜L6上においてエッジが検出される。その結果、前側領域Fにおいて白線候補画素P2〜P6が、後側領域Rにおいて白線候補画素P2’〜P6’がそれぞれ検出される。なお、仮想線L1とL7は、白線Wと交差しておらず、エッジは検出されないので、白線候補画素は検出されない。   Since the virtual lines L2 to L6 intersect the white line W drawn on the road surface, edges are detected on these virtual lines L2 to L6. As a result, white line candidate pixels P2 to P6 are detected in the front region F, and white line candidate pixels P2 'to P6' are detected in the rear region R, respectively. Note that the virtual lines L1 and L7 do not intersect with the white line W, and no edge is detected, so no white line candidate pixel is detected.

白線候補画素が検出されると、白線候補画素検索部22は、前側領域Fにおいて検索された白線候補画素P2〜P6を纏めて第1候補画素列とし、後側領域Rにおいて検索された白線候補画素P2’〜P6’を纏めて第2候補画素列とする。
この際、白線候補画素検索部22は、第1候補画素列の各白線候補画素と、第2候補画素列の各白線候補画素の位置を示す位置情報を生成し、記憶部10の白線候補画素データベース13に記憶する。
When the white line candidate pixels are detected, the white line candidate pixel search unit 22 collectively sets the white line candidate pixels P2 to P6 searched in the front area F as the first candidate pixel row, and searches for the white line candidates searched in the rear area R. The pixels P2 ′ to P6 ′ are collectively set as the second candidate pixel row.
At this time, the white line candidate pixel search unit 22 generates position information indicating the position of each white line candidate pixel in the first candidate pixel column and each white line candidate pixel in the second candidate pixel column, and the white line candidate pixel in the storage unit 10 Store in the database 13.

ステップ103において、白線検出部23は、変換マップ12を参照して、白線候補画素各々について、撮像画像を俯瞰画像に変換する際に生じる誤差の程度を特定する。
変換マップ12では、撮像画像の各画素と俯瞰画像の各画素との対応関係に加えて、俯瞰画像の画素ごとに、撮像画像を俯瞰画像へ変換する際に生じる誤差が、どの程度であるのかが判るようになっている。
ここで、撮像画像を俯瞰画像へ変換する際に生じる誤差とは、車両(カメラ)からの離間距離の違いに応じて撮像画像や俯瞰画像を構成する各画素が有する誤差や、カメラのレンズ系の特徴に起因する固有の誤差を意味する。
In step 103, the white line detection unit 23 refers to the conversion map 12 and specifies the degree of error that occurs when converting the captured image into an overhead image for each of the white line candidate pixels.
In the conversion map 12, in addition to the correspondence between each pixel of the captured image and each pixel of the overhead image, how much error occurs when converting the captured image to the overhead image for each pixel of the overhead image Can be understood.
Here, the error that occurs when a captured image is converted into a bird's-eye view image is an error that each pixel constituting the captured image or the bird's-eye image has according to the difference in the distance from the vehicle (camera), or the lens system of the camera. Inherent error due to the characteristics of

図7は、俯瞰画像の各画素の誤差の程度を説明する説明図である。
俯瞰画像の各画素が含む誤差は、カメラのレンズの種類や、カメラからの距離に応じて決まり、各画素が含む誤差の程度は、同一のカメラを使用する限り略同一である。
よって、俯瞰画像を構成する画素ごとに、俯瞰画像への変換時に生じる誤差がどの程度であるのを予め確認することができ、確認した誤差の程度を俯瞰画像の画素毎に判るようにしたのが、変換マップ12である。
変換マップ12では、俯瞰画像の各画素の誤差の程度が、画素の輝度の違いとして記憶されており、誤差が大きい画素ほど、輝度が小さく(画素の明るさが暗く)なるように規定されている。
図7に示す俯瞰画像の場合、車両V(カメラ)から離れるに従って誤差の程度が大きくなる様子が、4段階の輝度で示されており、領域a>領域b>領域c>領域dの順番で、輝度が小さくなる。
FIG. 7 is an explanatory diagram illustrating the degree of error of each pixel of the overhead image.
The error included in each pixel of the overhead image is determined according to the type of lens of the camera and the distance from the camera, and the error included in each pixel is substantially the same as long as the same camera is used.
Therefore, it is possible to confirm in advance how much error occurs when converting to the overhead image for each pixel constituting the overhead image, and the degree of the confirmed error can be determined for each pixel of the overhead image. Is the conversion map 12.
In the conversion map 12, the degree of error of each pixel of the overhead image is stored as a difference in luminance of the pixel, and it is specified that the luminance is smaller (the pixel is darker) as the error is larger. Yes.
In the case of the bird's-eye view image shown in FIG. 7, the degree of error increases as the distance from the vehicle V (camera) increases in four levels of brightness, in the order of region a> region b> region c> region d. The brightness is reduced.

ステップ104において、白線検出部23は、白線候補画素検索部22で検索された複数の白線候補画素に基づいて白線検出を行う前に、変換マップ12を参照して特定した誤差の程度に基づいて、各白線候補画素の重み付けを調整する。   In step 104, the white line detection unit 23 performs the white line detection based on the plurality of white line candidate pixels searched by the white line candidate pixel search unit 22, based on the degree of error specified with reference to the conversion map 12. The weight of each white line candidate pixel is adjusted.

複数の白線候補画素に基づいて白線検出を行う場合、最小二乗法により求めた近似直線を用いて白線を検出する。
ここで、最小二乗法により近似直線を求める場合、各白線候補画素の座標を(x、y)で表し、各画素点から導かれる近似直線をy=ax+bとすると、下記式(1)における残差2乗和Sが最小となるa、bを算出することで、近似直線を求めることができる。
When white line detection is performed based on a plurality of white line candidate pixels, a white line is detected using an approximate straight line obtained by the least square method.
Here, when an approximate straight line is obtained by the least square method, the coordinates of each white line candidate pixel are represented by (x i , y i ), and the approximate straight line derived from each pixel point is y = ax + b. By calculating a and b that minimize the residual sum of squares S, an approximate straight line can be obtained.

Figure 2009009331
Figure 2009009331

しかし、各白線候補画素は、画素位置に応じた誤差を含んでおり、誤差を含む白線候補画素に基づいて近似直線を算出すると、算出した近似直線もまた誤差を含むことになる。
そこで、白線検出部23は、誤差の程度が大きい画素位置にある白線候補画素が近似直線の算出に与える影響を抑えるために、近似直線を求める際に各白線候補画素について算出される二乗誤差に、誤差の程度に応じて決定した係数αを乗算することで、誤差の程度に応じた重み付けの調整を行う。
具体的には、誤差の程度が大きい白線候補画素ついて算出される二乗誤差の重み付けが、誤差の程度に応じて小さくなるように係数αを決定する。
However, each white line candidate pixel includes an error corresponding to the pixel position, and when an approximate line is calculated based on the white line candidate pixel including the error, the calculated approximate line also includes an error.
Therefore, the white line detection unit 23 determines the square error calculated for each white line candidate pixel when obtaining the approximate line in order to suppress the influence of the white line candidate pixel at the pixel position where the degree of error is large on the calculation of the approximate line. By multiplying the coefficient α i determined according to the degree of error, the weighting is adjusted according to the degree of error.
Specifically, the coefficient α i is determined so that the weight of the square error calculated for the white line candidate pixel having a large error level is reduced according to the error level.

図8は、誤差の程度に応じて決定される係数αを説明する説明図である。この図においては、白線候補画素P1〜P10が俯瞰画像において検索されており、図中左側に位置する画素ほど誤差が大きく、右側に位置する画素ほど誤差が小さいものとし、図中右側に車両マークV(図示せず)が位置するものとする。また、白線候補画素の座標は(x、y)で表すものとし、例えば白線候補画素P1は座標(xP1、yP1)と、白線候補画素P10は座標(xP10、yP10)と表わされるものとする。 FIG. 8 is an explanatory diagram for explaining the coefficient α i determined according to the degree of error. In this figure, white line candidate pixels P1 to P10 are searched in the bird's-eye view image. The pixel located on the left side in the figure has a larger error and the pixel located on the right side has a smaller error. Assume that V (not shown) is located. The coordinates of the white line candidate pixel are represented by (x i , y i ). For example, the white line candidate pixel P1 has the coordinates (x P1 , y P1 ), and the white line candidate pixel P10 has the coordinates (x P10 , y P10 ). Shall be represented.

例えば、白線候補画素P10が、白線候補画素P1と比べて3倍の誤差を持つ場合、白線検出部23は、誤差の小さい白線候補画素P1についての係数をαP1=1とし、白線候補画素P10についての係数をαP10=1/3と設定して、誤差の程度が大きい白線候補画素の重み付けが、誤差の程度が小さい白線候補画素よりも、誤差の程度に応じて小さくなるようにする。同様に、他の白線候補画素P2〜P9についても、誤差の程度に応じて係数が決定される。 For example, when the white line candidate pixel P10 has an error three times that of the white line candidate pixel P1, the white line detection unit 23 sets the coefficient for the white line candidate pixel P1 with a small error to α P1 = 1 and sets the white line candidate pixel P10. Is set to α P10 = 1/3 so that white line candidate pixels having a large degree of error are weighted according to the degree of error, compared with white line candidate pixels having a small degree of error. Similarly, coefficients are determined for the other white line candidate pixels P2 to P9 according to the degree of error.

ステップ105において、白線検出部23は、重み付け調整後の白線候補画素から、最小二乗法により近似直線を求める。
具体的には、白線候補画素データベース13を参照して特定した各白線候補画素の位置と、各白線候補画素について決定された係数αとに基づいて、上記式(1)に係数αを導入した下記式(2)に基づいて、近似直線を算出する。
In step 105, the white line detection unit 23 obtains an approximate straight line from the white line candidate pixels after the weight adjustment by the least square method.
Specifically, the position of each white line candidate pixels identified with reference to the white line candidate pixel database 13, based on the coefficient alpha i determined for each candidate white pixels, the coefficients alpha i in Equation (1) An approximate straight line is calculated based on the introduced formula (2).

Figure 2009009331
Figure 2009009331

これにより、図8に示す俯瞰画像の場合、誤差の程度に応じて重み付けが調整された白線候補画素に基づいて、近似直線ALが算出される。
図9は、図6の俯瞰画像IM3において検索された白線候補画素からの近似直線の算出を説明する説明図である
図6に示す俯瞰画像IM3の場合、前側領域Fと後側領域Rとにおいて、第1候補画素列と第2候補画素列とがそれぞれ検索されているので、図9に示す前側領域F内の白線候補画素P2〜P6からは符号AL1で示す近似直線が、後側領域R内の白線候補画素P1’〜P6’からは符号AL2で示す近似直線が、それぞれ算出される。
Thereby, in the case of the bird's-eye view image shown in FIG. 8, the approximate straight line AL is calculated based on the white line candidate pixels whose weighting is adjusted according to the degree of error.
FIG. 9 is an explanatory diagram for explaining the calculation of the approximate straight line from the white line candidate pixels searched in the bird's-eye view image IM3 of FIG. 6, in the case of the bird's-eye view image IM3 shown in FIG. Since the first candidate pixel column and the second candidate pixel column are respectively searched, the approximate straight line indicated by the reference symbol AL1 from the white line candidate pixels P2 to P6 in the front region F shown in FIG. From the white line candidate pixels P1 ′ to P6 ′, an approximate straight line indicated by symbol AL2 is calculated.

ステップ106において、白線検出部23は、近似直線が算出されると、車両Vに最も近い位置にある白線候補画素に対応する近似直線の上の位置と、車両Vから最も遠い位置にある白線候補画素に対応する近似直線の上の位置とを、それぞれ白線の端点とし、近似直線の2つの端点で挟まれた範囲を、白線として検出する。
そして、これら端点の位置を示す情報と、近似直線の位置や傾きを示す情報とに基づいて、検出した白線の俯瞰画像内における位置を特定する情報(白線パラメータ)を生成し、表示部30に出力する。
In step 106, when the approximate line is calculated, the white line detection unit 23 calculates a position on the approximate line corresponding to the white line candidate pixel closest to the vehicle V and a white line candidate positioned farthest from the vehicle V. The position on the approximate line corresponding to the pixel is set as the end point of the white line, and the range between the two end points of the approximate line is detected as the white line.
Then, based on the information indicating the positions of these end points and the information indicating the position and inclination of the approximate straight line, information (white line parameter) for specifying the position of the detected white line in the overhead image is generated and displayed on the display unit 30. Output.

図8に示す白線候補画素P1〜P10の場合、近似直線ALの、白線候補画素P1に対応する端点E1と、白線候補画素P10に対応する端点E2とで挟まれた範囲が、白線として検出される。そして、端点E1、E2の位置を示す情報と、近似直線ALの位置と傾きとを示す情報とから、白線パラメータが生成され、表示部30に出力される。   In the case of the white line candidate pixels P1 to P10 shown in FIG. 8, the range between the end point E1 corresponding to the white line candidate pixel P1 and the end point E2 corresponding to the white line candidate pixel P10 of the approximate straight line AL is detected as a white line. The Then, white line parameters are generated from the information indicating the positions of the end points E1 and E2 and the information indicating the position and inclination of the approximate straight line AL and output to the display unit 30.

ちなみに、図9に示す俯瞰画像IM3の場合、近似直線AL1の白線候補画素P2と白線候補画素P6とで挟まれた範囲と、近似直線AL2の白線候補画素P2’と白線候補画素P6’とで挟まれた範囲とが、それぞれ白線として検出される。   In the case of the overhead image IM3 shown in FIG. 9, the range between the white line candidate pixel P2 and the white line candidate pixel P6 of the approximate line AL1 and the white line candidate pixel P2 ′ and the white line candidate pixel P6 ′ of the approximate line AL2 Each sandwiched area is detected as a white line.

表示部30では、車両の周囲の路面において検出された白線が表示される。
図9に示す俯瞰画像IMでは、白線AL1、AL2が検出されているので、駐車支援装置の図示しない駐車支援制御では、これら白線の位置を示す白線パラメータから、車両Vから白線AL1、AL2の各々までの距離や、隣接する白線AL1、AL2の離間距離を特定できる。
よって、特定された白線の位置などに基づいて、車両の駐車支援用の誘導などの駐車支援を行うことができる。
The display unit 30 displays white lines detected on the road surface around the vehicle.
In the bird's-eye view image IM shown in FIG. 9, since the white lines AL1 and AL2 are detected, in the parking assistance control (not shown) of the parking assistance device, from the white line parameters indicating the positions of these white lines, from the vehicle V to the white lines AL1 and AL2 respectively. And the distance between the adjacent white lines AL1 and AL2.
Therefore, parking assistance such as guidance for parking assistance of the vehicle can be performed based on the position of the identified white line.

ここで、実施例におけるステップ101が、発明における画像変換部に相当し、ステップ102が、白線候補画素検索部に相当し、ステップ103からステップ106が、白線検出部に相当する。また、実施例における変換マップ12が発明における誤差マップに相当する。   Here, Step 101 in the embodiment corresponds to the image conversion unit in the invention, Step 102 corresponds to the white line candidate pixel search unit, and Step 103 to Step 106 correspond to the white line detection unit. The conversion map 12 in the embodiment corresponds to the error map in the invention.

以上の通り、本実施例では、画像変換部21が、車両に搭載されて車両の周囲の路面を撮像するカメラCにより得られた路面の撮像画像を、路面を真上方向から見た俯瞰画像に変換し、白線候補画素検索部22が、俯瞰画像において路面に描かれた白線を示す画素の候補である白線候補画素を複数検索し、白線検出部23が、検索された複数の白線候補画素から近似直線を求める際に、撮像画像を俯瞰画像に変換する際に生じる誤差の程度を示す変換マップ12を参照して特定した白線候補画素各々の誤差の程度に基づいて、誤差の影響を除外するように白線候補画素の重み付けを調整し、重み付け調整後の白線候補画素から求めた近似直線に基づいて、白線を検出する構成とした。
これにより、カメラからの距離の違いによる誤差などの影響が除外された上で、白線が検出されるので、路面上に描かれた駐車枠の区切り線のような白線を精度良く検出でき、検出した白線を示す正確なデータを得ることができる。
また、変換マップ12を参照することで、俯瞰画像における誤差の程度を簡単に確認することができるので、白線検出を迅速に行うことができる。
As described above, in this embodiment, the image conversion unit 21 is a bird's-eye view image of a road surface image obtained by the camera C that is mounted on a vehicle and images a road surface around the vehicle when the road surface is viewed from directly above. The white line candidate pixel search unit 22 searches for a plurality of white line candidate pixels that are candidates for the pixel indicating the white line drawn on the road surface in the overhead image, and the white line detection unit 23 searches for the plurality of white line candidate pixels that have been searched. When an approximate straight line is obtained from the image, the influence of the error is excluded based on the degree of error of each white line candidate pixel specified with reference to the conversion map 12 indicating the degree of error that occurs when the captured image is converted into an overhead image. Thus, the weight of the white line candidate pixel is adjusted, and the white line is detected based on the approximate straight line obtained from the white line candidate pixel after the weight adjustment.
This eliminates the effects of errors due to differences in distance from the camera, and the white line is detected, so it is possible to accurately detect and detect a white line such as a parking frame separation line drawn on the road surface. It is possible to obtain accurate data indicating the white line.
Further, by referring to the conversion map 12, the degree of error in the overhead view image can be easily confirmed, so that white line detection can be performed quickly.

さらに、白線検出部23が、誤差の程度が大きい程、重み付けを低減する方向に調整する構成とした。
これにより、誤差の程度が大きい白線候補画素ほど、重み付けが小さくなるように調整されるので、近似直線の算出にあたり、誤差が大きい可能性のある白線候補画素の影響を抑えることができる。よって、路面上に描かれた白線を精度良く検出でき、検出した白線を示す正確なデータを得ることができる。
Furthermore, the white line detection unit 23 is configured to adjust in a direction of reducing the weighting as the degree of error is larger.
As a result, the white line candidate pixels having a larger degree of error are adjusted so that the weight is reduced. Therefore, in calculating the approximate straight line, it is possible to suppress the influence of the white line candidate pixels that may have a large error. Therefore, the white line drawn on the road surface can be detected with high accuracy, and accurate data indicating the detected white line can be obtained.

さらに、白線検出部23は、複数の白線候補画素から、最小二乗法により近似直線を求めると共に、近似直線を求める際に各白線候補画素について算出される二乗誤差の値に、誤差の程度に応じて決まる係数αを乗算することで、各白線候補画素の誤差の程度に応じた重み付けの調整をする構成とし、特に、誤差の程度が大きい白線候補画素ついて算出される二乗誤差の重み付けが、誤差の程度に応じて小さくなるように係数αを決定する構成とした。
これにより、誤差の程度が大きい白線候補画素が近似直線の算出に与える影響を抑えることができる。また、検出された白線候補画素の総てを用いて、近似直線の算出と白線の検出とが行えるので、白線検出の精度を向上させることができる。
Further, the white line detection unit 23 obtains an approximate line from a plurality of white line candidate pixels by the least square method, and the square error value calculated for each white line candidate pixel when obtaining the approximate line according to the degree of error. By multiplying the coefficient α i determined in accordance with the above, the weighting adjustment according to the degree of error of each white line candidate pixel is made, and in particular, the weighting of the square error calculated for the white line candidate pixel having a large degree of error is The coefficient α i is determined so as to be small according to the degree of error.
Thereby, it is possible to suppress the influence of white line candidate pixels having a large degree of error on the calculation of the approximate line. In addition, since the approximate straight line can be calculated and the white line can be detected using all the detected white line candidate pixels, the accuracy of the white line detection can be improved.

さらに、俯瞰画像では、画像の中央部に位置する車両マークVを取り囲むように、車両の周囲の画像が配置されている構成としたので、より広い範囲の路面領域において白線を同時に検出することができる。   Furthermore, in the bird's-eye view image, since the image around the vehicle is arranged so as to surround the vehicle mark V located in the center of the image, white lines can be detected simultaneously in a wider road surface area. it can.

特に、俯瞰画像において、カメラCの中心軸を基準線Sとし、基準線を境にして隣接する二つの領域の各々において白線を検索する構成としたので、路面上に描かれた白線の中で、例えば車両の駐車枠を規定する二本の平行に描かれた白線を検出することができる。
よって、撮像画像内において白線の出現する位置や白線の延出する方向を予め予測することが困難であるために、従来の装置では検出が困難であった駐車枠を区画する白線を精度良く検出することができる。
In particular, in the bird's-eye view image, the center line of the camera C is set as the reference line S, and the white line is searched in each of the two adjacent areas with the reference line as a boundary. Therefore, among the white lines drawn on the road surface, For example, two parallel white lines that define a parking frame of a vehicle can be detected.
Therefore, since it is difficult to predict in advance the position where the white line appears in the captured image and the direction in which the white line extends, it is possible to accurately detect the white line defining the parking frame, which was difficult to detect with conventional devices. can do.

さらに、撮像画像を俯瞰画像へ変換する際に生じる誤差を規定する変換マップ12により、カメラのレンズ系の特徴に起因する固有の誤差も判るようになっているので、例えば、カメラとして魚眼カメラを採用した場合に生じる画像歪みによる誤差の影響も除外でき、より精度良く白線を検出することができる。   Furthermore, since a conversion map 12 that defines an error that occurs when a captured image is converted into a bird's-eye view image, an inherent error caused by the characteristics of the lens system of the camera can also be known. It is possible to eliminate the influence of errors caused by image distortion that occurs when adopting, and to detect white lines with higher accuracy.

上記実施例では、近似直線を求める際に各白線候補画素について算出される二乗誤差に乗算する係数αを、特定した誤差の逆数とする場合を例に挙げて説明をしたが、誤差の程度が大きい画素位置にある白線候補画素が近似直線の算出に与える影響を抑えることができる限り、誤差の二乗や平方根の逆数を取るようにしても良い。 In the above embodiment, the case where the coefficient α i that is multiplied by the square error calculated for each white line candidate pixel when obtaining the approximate straight line is described as an example of the reciprocal of the specified error has been described. As long as the influence of the white line candidate pixel at the pixel position having a large value on the calculation of the approximate line can be suppressed, the square of the error or the inverse of the square root may be taken.

上記した実施例の第1の変形例について説明する。
前記実施例にかかる白線検出装置では、最小二乗法により近似直線を求めたが、第1の変形例にかかる白線検出装置では、白線検出部23は、複数の白線候補画素から、主成分分析により求めた近似直線に基づいて、白線を検出する。
この場合、白線検出部23は、白線候補画素の位置情報に基づいて分散共分散行列を算出する際に、変換マップ12を参照して特定した各白線候補画素の誤差の程度に応じて、分散共分散行列の成分の値を補正することで、白線候補画素の重み付けの調整を行う。
A first modification of the above embodiment will be described.
In the white line detection device according to the embodiment, an approximate straight line is obtained by the least square method. However, in the white line detection device according to the first modification, the white line detection unit 23 performs a principal component analysis from a plurality of white line candidate pixels. A white line is detected based on the obtained approximate straight line.
In this case, when calculating the variance covariance matrix based on the position information of the white line candidate pixels, the white line detection unit 23 distributes according to the degree of error of each white line candidate pixel specified with reference to the conversion map 12. The weighting of the white line candidate pixels is adjusted by correcting the values of the components of the covariance matrix.

複数の白線候補画素に基づいて、主成分分析により近似直線を求める場合、各白線候補画素の座標を(x、y)で表し、重心を通る線分をU=ax+byとし、a+b=1の条件のもとで、変量Uの分散S が最大となるa、bを算出することで、近似直線を求めることができる。
この場合、a、bは、下記式(3)に示す分散共分散行列の固有値と、固有ベクトルを求めることで算出できる。
When an approximate straight line is obtained by principal component analysis based on a plurality of white line candidate pixels, the coordinates of each white line candidate pixel are represented by (x i , y i ), the line segment passing through the center of gravity is U = ax + by, and a 2 + b An approximate straight line can be obtained by calculating a and b at which the variance S u 2 of the variable U is maximized under the condition of 2 = 1.
In this case, a and b can be calculated by obtaining eigenvalues and eigenvectors of the variance-covariance matrix shown in the following equation (3).

Figure 2009009331

また、λは分散共分散行列の固有値、S は変量xの分散、S は変量yの分散、Sxyは変量xと変量yの共分散であり、S 、S 、そしてSxyは、それぞれ下記式(4)で表すことができる。
Figure 2009009331

Λ is the eigenvalue of the variance-covariance matrix, S x 2 is the variance of the variable x i , S y 2 is the variance of the variable y i , S xy is the covariance of the variables x i and y i , and S x 2 , S y 2 , and S xy can be represented by the following formula (4), respectively.

Figure 2009009331

しかし、各白線候補画素は、画素位置に応じた誤差を含んでおり、誤差を含む白線候補画素に基づいて近似直線を算出すると、算出した近似直線もまた誤差を含むことになる。
そこで、分散共分散行列を求める際に、白線候補画素(x、y)の誤差の程度を変換マップ12で特定し、誤差の程度が大きい白線候補画素の重み付けが小さくなるように、誤差の程度に応じて係数αを決定し、上記式(4)に係数α導入した下記式(5)に基づいて、分散共分散行列を求めると共に、近似直線を算出する。
なお、係数αの値の設定方法は、上記した最小二乗法の場合と同様である。
Figure 2009009331

However, each white line candidate pixel includes an error corresponding to the pixel position, and when an approximate line is calculated based on the white line candidate pixel including the error, the calculated approximate line also includes an error.
Therefore, when obtaining the variance-covariance matrix, the degree of error of the white line candidate pixel (x i , y i ) is specified by the conversion map 12, and the error is set so that the weight of the white line candidate pixel having a large degree of error is reduced. The coefficient α i is determined according to the degree of the above, and the variance-covariance matrix is obtained and the approximate straight line is calculated based on the following formula (5) in which the coefficient α i is introduced into the formula (4).
Note that the method of setting the value of the coefficient α i is the same as in the case of the least square method described above.

Figure 2009009331
Figure 2009009331

第1の変形例では、白線検出部23は、複数の白線候補画素から、主成分分析により、近似直線を求めると共に、近似直線を求める際に白線候補画素について算出される分散共分散行列の成分の値を、誤差の程度に応じて補正することで、重み付けの調整を行う構成とした。特に、誤差の程度が大きい白線候補画素について算出される分散共分散行列の成分の値が、誤差の程度に応じて小さくなるように、係数αを決定する構成とした。
これにより、誤差の程度が大きい白線候補画素が近似直線の算出に与える影響を抑えることができので、白線の検出を精度良く行うことができる。また、撮像画像の俯瞰画像への変換の際に、入り込む誤差成分の方向が一致しない場合であっても、白線検出の精度の向上を図ることが可能となる。
In the first modification, the white line detection unit 23 obtains an approximate line from a plurality of white line candidate pixels by principal component analysis, and a component of the variance-covariance matrix calculated for the white line candidate pixels when obtaining the approximate line. The weight is adjusted by correcting the value according to the degree of error. In particular, the coefficient α i is determined so that the value of the component of the variance-covariance matrix calculated for the white line candidate pixel with a large degree of error becomes smaller according to the degree of error.
As a result, the influence of white line candidate pixels having a large degree of error on the calculation of the approximate straight line can be suppressed, so that the white line can be detected with high accuracy. In addition, when converting the captured image into an overhead image, it is possible to improve the accuracy of white line detection even when the direction of the error component entering does not match.

次に、第2の変形例について説明する。
第2の変形例にかかる白線検出装置では、白線候補点から複数の近似直線を求め、求めた近似直線をLMedS評価で評価する。そして、求めた複数の近似直線の中で、LMedS評価値が最も小さい近似直線を選択し、選択した近似直線に基づいて白線を検出する。
Next, a second modification will be described.
In the white line detection device according to the second modification, a plurality of approximate lines are obtained from the white line candidate points, and the obtained approximate lines are evaluated by LMedS evaluation. Then, an approximate line with the smallest LMedS evaluation value is selected from the obtained approximate lines, and a white line is detected based on the selected approximate line.

LMedS基準による評価は、「新編 画像解析ハンドブック」(東京大学出版会、735−736頁)等に記載されている。
ここで、近似直線をy=ax+bとし、各白線候補画素の座標を(x、y)で表したとき、この基準は、下記式(6)で表される。
LMedS=min medε …(6)
偏差:ε =(y−(ax+b))
なお、medは、インデックスがiで表示されるデータ群に関してメディアン(中央値)をとる関数であり、この中央値(最小二乗中央値)は、はずれ値がデータに含まれていても値がほとんど変動しないという特徴がある。
よって、上記式(6)を用いると、選択された白線候補画素の中にはずれ点(誤差の大きい白線候補画素)が含まれていても、LMedSの評価値は、はずれ点に影響されない。
Evaluation based on the LMedS standard is described in “New Edition Image Analysis Handbook” (Tokyo University Press, pages 735-736) and the like.
Here, when the approximate straight line is y = ax + b and the coordinates of each white line candidate pixel are represented by (x i , y i ), this criterion is represented by the following formula (6).
LMedS = min medε i 2 (6)
Deviation: ε i 2 = (y i − (ax i + b)) 2
Note that med is a function that takes the median (median value) for the data group indicated by the index i, and this median value (least square median value) has almost no value even if outliers are included in the data. There is a feature that it does not fluctuate.
Therefore, when the above equation (6) is used, even if the selected white line candidate pixel includes a shift point (white line candidate pixel having a large error), the evaluation value of LMedS is not affected by the shift point.

図10は、第2の変形例にかかる白線検出装置での処理を説明するフローチャートである。なお、ステップ200〜ステップ202までの処理は、前記実施例のステップ100〜ステップ102までの処理と同じであるので説明を省略する。
ステップ203において白線検出部23は、俯瞰画像において検索された複数の白線候補画素の中から、任意にN個の白線候補画素を選択し、ステップ204において、選択した白線候補画素に基づいて、例えば最小二乗法により近似直線を算出する。
ステップ205において白線検出部23は、算出した近似直線の各白線候補点の誤差の程度を、変換マップ12を参照して特定し、近似直線の算出に用いた白線候補画素の誤差の平均値を求める。
ステップ206において白線検出部23は、算出した平均値を、重み付けを調整するための係数α’とし、かかる係数α’を上記式(6)に導入して得られる下記式(7)に基づいて、近似直線のLMedS評価値を算出する。
LMedS=min medα’ε …(7)
すなわち、誤差の程度に応じて、近似直線のLMedS評価値の重み付けを調整する。
FIG. 10 is a flowchart for explaining processing in the white line detection device according to the second modification. Note that the processing from step 200 to step 202 is the same as the processing from step 100 to step 102 in the above-described embodiment, so that the description thereof is omitted.
In step 203, the white line detection unit 23 arbitrarily selects N white line candidate pixels from the plurality of white line candidate pixels searched in the overhead image, and in step 204, for example, based on the selected white line candidate pixels, for example, An approximate straight line is calculated by the method of least squares.
In step 205, the white line detection unit 23 specifies the degree of error of each calculated white line candidate point of the approximate line with reference to the conversion map 12, and calculates the average value of the error of the white line candidate pixels used for calculating the approximate line. Ask.
In step 206, the white line detection unit 23 sets the calculated average value as a coefficient α i ′ for adjusting the weighting, and introduces the coefficient α i ′ into the above expression (6). Based on this, the LMedS evaluation value of the approximate line is calculated.
LMedS = min medα ii 2 (7)
That is, the weight of the LMedS evaluation value of the approximate line is adjusted according to the degree of error.

ステップ207において、白線検出部23は、N個の白線候補画素の選択から、LMedS評価値の算出までの一連の処理が、所定回数(q回)繰り返されて、合計q個の近似直線の算出と、そのLMedS評価値の算出が完了しているか否かを確認する。   In step 207, the white line detection unit 23 calculates a total of q approximate straight lines by repeating a series of processes from the selection of N white line candidate pixels to the calculation of the LMedS evaluation value a predetermined number of times (q times). And whether the calculation of the LMedS evaluation value is completed.

この一連の処理の繰り返しの回数は、q回のランダムサンプリングで、少なくとも1個のサンプルには例外値が含まれない確率、すなわち、上記した白線候補画素の任意選択をq回行った場合に、少なくとも1回は、誤差の大きい白線候補画素が全く含まれていない確率を考えることにより決定できる。
ここで、全データ中の例外値の割合をξとすると、この確率Pは、下記式(8)のようになるので、この関係式から、繰り返しの必要な回数qを算出できる。
The number of repetitions of this series of processes is q random sampling, and the probability that at least one sample does not include an exceptional value, that is, when the above-described white line candidate pixel is arbitrarily selected q times, This can be determined at least once by considering the probability that no white line candidate pixel with a large error is included.
Here, if the ratio of exceptional values in all data is ξ, this probability P is expressed by the following equation (8). Therefore, the required number of repetitions q can be calculated from this relational expression.

Figure 2009009331
Figure 2009009331

ステップ207においてq個の近似直線の算出が完了している場合、ステップ208において白線検出部23は、q個の近似直線の中から、LMedS評価値がもっとも小さい近似直線を選択し、ステップ209において、選択した近似直線に基づいて白線を検出する。   When calculation of q approximate lines is completed in step 207, the white line detection unit 23 selects an approximate line having the smallest LMedS evaluation value from q approximate lines in step 208, and in step 209 The white line is detected based on the selected approximate straight line.

第2の変形例では、白線検出部23は、画像変換部21が検索した複数の白線候補画素の中からの任意のN個の白線候補画素の選択と、選択した白線候補画素に基づく近似直線の算出を所定回数(q回)繰り返して複数の近似直線を求め、求めた複数の近似直線の中からLMedS基準に基づいて選択した1つの近似直線に基づいて白線を検出するに際し、複数の近似直線の各々において算出される最小二乗中央値を、変換マップ12(誤差マップ)を参照して特定した誤差の程度に応じて補正することで、重み付けの調整を行う構成とした。
よって、白線候補を構成する白線候補画素の中に、誤って検出されたものが含まれていても、これが白線の検出に与える影響を抑えることができるので、安定性の向上を図ることができる。
In the second modification, the white line detection unit 23 selects an arbitrary N number of white line candidate pixels from the plurality of white line candidate pixels searched by the image conversion unit 21, and an approximate straight line based on the selected white line candidate pixel. When a white line is detected based on one approximate line selected based on the LMedS criterion from the obtained approximate lines, a plurality of approximation lines are obtained. The least square median value calculated for each straight line is corrected according to the degree of error specified with reference to the conversion map 12 (error map), thereby adjusting the weight.
Therefore, even if a white line candidate pixel constituting the white line candidate includes an erroneously detected pixel, it is possible to suppress the influence of this on white line detection, so that stability can be improved. .

なお、上記した第2の変形例の説明では、近似直線の算出に用いた白線候補画素各々の誤差の程度の平均値を、重み付けの係数α’として決定したが、重み付けの係数α’は、誤差の程度を合計したもの、掛け合わせたものなど、近似直線の算出により白線を検出する際に、誤差の程度が大きい白線候補画素の影響を小さくすることができる係数であれば、他の方法により算出した係数を用いても良い。 In the description of the second modification example described above, the average value of the degree of error of the white line candidate pixels each used for calculating the approximate straight line, weighting coefficients alpha i 'has been determined as the coefficients of the weighting alpha i' Is a coefficient that can reduce the influence of white line candidate pixels with a large degree of error when detecting a white line by calculating an approximate straight line, such as a sum of errors and a product of the errors The coefficient calculated by the method may be used.

次に第3の変形例について説明する。
第3の変形例にかかる白線検出部23は、近似直線の算出に用いられた白線候補画素の妥当性を検討する。
図11は、第3の変形例にかかる白線検出装置での処理を説明するフローチャートである。なお、ステップ300〜ステップ304までの処理は、前記第2の変形例のステップ200〜ステップ204までの処理と同じであるので説明を省略する。
Next, a third modification will be described.
The white line detection unit 23 according to the third modification examines the validity of the white line candidate pixels used for calculating the approximate line.
FIG. 11 is a flowchart for explaining processing in the white line detection device according to the third modification. Note that the processing from step 300 to step 304 is the same as the processing from step 200 to step 204 in the second modified example, and thus the description thereof is omitted.

ステップ305において、白線検出部23は、ステップ304において求めた近似直線のLMedS評価値を算出する。
ステップ306において、白線検出部23は、ステップ303からステップ305までの処理が所定回数(q回)繰り返されて、合計q個の近似直線の算出と、そのLMedS評価値の算出が完了しているか否かを確認する。
ステップ306において算出が完了している場合、ステップ307において白線検出部23は、q個の近似直線の中から、LMedS評価値がもっとも小さい近似直線を選択する。
In step 305, the white line detection unit 23 calculates the LMedS evaluation value of the approximate straight line obtained in step 304.
In step 306, the white line detection unit 23 repeats the processing from step 303 to step 305 a predetermined number of times (q times), and has completed calculation of a total of q approximate lines and calculation of the LMedS evaluation value. Confirm whether or not.
If the calculation is completed in step 306, in step 307, the white line detection unit 23 selects an approximate line having the smallest LMedS evaluation value from q approximate lines.

ステップ307において白線検出部23は、選択した近似直線の各白線候補点の誤差の程度を、変換マップ12を参照して特定する。
ステップ309において白線検出部23は、各白線候補点の近似直線に対する偏差(誤差)の重み付けを、特定した誤差の程度に応じて調整する。
各白線候補点の近似直線に対する誤差は、近似直線を特定するパラメータを利用して、下記式(9)により標準偏差の推定値を算出することで行われる。
In step 307, the white line detection unit 23 specifies the degree of error of each white line candidate point of the selected approximate straight line with reference to the conversion map 12.
In step 309, the white line detection unit 23 adjusts the weighting of the deviation (error) of each white line candidate point with respect to the approximate line according to the specified degree of error.
The error of each white line candidate point with respect to the approximate line is performed by calculating an estimated value of the standard deviation by the following equation (9) using a parameter for specifying the approximate line.

Figure 2009009331
Figure 2009009331

Figure 2009009331
Figure 2009009331

白線検出部23は、各白線候補画素について近似直線に対する誤差を求める際に、変換マップ12を参照して特定した白線候補画素の誤差の程度の逆数を、重み付けを調整するための係数αとする。 When the white line detection unit 23 obtains an error with respect to the approximate straight line for each white line candidate pixel, the reciprocal of the error degree of the white line candidate pixel specified with reference to the conversion map 12 is used as a coefficient α i for adjusting the weight. To do.

Figure 2009009331
Figure 2009009331

すなわち、検出された白線に対する誤差が大きい白線候補画素は、白線候補画素として妥当でないと判定して除外する。
ここで、各白線候補画素の誤差の程度の逆数を係数αとすることで、誤差の程度が大きい白線候補画素は、偏差の許容範囲が狭くなり、排除され易くなる。
例えば誤差の程度が最も小さい白線候補画素に対して、3倍の大きさの誤差を有する白線候補画素の場合、偏差の許容範囲は、係数αにより3分の1になるので、除外され易くなる。
That is, a white line candidate pixel having a large error with respect to the detected white line is determined to be invalid as a white line candidate pixel and excluded.
Here, by setting the reciprocal of the degree of error of each white line candidate pixel as the coefficient α i , the white line candidate pixel having a large degree of error has a narrow tolerance range and is easily excluded.
For example, in the case of a white line candidate pixel having an error that is three times as large as the white line candidate pixel with the smallest degree of error, the allowable range of deviation is 3 due to the coefficient α i and is therefore easily excluded. Become.

ステップ311において白線検出部23は、除外された白線候補画素以外の白線候補画素に基づいて近似直線を再度求め、ステップ312において近似直線に基づいて白線を検出する。   In step 311, the white line detection unit 23 obtains an approximate line again based on the white line candidate pixels other than the excluded white line candidate pixels, and detects a white line based on the approximate line in step 312.

第3の変形例では、白線検出部23が、近似直線の算出に用いた白線候補画素各々の近似直線に対する誤差を求め、求めた誤差が、所定の閾値よりも大きい値となる白線候補画素を、白線候補画素から除外し、除外した白線候補画素を除いた残りの白線候補画素に基づいて再度算出した近似直線に基づいて、白線を検出する構成とした。
よって、近似直線の算出に用いた白線候補画素各々の妥当性を確認し、他の白線候補画素に比べて誤差(ばらつき)が大きく、近似直線の算出に用いるのに妥当でない白線候補画素を検索して、除外することができる。
ここで、白線候補画素の妥当性の判断に用いられる閾値は、変換マップ12を参照して特定される白線候補画素の誤差の程度に応じて決定され、誤差の程度が大きい白線候補画素ほど、誤差の許容範囲が狭くなり、除外され易くなるように設定される。そして、妥当でない白線候補画素を除いた残りの白線候補画素に基づいて再度求めた近似直線に基づいて、白線が検出されるので、妥当でない白線候補画素が白線検出に与える影響を抑えることができると共に、白線検出の精度を向上させることができる。
また、白線候補画素を除外する閾値が、変換マップ12を参照して特定された白線候補画素の誤差の程度に応じて設定されるので、白線候補画素の妥当性を検討する際の計算を簡単にすることができ、計算コストの低減を図ることができる。
In the third modified example, the white line detection unit 23 obtains an error with respect to the approximate line of each white line candidate pixel used for calculating the approximate line, and determines the white line candidate pixel in which the obtained error is larger than a predetermined threshold value. The white line is detected based on the approximate straight line which is excluded from the white line candidate pixels and recalculated based on the remaining white line candidate pixels excluding the excluded white line candidate pixels.
Therefore, the validity of each white line candidate pixel used for calculating the approximate line is confirmed, and white line candidate pixels that have a large error (variation) compared to other white line candidate pixels and are not appropriate for use in calculating the approximate line are searched. And can be excluded.
Here, the threshold value used for determining the validity of the white line candidate pixel is determined according to the degree of error of the white line candidate pixel specified with reference to the conversion map 12, and the white line candidate pixel having a larger degree of error, The allowable range of error is narrowed and is set so as to be easily excluded. Then, since the white line is detected based on the approximate straight line obtained again based on the remaining white line candidate pixels excluding the invalid white line candidate pixels, it is possible to suppress the influence of the invalid white line candidate pixels on the white line detection. At the same time, the accuracy of white line detection can be improved.
In addition, since the threshold for excluding the white line candidate pixels is set according to the degree of error of the white line candidate pixels specified with reference to the conversion map 12, the calculation for examining the validity of the white line candidate pixels is easy. The calculation cost can be reduced.

次に第4の変形例について説明する。
第4の変形例にかかる白線検出部23は、近似直線の算出に用いた白線候補画素の誤差の程度に基づいて、検出した白線の妥当性を検証する。
この場合、白線検出部23は、白線候補画素検索部22が検索した総ての白線候補画素から、例えば最小二乗法により近似直線を求め、求めた近似直線に基づいて白線を検出する。
この際、白線検出部23は、変換マップ12を参照し、白線候補画素の誤差の程度を確認し、確認した各白線候補画素の誤差の統計的分析を行って、誤差の平均値、分散、そして標準偏差などを求め、白線の妥当性を示す指標として利用する。
Next, a fourth modification will be described.
The white line detection unit 23 according to the fourth modified example verifies the validity of the detected white line based on the degree of error of the white line candidate pixel used for calculating the approximate line.
In this case, the white line detection unit 23 obtains an approximate line from all white line candidate pixels searched by the white line candidate pixel search unit 22 by, for example, the least square method, and detects a white line based on the obtained approximate line.
At this time, the white line detection unit 23 refers to the conversion map 12, confirms the degree of error of the white line candidate pixels, performs a statistical analysis of the error of each confirmed white line candidate pixel, and calculates an error average value, variance, The standard deviation is obtained and used as an index indicating the validity of the white line.

そして、例えば、白線候補画素の数が予め決められた数よりも少ない場合に、検出された白線の妥当性を判断する際の目安として、この統計的分析の結果を利用する。
具体的には、各白線候補画素の誤差の平均値が、所定の閾値よりも大きい場合は、誤差が大きいので、検出された白線の精度は低いと判断する。そして、検出された白線に基づき算出される白線パラメータは、信頼性の低いデータであるとして棄却するなどの処理を行う。
For example, when the number of white line candidate pixels is smaller than a predetermined number, the result of this statistical analysis is used as a guideline for determining the validity of the detected white line.
Specifically, when the average error value of each white line candidate pixel is larger than a predetermined threshold, it is determined that the accuracy of the detected white line is low because the error is large. Then, the white line parameter calculated based on the detected white line is subjected to processing such as rejection as data with low reliability.

第4の変形例では、白線検出部23は、変換マップ12を参照して、白線候補に含まれる白線候補画素各々の誤差の程度を確認し、各白線候補画素の誤差の程度の統計的分析により平均値、分散、標準偏差を求め、求めたこれらの値を、白線の妥当性を示す指標として利用する構成とした。よって、検出した白線や、これに基づき算出された白線パラメータの妥当性の検証のための計算を簡単にすることが可能となり、計算コストを低減した白線の検出と、白線パラメータの算出とを行うことができる。   In the fourth modification, the white line detection unit 23 refers to the conversion map 12 to check the degree of error of each white line candidate pixel included in the white line candidate and perform statistical analysis of the degree of error of each white line candidate pixel. Thus, the average value, variance, and standard deviation were obtained, and the obtained values were used as an index indicating the validity of the white line. Therefore, it is possible to simplify the calculation for verifying the validity of the detected white line and the white line parameter calculated based on the detected white line, and the detection of the white line and the calculation of the white line parameter with reduced calculation cost are performed. be able to.

次に第5の変形例について説明する。
第5の変形例にかかる白線検出部23は、白線が繰り返し検出される場合において、検索した白線候補画素の妥当性を、先に検索された白線に基づき検証し、先に検出された白線と同じ白線が検出されていると判断できる際には、検索した白線候補画素に基づき近似直線を算出する際の基準を、白線の検出精度が向上する方向に変更する。
Next, a fifth modification will be described.
When the white line is repeatedly detected, the white line detection unit 23 according to the fifth modification verifies the validity of the searched white line candidate pixel based on the previously searched white line, When it can be determined that the same white line is detected, the reference for calculating the approximate straight line based on the searched white line candidate pixels is changed to a direction in which the detection accuracy of the white line is improved.

図12および図13は、第5の変形例にかかる白線検出装置での処理を説明するフローチャートである。なお、ステップ400〜ステップ402、ステップ404〜ステップ408までの処理は、前記第3の変形例のステップ300〜ステップ302、ステップ303〜ステップ307までの処理と、それぞれ同じであるので説明を省略する。   12 and 13 are flowcharts for explaining processing in the white line detection apparatus according to the fifth modification. Note that the processing from Step 400 to Step 402 and Step 404 to Step 408 is the same as the processing from Step 300 to Step 302 and Step 303 to Step 307 of the third modified example, and thus description thereof is omitted. .

ステップ403において白線検出部23は、既に検出した白線があるか否かを確認する。具体的には、白線パラメータデータベース14を参照して、新たな撮像画像入力された時刻t2よりも前の時刻(時刻t1)における撮像画像から算出した白線パラメータが、記憶されているか否かを確認することで行う。
そして、時刻t2よりも前の時刻における撮像画像から算出した白線パラメータが記憶されている場合、既に検出した白線があると判断する。
そして、既に検出した白線がないと判断された場合は、ステップ404の処理に移行し、あると判断された場合は、ステップ413の処理に移行する。
In step 403, the white line detection unit 23 checks whether there is a white line already detected. Specifically, referring to the white line parameter database 14, it is confirmed whether or not the white line parameters calculated from the captured image at the time (time t1) before the time t2 when the new captured image is input are stored. To do.
If the white line parameter calculated from the captured image at a time before time t2 is stored, it is determined that there is a white line that has already been detected.
If it is determined that there is no white line already detected, the process proceeds to step 404. If it is determined that there is a white line, the process proceeds to step 413.

ステップ409において白線検出部23は、ステップ407において選択した近似直線の各白線候補点の近似直線に対する偏差(誤差)を、下記式(10)に基づき算出する。   In step 409, the white line detection unit 23 calculates a deviation (error) of each of the white line candidate points of the approximate line selected in step 407 from the following formula (10).

Figure 2009009331
Figure 2009009331

Figure 2009009331
ステップ411において、白線検出部23は、残りの白線候補画素に基づいて近似直線を再度求め、ステップ412において、求めた近似直線に基づいて白線を検出する。そして、検出した白線の位置を特定する白線のパラメータを、記憶部10の白線パラメータデータベース14に記憶する。
Figure 2009009331
In step 411, the white line detection unit 23 obtains an approximate line again based on the remaining white line candidate pixels, and in step 412, detects the white line based on the obtained approximate line. Then, the white line parameter for specifying the position of the detected white line is stored in the white line parameter database 14 of the storage unit 10.

ステップ403において既に検出された白線があると判断された場合、ステップ413において白線検出部23は、まず既に検出された時刻t1における白線の白線パラメータに対して、新たに撮像画像が入力された時刻t2の時間差を加味した白線パラメータを算出し、この算出した白線パラメータを時刻t2での白線パラメータと仮定する。次に仮定した時刻t2での白線パラメータに対して、LMedS基準による評価を行い、求めたLMedSの評価値が、所定の閾値Th未満であるか否かを確認する。
ステップ413において所定の閾値Th未満である場合、時刻t1における白線が、新たに入力された撮像画像においても検出されていると判断する。
そして、ステップ413で求めたLMedSの評価値が、所定の閾値Th未満である場合には、ステップ414において白線検出部23は、時刻t2における白線候補画素から求めた複数の近似直線の中から、LMedSの評価値がもっとも小さくなる近似直線を選択する際に用いられるMedS基準を変更する。
If it is determined in step 403 that there is a white line that has already been detected, in step 413, the white line detection unit 23 first inputs a new captured image with respect to the white line parameter of the white line that has already been detected. A white line parameter taking into account the time difference of t2 is calculated, and the calculated white line parameter is assumed to be a white line parameter at time t2. Next, an evaluation based on the LMedS criterion is performed on the assumed white line parameter at time t2, and it is confirmed whether or not the obtained evaluation value of LMedS is less than a predetermined threshold Th.
If it is less than the predetermined threshold Th in step 413, it is determined that the white line at time t1 is also detected in the newly input captured image.
If the evaluation value of LMedS obtained in step 413 is less than the predetermined threshold Th, the white line detection unit 23 in step 414 determines from the plurality of approximate straight lines obtained from the white line candidate pixels at time t2. The MedS criterion used when selecting the approximate straight line with the smallest evaluation value of LMedS is changed.

ここで、通常のLMedS基準による評価では、白線候補画素に含まれる白線候補画素の全てについて、推定された予測白線のパラメータにより特定される直線に対する2乗誤差ε を算出し、2乗誤差ε が小さい順に並び替えて、図14の符号Kに示すような誤差の2乗の順位をとる。そして、Median(中央値)であるK1に位置するパラメータをLMedS基準として利用する。 Here, in the evaluation based on the normal LMedS standard, the square error ε i 2 is calculated for all the white line candidate pixels included in the white line candidate pixels with respect to the straight line specified by the estimated predicted white line parameter, and the square error is calculated. Rearranged in ascending order of ε i 2, the error is squared as indicated by the symbol K in FIG. And the parameter located in K1 which is Median (median value) is utilized as a LMedS standard.

よって、白線検出部23は、時刻t1の撮像画像の処理により近似直線を選択する際に用いたLMedS評価の基準K1の代わりに、図14に示すように、Medianよりも順位が高く、2乗誤差εiが小さい仮想線K2に対応するパラメータを基準とする。
これにより、新たに検索された時刻t2における白線候補画素に基づき算出される近似直線の妥当性を、変更後の基準に基づいて評価し、近似直線の決定と、白線パラメータの算出が行われる。
Therefore, the white line detection unit 23 has a higher rank than the median as shown in FIG. 14 instead of the LMedS evaluation criterion K1 used when selecting the approximate line by processing the captured image at time t1, and is squared. A parameter corresponding to the virtual line K2 having a small error εi 2 is used as a reference.
Thereby, the validity of the approximate line calculated based on the newly searched white line candidate pixel at time t2 is evaluated based on the changed reference, and the approximate line is determined and the white line parameter is calculated.

第5の変形例では、白線が検出されたのちに新たに複数の白線候補画素が検出されると、白線検出部23は、新たな白線パラメータの算出に用いた白線候補画素各々の、既に検出されている白線に対する誤差の二乗和を求め、求めた誤差の二乗和が所定の閾値未満である場合、新たに検索された白線候補画素に基づいて近似直線を求める際のLMedS基準の基準値を変更し、変更後の基準に基づいて、新たな白線候補から求めた近似直線の妥当性を評価する構成としたので、連続して入力される撮像画像において続けて検出されるべき白線が、検出できなくなる可能性を低減させることができ、安定した白線の検出が実現可能となるという効果が得られる。   In the fifth modification, when a plurality of white line candidate pixels are newly detected after the white line is detected, the white line detection unit 23 has already detected each of the white line candidate pixels used for calculating the new white line parameter. When the sum of squares of errors with respect to the white line that has been obtained is less than a predetermined threshold, the reference value of the LMedS criterion for obtaining the approximate straight line based on the newly searched white line candidate pixels is obtained. Since the validity of the approximate straight line obtained from the new white line candidate is evaluated based on the changed standard after the change, the white line that should be detected continuously in the continuously input captured images is detected. The possibility that it becomes impossible can be reduced, and the effect that stable white line detection can be realized is obtained.

なお、上記第5の変形例では、時刻t2における撮像画像の処理により白線候補画素が検索された際に、時刻t1における撮像画像の処理により検出した白線との比較により、検索した白線候補画素の妥当性を検討する構成としたが、時刻t1における白線の経時的な変化を予測して、時刻t2における白線を予測し、予測した時刻t2における白線との比較により、時刻t2における撮像画像から検索した白線候補画素の妥当性を検討する構成としてもよい。これにより、妥当性の検討をより正確に行うことができる。
なお、この場合の時刻t1の白線パラメータの経時的な変化の予測は、車両が移動している場合における移動方向や移動速度を用いたデッドレコニングによる推定などにより行われる。
In the fifth modification, when a white line candidate pixel is searched for by processing of the captured image at time t2, a comparison is made with the white line detected by processing of the captured image at time t1 to determine the white line candidate pixel searched for. Although it is configured to examine the validity, the white line at time t1 is predicted, the white line at time t2 is predicted, and a comparison with the predicted white line at time t2 is made from the captured image at time t2. The validity of the white line candidate pixels may be considered. Thereby, the validity can be examined more accurately.
Note that the change with time of the white line parameter at time t1 in this case is predicted by estimation by dead reckoning using the moving direction and moving speed when the vehicle is moving.

このように、白線検出部の処理の変形例を種々説明したが、各変形例の処理は、単独でのみ行う必要はなく、他の変形例の処理や実施例の処理と適宜組み合わせて行うようにしても良い。
これにより、処理の組み合わせにより、白線の検出精度をいっそう向上させることが可能となる。
As described above, various modifications of the processing of the white line detection unit have been described. However, the processes of each modification need not be performed alone, but may be performed in appropriate combination with the processes of other modifications and the processes of the embodiments. Anyway.
Thereby, the detection accuracy of the white line can be further improved by a combination of processes.

実施例にかかる白線検出装置を駐車支援装置に適用した場合の構成を示すブロック図である。It is a block diagram which shows the structure at the time of applying the white line detection apparatus concerning an Example to a parking assistance apparatus. 車両に搭載されたカメラの配置を説明する説明図である。It is explanatory drawing explaining arrangement | positioning of the camera mounted in the vehicle. 実施例にかかる白線検出装置での処理を説明するフローチャートである。It is a flowchart explaining the process in the white line detection apparatus concerning an Example. 撮像画像の変換により得られる俯瞰画像を説明する説明図である。It is explanatory drawing explaining the bird's-eye view image obtained by conversion of a captured image. 変換マップにおいて規定される撮像画像の各画素と俯瞰画像の各画素との対応関係を説明する説明図である。It is explanatory drawing explaining the correspondence of each pixel of the captured image prescribed | regulated in a conversion map, and each pixel of a bird's-eye view image. 俯瞰画像における白線候補画素の検索を説明する説明図である。It is explanatory drawing explaining the search of the white line candidate pixel in a bird's-eye view image. 俯瞰画像の各画素の誤差の程度を説明する説明図である。It is explanatory drawing explaining the grade of the error of each pixel of a bird's-eye view image. 白線候補画素の重み付けの調整を説明する説明図である。It is explanatory drawing explaining adjustment of the weight of a white line candidate pixel. 俯瞰画像において検出された白線を説明する説明図である。It is explanatory drawing explaining the white line detected in the bird's-eye view image. 実施例にかかる白線検出装置での処理の変形例を説明するフローチャートである。It is a flowchart explaining the modification of the process in the white line detection apparatus concerning an Example. 実施例にかかる白線検出装置での処理の変形例を説明するフローチャートである。It is a flowchart explaining the modification of the process in the white line detection apparatus concerning an Example. 実施例にかかる白線検出装置での処理の変形例を説明するフローチャートである。It is a flowchart explaining the modification of the process in the white line detection apparatus concerning an Example. 実施例にかかる白線検出装置での処理の変形例を説明するフローチャートである。It is a flowchart explaining the modification of the process in the white line detection apparatus concerning an Example. 近似直線の妥当性を評価する際に用いられる基準値を説明する説明図である。It is explanatory drawing explaining the reference value used when evaluating the validity of an approximate straight line.

符号の説明Explanation of symbols

10 記憶部
11 画像メモリ
12 変換マップ(誤差マップ)
13 白線候補画素データベース
14 白線パラメータデータベース
20 制御部
21 画像変換部
22 白線候補画素検索部
23 白線検出部
30 表示部
C カメラ
10 storage unit 11 image memory 12 conversion map (error map)
13 White Line Candidate Pixel Database 14 White Line Parameter Database 20 Control Unit 21 Image Conversion Unit 22 White Line Candidate Pixel Search Unit 23 White Line Detection Unit 30 Display Unit C Camera

Claims (12)

車両に搭載されて周囲の路面を撮像するカメラと、
前記カメラが撮像した路面の撮像画像を、前記路面を直上方向から見た俯瞰画像に変換する画像変換部と、
前記俯瞰画像において、前記路面に描かれた白線を示す画素の候補である白線候補画素を複数検索する白線候補画素検索部と、
検索された複数の白線候補画素から算出した近似直線に基づいて、白線を検出する白線検出部とを備え、
前記白線検出部は、前記撮像画像を前記俯瞰画像に変換する際に生じる誤差の影響を除外するように前記白線候補画素の重み付けを調整することを特徴とする白線検出装置。
A camera mounted on a vehicle to image the surrounding road surface;
An image conversion unit that converts a captured image of the road surface imaged by the camera into an overhead image when the road surface is viewed from directly above;
In the overhead view image, a white line candidate pixel search unit that searches for a plurality of white line candidate pixels that are candidates for pixels indicating a white line drawn on the road surface;
A white line detection unit that detects a white line based on an approximate straight line calculated from a plurality of searched white line candidate pixels;
The white line detection unit, wherein the white line detection device adjusts the weight of the white line candidate pixels so as to exclude an influence of an error that occurs when the captured image is converted into the overhead image.
前記白線検出部は、
前記撮像画像を前記俯瞰画像に変換する際に生じる誤差の程度を示す誤差マップを有し、この誤差マップを参照して前記白線候補画素各々の誤差の程度を特定し、誤差の影響を除外するものであることを特徴とする請求項1に記載の白線検出装置。
The white line detector
An error map indicating the degree of error that occurs when the captured image is converted into the overhead image is specified, the degree of error of each of the white line candidate pixels is identified with reference to this error map, and the influence of the error is excluded The white line detecting device according to claim 1, wherein the white line detecting device is one.
前記白線検出部は、
前記誤差の程度が大きい程、前記重み付けを低減する方向に調整する
ことを特徴とする請求項1または請求項2に記載の白線検出装置。
The white line detector
3. The white line detection device according to claim 1, wherein the white line detection device adjusts in a direction of reducing the weighting as the degree of the error is larger.
前記白線検出部は、
前記複数の白線候補画素から、最小二乗法により、前記近似直線を求めると共に、
前記近似直線を求める際に前記白線候補画素について算出される二乗誤差の値を、前記誤差の程度に応じて補正することで、前記重み付けの調整を行う
ことを特徴とする請求項1乃至請求項3のうちの何れか一項に記載の白線検出装置。
The white line detector
Obtaining the approximate straight line from the plurality of white line candidate pixels by the least square method,
The weighting adjustment is performed by correcting a square error value calculated for the white line candidate pixel when obtaining the approximate line according to the degree of the error. The white line detection device according to any one of 3.
前記白線検出部は、
前記複数の白線候補画素から、主成分分析により、前記近似直線を求めると共に、
前記近似直線を求める際に前記白線候補画素について算出される分散共分散行列の成分の値を、前記誤差の程度に応じて補正することで、前記重み付けの調整を行う
ことを特徴とする請求項1乃至請求項3のうちの何れか一項に記載の白線検出装置。
The white line detector
While obtaining the approximate straight line from the plurality of white line candidate pixels by principal component analysis,
The weighting adjustment is performed by correcting a value of a component of a variance-covariance matrix calculated for the white line candidate pixel when obtaining the approximate line according to the degree of the error. The white line detection device according to any one of claims 1 to 3.
前記白線検出部は、
前記複数の白線候補画素の中からの一定数の白線候補画素の選択と、選択した白線候補画素に基づく近似直線の算出を所定回数繰り返して複数の近似直線を求めると共に、
求めた複数の近似直線の中からLMedS基準に基づいて選択した1つの近似直線に基づいて前記白線を検出し、
前記複数の近似直線の各々において算出される最小二乗中央値を、前記誤差の程度に応じて補正することで、前記重み付けの調整を行う
ことを特徴とする請求項1乃至請求項3のうちの何れか一項に記載の白線検出装置。
The white line detector
While selecting a certain number of white line candidate pixels from among the plurality of white line candidate pixels and calculating an approximate line based on the selected white line candidate pixels a predetermined number of times to obtain a plurality of approximate lines,
The white line is detected based on one approximate line selected based on the LMedS criterion from the obtained approximate lines,
The weighting adjustment is performed by correcting the least square median value calculated in each of the plurality of approximate lines according to the degree of the error. The white line detection device according to any one of the above.
前記白線検出部は、
前記近似直線の算出に用いた白線候補画素各々の前記近似直線に対する誤差を求め、求めた誤差が所定の閾値よりも大きい値となる白線候補画素を、前記複数の白線候補画素から除外して近似直線を再度算出する
ことを特徴とする請求項1乃至請求項6のうちの何れか一項に記載の白線検出装置。
The white line detector
An error with respect to the approximate line of each white line candidate pixel used for the calculation of the approximate line is obtained, and white line candidate pixels in which the obtained error is larger than a predetermined threshold are excluded from the plurality of white line candidate pixels and approximated. The white line detection device according to claim 1, wherein the straight line is calculated again.
前記白線検出部は、
前記誤差マップを参照して、前記近似直線の算出に用いた白線候補画素各々の誤差の程度を確認し、各白線候補画素の誤差の程度の統計的分析の結果を用いて、前記白線の妥当性を検証する
ことを特徴とする請求項2乃至請求項7のうちの何れか一項に記載の白線検出装置。
The white line detector
Referring to the error map, the degree of error of each white line candidate pixel used in the calculation of the approximate line is confirmed, and the validity of the white line is determined using the result of statistical analysis of the degree of error of each white line candidate pixel. The white line detection device according to any one of claims 2 to 7, wherein the white line detection device is verified.
前記白線検出部は、
白線が検出されたのちに新たに複数の白線候補画素が検索されると、前記白線に対する前記新たに検索された白線候補画素各々の誤差を求め、求めた誤差が所定の閾値よりも小さい値となる場合には、前記LMedS基準を変更する
ことを特徴とする請求項6に記載の白線検出装置。
The white line detector
When a plurality of white line candidate pixels are newly searched after the white line is detected, an error of each of the newly searched white line candidate pixels with respect to the white line is obtained, and the obtained error is smaller than a predetermined threshold value. The white line detection device according to claim 6, wherein the LMedS reference is changed in the case of becoming.
前記白線検出部は、
前記予測した白線に対する前記新たに検索された白線候補画素各々の誤差として、前記新たに検索された白線候補画素各々の前記白線に対する誤差の二乗和を求め、求めた誤差の二乗和が前記所定の閾値よりも小さい場合、前記LMedS基準の基準値を、誤差の二乗和の値が前記基準値よりも小さい値に変更する
ことを特徴とする請求項9に記載の白線検出装置。
The white line detector
As an error of each of the newly searched white line candidate pixels with respect to the predicted white line, a square sum of an error with respect to the white line of each of the newly searched white line candidate pixels is obtained, and the square sum of the obtained error is the predetermined value. 10. The white line detection device according to claim 9, wherein, when the value is smaller than a threshold value, the reference value of the LMedS reference is changed to a value in which a value of a sum of squares of errors is smaller than the reference value.
前記俯瞰画像では、画像の中央部に位置する車両マークを取り囲むように、車両の周囲の路面の画像が配置されている
ことを特徴とする請求項1乃至請求項10のうちの何れか一項に記載の白線検出装置。
The road image around the vehicle is arranged so as to surround the vehicle mark located at the center of the image in the bird's-eye view image. The white line detection device described in 1.
車両の周囲の路面を撮像するカメラにより得られた撮像画像を、前記路面を直上方向から見た俯瞰画像に変換し、
前記俯瞰画像において、前記路面に描かれた白線を示す画素の候補である白線候補画素を複数検索し、
前記撮像画像を前記俯瞰画像に変換する際に生じる誤差の影響を除外するように前記白線候補画素各々の重み付けを調整し、
重み付け調整後の白線候補画素に基づいて白線を検出する
ことを特徴とする白線検出方法。
A captured image obtained by a camera that captures a road surface around the vehicle is converted into an overhead image when the road surface is viewed from directly above,
In the bird's-eye view image, search for a plurality of white line candidate pixels that are candidates for pixels indicating a white line drawn on the road surface,
Adjusting the weight of each of the white line candidate pixels so as to exclude the influence of errors that occur when converting the captured image to the overhead image,
A white line detection method, wherein a white line is detected based on a white line candidate pixel after weight adjustment.
JP2007169609A 2007-06-27 2007-06-27 White line detection device and white line detection method Pending JP2009009331A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007169609A JP2009009331A (en) 2007-06-27 2007-06-27 White line detection device and white line detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007169609A JP2009009331A (en) 2007-06-27 2007-06-27 White line detection device and white line detection method

Publications (1)

Publication Number Publication Date
JP2009009331A true JP2009009331A (en) 2009-01-15

Family

ID=40324359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007169609A Pending JP2009009331A (en) 2007-06-27 2007-06-27 White line detection device and white line detection method

Country Status (1)

Country Link
JP (1) JP2009009331A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140578A1 (en) * 2009-06-02 2010-12-09 日本電気株式会社 Image processing device, image processing method, and image processing program
JP2011100223A (en) * 2009-11-04 2011-05-19 Panasonic Electric Works Co Ltd Image processing apparatus and image processing method
JP2012022574A (en) * 2010-07-15 2012-02-02 Fuji Heavy Ind Ltd White line recognition device for vehicle
JP2012062848A (en) * 2010-09-17 2012-03-29 Denso Corp Fuel-injection condition detector
JP2013232240A (en) * 2013-08-09 2013-11-14 Clarion Co Ltd Vehicle posture angle calculation device
WO2014084121A1 (en) * 2012-11-27 2014-06-05 クラリオン株式会社 On-vehicle control device
CN104076363A (en) * 2014-06-26 2014-10-01 广东工业大学 Rapid automatic guided vehicle obstacle detection method based on multiple sensors
KR101437743B1 (en) * 2012-12-10 2014-10-30 민정곤 System and method for detecting traffic lane in real time, navigation and black-box for vechicle using the same
JP2015534152A (en) * 2012-08-27 2015-11-26 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method for recognizing lane transitions for vehicles
US10147003B2 (en) 2015-04-23 2018-12-04 Honda Motor Co., Ltd. Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010140578A1 (en) * 2009-06-02 2010-12-09 日本電気株式会社 Image processing device, image processing method, and image processing program
JP5293815B2 (en) * 2009-06-02 2013-09-18 日本電気株式会社 Image processing apparatus, image processing method, and image processing program
US8687896B2 (en) 2009-06-02 2014-04-01 Nec Corporation Picture image processor, method for processing picture image and method for processing picture image
JP2011100223A (en) * 2009-11-04 2011-05-19 Panasonic Electric Works Co Ltd Image processing apparatus and image processing method
JP2012022574A (en) * 2010-07-15 2012-02-02 Fuji Heavy Ind Ltd White line recognition device for vehicle
JP2012062848A (en) * 2010-09-17 2012-03-29 Denso Corp Fuel-injection condition detector
US8849592B2 (en) 2010-09-17 2014-09-30 Denso Corporation Fuel-injection condition detector
JP2015534152A (en) * 2012-08-27 2015-11-26 コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト Method for recognizing lane transitions for vehicles
JP2014104853A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd Onboard control device
WO2014084121A1 (en) * 2012-11-27 2014-06-05 クラリオン株式会社 On-vehicle control device
CN104870256A (en) * 2012-11-27 2015-08-26 歌乐株式会社 Vehicle control device
EP2927054A4 (en) * 2012-11-27 2016-02-24 Clarion Co Ltd ON-BOARD CONTROL DEVICE
US9734581B2 (en) 2012-11-27 2017-08-15 Clarion Co., Ltd. On-vehicle control device
KR101437743B1 (en) * 2012-12-10 2014-10-30 민정곤 System and method for detecting traffic lane in real time, navigation and black-box for vechicle using the same
JP2013232240A (en) * 2013-08-09 2013-11-14 Clarion Co Ltd Vehicle posture angle calculation device
CN104076363A (en) * 2014-06-26 2014-10-01 广东工业大学 Rapid automatic guided vehicle obstacle detection method based on multiple sensors
US10147003B2 (en) 2015-04-23 2018-12-04 Honda Motor Co., Ltd. Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof

Similar Documents

Publication Publication Date Title
JP2009009331A (en) White line detection device and white line detection method
US11398051B2 (en) Vehicle camera calibration apparatus and method
JP7371053B2 (en) Electronic devices, mobile objects, imaging devices, and control methods, programs, and storage media for electronic devices
US10204277B2 (en) Electronic device, traveling lane identifying system, and traveling lane identifying method
JP3280001B2 (en) Stereo image misalignment adjustment device
JP6158779B2 (en) Image processing device
WO2015198930A1 (en) Distance measurement device, and distance measurement correction device using correction parameter
JP3255360B2 (en) Inspection method of distance data and its inspection device
CN108141570A (en) Calibration device, calibration method and calibration procedure
JP6483446B2 (en) Composite line determination apparatus and composite line determination method
KR102022402B1 (en) Calibration method and apparatus thereof
RU2615063C2 (en) Method and device for detecting moving objects in video image sequence
US6829383B1 (en) Stochastic adjustment of differently-illuminated images
JP2015149029A (en) Lane boundary detection device
JP2013137767A (en) Obstacle detection method and driver support system
KR101869266B1 (en) Lane detection system based on extream learning convolutional neural network and method thereof
US9635340B2 (en) Stereo image processing apparatus and method thereof
WO2021070813A1 (en) Error estimation device, error estimation method, error estimation program
JP2016143364A (en) Position identification equipment, position identification method, and program
CN113345035B (en) A method, system and computer-readable storage medium for instant slope prediction based on binocular camera
JP2021051347A (en) Distance image generation apparatus and distance image generation method
JP3833930B2 (en) Stereo camera adjustment device
US20240257490A1 (en) Focal position estimation method, focal position estimation system, model generation method, model generation system, focal position estimation model, and non-transitory computer-readable storage medium
JP6204844B2 (en) Vehicle stereo camera system
JP2007172500A (en) Data processing device