[go: up one dir, main page]

JP2014219960A - Track detection device and track detection method - Google Patents

Track detection device and track detection method Download PDF

Info

Publication number
JP2014219960A
JP2014219960A JP2013267026A JP2013267026A JP2014219960A JP 2014219960 A JP2014219960 A JP 2014219960A JP 2013267026 A JP2013267026 A JP 2013267026A JP 2013267026 A JP2013267026 A JP 2013267026A JP 2014219960 A JP2014219960 A JP 2014219960A
Authority
JP
Japan
Prior art keywords
point
edge
reference point
road
travel path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013267026A
Other languages
Japanese (ja)
Inventor
塚田 明宏
Akihiro Tsukada
明宏 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013267026A priority Critical patent/JP2014219960A/en
Priority to PCT/IB2014/000432 priority patent/WO2014167393A1/en
Publication of JP2014219960A publication Critical patent/JP2014219960A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Processing (AREA)

Abstract

【課題】走行路の推定結果を安定させることができる走路検出装置を提供する。【解決手段】走路検出装置は、道路の輝度の変化点であるエッジ点L11,L12,L13,L14,R11,R12,R13,R14を検出するエッジ検出部と、エッジ検出部によって検出された左側のエッジ点L11,L12,L13,L14と、エッジ検出部によって検出された右側のエッジ点R11,R12,R13,R14との中点を走行路の候補となる基準点として算出する中点算出部と、中点算出部によって算出された中点の位置を投票する中点位置投票部と、中点位置投票部によって投票された中点の位置のうち、投票数の多い位置を車両の走行路として検出する走行路検出部とを備えている。【選択図】図5A travel path detection apparatus capable of stabilizing a travel path estimation result is provided. A runway detection device includes an edge detection unit that detects edge points L11, L12, L13, L14, R11, R12, R13, and R14 that are road luminance change points, and a left side that is detected by the edge detection unit. The midpoint calculation unit that calculates the midpoints of the edge points L11, L12, L13, and L14 of the right side and the right edge points R11, R12, R13, and R14 detected by the edge detection unit as reference points that are candidates for the travel path A midpoint position voting unit for voting the position of the midpoint calculated by the midpoint calculation unit, and a position where the number of votes is high among the positions of the midpoints voted by the midpoint position voting unit And a travel path detection unit that detects as [Selection] Figure 5

Description

本発明は、車両の走行路を検出する走路検出装置及び走路検出方法に関するものである。   The present invention relates to a travel path detection device and a travel path detection method for detecting a travel path of a vehicle.

特開2006−268199号公報(特許文献1)には、車両の走行路のレーンマークを検出する画像処理システムが開示されている。この画像処理システムは、路面画像でレーンマーク以外の路面部分に対応する基準領域を設定し、基準領域における輝度の頻度を計測することにより輝度のヒストグラムを作成し、作成されたヒストグラムから幅、高さ又は面積が閾値以上となるひとかたまりの部分を路面クラスタとして抽出する。また、全ての白線候補エッジ点を1次白線候補エッジ点として検出し、1次白線候補エッジ点のうち上記基準領域に重なるものを2次白線候補エッジ点として検出する。   Japanese Patent Laying-Open No. 2006-268199 (Patent Document 1) discloses an image processing system that detects a lane mark on a traveling path of a vehicle. This image processing system sets a reference region corresponding to a road surface portion other than a lane mark in a road surface image, creates a luminance histogram by measuring the frequency of luminance in the reference region, and creates a width and a height from the created histogram. A group of portions whose height or area is equal to or greater than a threshold is extracted as a road surface cluster. Further, all white line candidate edge points are detected as primary white line candidate edge points, and those that overlap the reference area among the primary white line candidate edge points are detected as secondary white line candidate edge points.

そして、2次白線候補エッジ点のうち、上記路面クラスタの輝度範囲に輝度パラメータの値が含まれないもののみを真の白線エッジ点として検出する。このように、2次白線候補エッジ点のうち、路面クラスタの輝度範囲に含まれるものが真の白線候補から除外されるので、真のレーンマークのみを精度よく検出してレーンマークの誤検出を抑制させている。   Of the secondary white line candidate edge points, only those that do not include the brightness parameter value in the brightness range of the road surface cluster are detected as true white line edge points. In this way, among the secondary white line candidate edge points, those included in the brightness range of the road surface cluster are excluded from the true white line candidates, so that only the true lane mark is accurately detected and erroneous detection of the lane mark is performed. It is suppressed.

特開2006−268199号公報JP 2006-268199 A 特許第3684395号公報Japanese Patent No. 3684395 特開平07−128059号公報Japanese Patent Laid-Open No. 07-128059

しかしながら、上述したような画像処理システムは、白線候補を白線候補エッジ点の集合として線で検出する。すなわち、レーンマークが画像上で線として検出されるので、実際のレーンマークが複合線である場合や分岐線を有する場合には、画像上でどの線が所望の白線かを判断できなくなることがある。よって、レーンの推定結果が不安定になるという問題がある。また、実際のレーンマークが他車両等によって隠れている場合には、白線候補を検出できなくなることがあるので、この場合もレーンの推定結果が不安定になる可能性がある。   However, the image processing system as described above detects white line candidates as lines as a set of white line candidate edge points. That is, since the lane mark is detected as a line on the image, when the actual lane mark is a composite line or has a branch line, it may not be possible to determine which line is a desired white line on the image. is there. Therefore, there is a problem that the estimation result of the lane becomes unstable. In addition, when the actual lane mark is hidden by another vehicle or the like, the white line candidate may not be detected, and in this case as well, the lane estimation result may become unstable.

そこで、本発明の課題は、走行路の推定結果を安定させることができる走路検出装置及び走路検出方法を提供することである。   Then, the subject of this invention is providing the runway detection apparatus and runway detection method which can stabilize the estimation result of a runway.

すなわち、本発明の走路検出装置は、道路の輝度の変化点であるエッジ点を検出するエッジ検出部と、エッジ検出部により検出される道路における左側のエッジ点と右側のエッジ点から車両の走行路の候補となる基準点を算出する基準点算出部と、基準点算出部によって算出された基準点の位置を投票する基準点位置投票部と、基準点位置投票部によって投票された基準点の位置から車両の走行路を検出する走行路検出部と、を備えている。   That is, the running road detection device of the present invention includes an edge detection unit that detects an edge point that is a change point of the brightness of the road, and a vehicle running from the left edge point and the right edge point on the road detected by the edge detection unit. A reference point calculation unit that calculates a reference point that is a candidate for a road, a reference point position voting unit that votes the position of the reference point calculated by the reference point calculation unit, and a reference point voted by the reference point position voting unit A travel path detection unit that detects the travel path of the vehicle from the position.

この発明によれば、基準点算出部が左側のエッジ点と右側のエッジ点から基準点を算出すると共に基準点位置投票部が基準点の投票を行い、投票された基準点の位置のうち投票数の多い位置が走行路検出部によって走行路として検出される。このように、本発明では、従来のように白線候補を線として検出せずに、左右両側のエッジ点から得られる基準点の位置を用いて走行路を検出する。よって、実際のレーンマークが複合線である場合でも、両側の複合線から検出された各エッジ点から得られた基準点の投票結果で走行路が検出されるので、走行路の検出結果を安定させることができる。   According to this invention, the reference point calculation unit calculates the reference point from the left edge point and the right edge point, and the reference point position voting unit votes the reference point. A position with a large number is detected as a travel path by the travel path detection unit. In this way, in the present invention, the travel path is detected using the positions of the reference points obtained from the left and right edge points without detecting the white line candidate as a line as in the prior art. Therefore, even when the actual lane mark is a composite line, the travel path is detected by the voting results of the reference points obtained from the edge points detected from the composite lines on both sides, so the travel path detection result is stable. Can be made.

また、本発明に係る走路検出装置において、基準点は、左側のエッジ点と右側のエッジ点との中点であることが好ましい。この場合、基準点算出部は、左側のエッジ点と右側のエッジ点の中点を算出するので、車線中心に近い走行路の検出を行うことができる。   In the runway detection apparatus according to the present invention, the reference point is preferably a midpoint between the left edge point and the right edge point. In this case, since the reference point calculation unit calculates the midpoint between the left edge point and the right edge point, it is possible to detect a travel route close to the lane center.

また、本発明に係る走路検出装置において、エッジ検出部は、道路の撮像画像上で左右の一方側から他方側に検出位置を移動させるときに輝度が上がる上がりエッジ点と、撮像画像上で左右の一方側から他方側に検出位置を移動させるときに輝度が下がる下がりエッジ点と、を検出し、基準点算出部は、左側の上がりエッジ点と右側の下がりエッジ点から基準点を算出すると共に、左側の下がりエッジ点と右側の上がりエッジ点から基準点を算出することが好ましい。この場合、上がりエッジ点と下がりエッジ点の基準点を随時算出していくこととなるので、所望の基準点位置への投票数を増やすことができる。よって、推定される基準点位置を車線の所望の走行路に近づけることができるので、走行路の推定結果をより安定させることができる。   In the runway detection device according to the present invention, the edge detection unit includes a rising edge point that increases in brightness when the detection position is moved from one side to the other side on the captured image of the road, and left and right on the captured image. And detecting a falling edge point at which the brightness decreases when the detection position is moved from one side to the other side of the first reference point, and the reference point calculation unit calculates the reference point from the left rising edge point and the right falling edge point. The reference point is preferably calculated from the left falling edge point and the right rising edge point. In this case, since the reference points for the rising edge point and the falling edge point are calculated as needed, the number of votes for the desired reference point position can be increased. Therefore, since the estimated reference point position can be brought closer to the desired travel path of the lane, the travel path estimation result can be further stabilized.

また、左側のエッジ点と右側のエッジ点の距離を算出する距離算出部と、距離算出部によって算出された距離の平均値又は中央値と道路のレーン幅との差が閾値以上である場合に、平均値又は中央値と道路のレーン幅とを用いて車両のピッチング角度の変化量を算出するピッチング角度変化算出部と、を備え、距離算出部は、平均値又は中央値と道路のレーン幅との差が閾値以上である場合には、基準点算出部が基準点の算出を行う前に、ピッチング角度変化算出部によって算出されたピッチング角度の変化量だけ車両のピッチング角度を補正して再度エッジ点間の距離を算出することが好ましい。   In addition, when a distance calculation unit that calculates the distance between the left edge point and the right edge point, and the difference between the average or median distance calculated by the distance calculation unit and the lane width of the road is equal to or greater than a threshold value A pitching angle change calculation unit that calculates a change amount of the pitching angle of the vehicle using the average value or the median value and the road lane width, and the distance calculation unit includes the average value or the median value and the road lane width. Is equal to or greater than the threshold value, the reference point calculation unit corrects the pitching angle of the vehicle by the amount of change in the pitching angle calculated by the pitching angle change calculation unit before calculating the reference point, and again. It is preferable to calculate the distance between the edge points.

実際、車両の走行中に急ブレーキを踏む等の理由でピッチングが発生するが、このようにピッチングが発生すると、撮像画像上のエッジ点間の距離と実際の走行路の幅とが乖離してしまう。すなわち、ピッチングが発生すると、撮像画像上の走行路が歪んでしまうので基準点の位置を正しく算出できなくなり、走行路の推定結果が不安定になる虞がある。しかしながら、本発明では、ピッチングが発生したときにピッチング角を補正して再度エッジ点間の距離を算出しているので、ピッチングによって撮像画像が歪む影響を排除し、ピッチングが発生したときでも走行路の推定結果を安定させることができる。また、本発明に係る走路検出装置において、エッジ点を道路の白線のエッジ点としてもよい。   Actually, pitching occurs due to sudden braking while the vehicle is running. However, when pitching occurs in this way, the distance between the edge points on the captured image and the actual width of the traveling path differ. End up. That is, when pitching occurs, the travel path on the captured image is distorted, so that the position of the reference point cannot be calculated correctly, and the estimation result of the travel path may become unstable. However, in the present invention, when the pitching occurs, the pitching angle is corrected and the distance between the edge points is calculated again. Therefore, the influence of the captured image being distorted by the pitching is eliminated, and even when the pitching occurs, the travel path The estimation result can be stabilized. In the runway detection apparatus according to the present invention, the edge point may be an edge point of a white line on the road.

本発明の走路検出方法は、車両が走行する道路を撮像した撮像画像において道路の輝度の変化点であるエッジ点を検出するエッジ検出工程と、エッジ検出工程で検出される道路における左側のエッジ点と右側のエッジ点から車両の走行路の候補となる基準点を算出する基準点算出工程と、基準点算出工程で算出された基準点の位置を投票する基準点位置投票工程と、基準点位置投票工程で投票された基準点の位置から車両の走行路を検出する走行路検出工程と、を備えている。   The runway detection method of the present invention includes an edge detection step for detecting an edge point that is a change point of the brightness of a road in a captured image obtained by imaging a road on which a vehicle is traveling, and a left edge point on the road detected in the edge detection step. A reference point calculating step for calculating a reference point that is a candidate for a vehicle travel path from the edge point on the right side, a reference point position voting step for voting the position of the reference point calculated in the reference point calculating step, and a reference point position And a travel path detection step of detecting the travel path of the vehicle from the position of the reference point voted in the voting process.

この発明によれば、基準点算出工程で左側のエッジ点と右側のエッジ点から基準点を算出すると共に、基準点位置投票工程で基準点の投票を行い、基準点の位置のうち投票数の多い位置が走行路検出工程で走行路として検出される。このように、本発明では、従来のように白線候補を線として検出せずに、左右両側のエッジ点から得られる基準点の位置を用いて走行路を検出する。よって、実際のレーンマークが複合線である場合でも、両側の複合線から検出された各エッジ点から得られる基準点の投票結果によって走行路が検出されるので、走行路の検出結果を安定させることができる。   According to the present invention, the reference point is calculated from the left edge point and the right edge point in the reference point calculation step, and the reference point is voted in the reference point position voting step. Many positions are detected as travel paths in the travel path detection step. In this way, in the present invention, the travel path is detected using the positions of the reference points obtained from the left and right edge points without detecting the white line candidate as a line as in the prior art. Therefore, even when the actual lane mark is a composite line, the travel path is detected based on the voting results of the reference points obtained from the edge points detected from the composite lines on both sides, so the detection result of the travel path is stabilized. be able to.

本発明によれば、走行路の推定結果を安定させることができる。   According to the present invention, it is possible to stabilize the estimation result of the traveling road.

本発明の第1実施形態に係る走路検出装置を示すブロック図である。It is a block diagram showing a runway detection device concerning a 1st embodiment of the present invention. 実際の走行路の白線上の上がりエッジと下がりエッジを示す斜視図である。It is a perspective view which shows the rising edge and falling edge on the white line of an actual travel path. 中点位置の投票を説明する図である。It is a figure explaining the vote of a midpoint position. 複合線における上がりエッジと下がりエッジを示す斜視図である。It is a perspective view which shows the rising edge and falling edge in a compound line. 複合線における中点位置の投票を説明する図である。It is a figure explaining the vote of the midpoint position in a compound line. 図1の走路検出装置の走行路を推定する処理を示すフローチャートである。It is a flowchart which shows the process which estimates the travel path of the travel path detection apparatus of FIG. 撮影画像上におけるエッジ点間の距離を説明する図である。It is a figure explaining the distance between the edge points on a picked-up image. 分岐線の場合又は白線が隠れた場合の中点位置の投票を説明する図である。It is a figure explaining the vote of the midpoint position in the case of a branch line or when a white line is hidden. 本発明の第2実施形態に係る走路検出装置を示すブロック図である。It is a block diagram which shows the track detection apparatus which concerns on 2nd Embodiment of this invention. 撮影画像上における車幅の半分の値の度数を示すヒストグラムである。It is a histogram which shows the frequency of the value of the half of the vehicle width on a picked-up image. 本発明の第2実施形態に係る走路検出装置の走行路を推定する処理を示すフローチャートである。It is a flowchart which shows the process which estimates the travel path of the travel path detection apparatus which concerns on 2nd Embodiment of this invention.

以下、図面を参照して、本発明の実施形態について説明する。なお、以下の説明において、同一又は相当要素には同一符号を付し、重複する説明を省略する。   Embodiments of the present invention will be described below with reference to the drawings. In the following description, the same or equivalent elements will be denoted by the same reference numerals, and redundant description will be omitted.

(第1実施形態)
図1に示されるように、第1実施形態に係る走路検出装置1は、車両の走行中に走路の検出を行う装置である。走路検出装置1は、例えば車線の逸脱を未然に防ぐため走路を逸脱しそうな時にドライバーに注意を促したりステアリング操作をサポートするレーンキーピングアシスト(LKA)等に用いられる。
(First embodiment)
As shown in FIG. 1, the travel path detection apparatus 1 according to the first embodiment is an apparatus that detects a travel path while the vehicle is traveling. The road detection device 1 is used, for example, in a lane keeping assist (LKA) that alerts the driver or supports a steering operation when it is likely to deviate from the road to prevent a lane departure.

走路検出装置1は、道路の輝度の変化点であるエッジ点を検出するエッジ検出部21と、走行するための基準点として左側のエッジ点と右側のエッジ点との中点を算出する中点算出部(基準点算出部)22と、中点の位置を投票する中点位置投票部(基準点位置投票部)23と、中点の位置のうち投票数の多い位置を車両の走行路として検出する走行路検出部24とを備えている。   The travel path detection apparatus 1 includes an edge detection unit 21 that detects an edge point that is a change point of the brightness of a road, and a midpoint that calculates a midpoint between a left edge point and a right edge point as a reference point for traveling. The calculation unit (reference point calculation unit) 22, the midpoint position voting unit (reference point position voting unit) 23 for voting the position of the midpoint, and a position with a large number of votes among the midpoint positions is used as the vehicle travel path. And a travel path detection unit 24 for detection.

また、走路検出装置1は、走行中の道路を撮像するカメラ10と、カメラ10によって撮像された画像の画像処理を行うと共に走行路の検出を行うECU(Electronic Control Unit)20と、ECU20からの制御信号を受けて車両のドライバに対する警告や車両のステアリング操作をアシストする出力部30とを備えている。   The travel path detection device 1 also includes a camera 10 that captures the road being traveled, an ECU (Electronic Control Unit) 20 that performs image processing of an image captured by the camera 10 and detects the travel path, and an ECU 20. And an output unit 30 that receives a control signal and assists a warning for a driver of the vehicle and a steering operation of the vehicle.

カメラ10は、車両が走行している道路の前方を撮影する機能を有しており、撮影した画像はECU20に出力される。ECU20は、カメラ10によって撮影された撮像画像の画像処理を行い、具体的には、カメラ10による撮像画像を平面視の画像に変換して走行路を検出する。上述したエッジ検出部21、中点算出部22、中点位置投票部23及び走行路検出部24は、例えばECU20に設けられている。   The camera 10 has a function of photographing the front of the road on which the vehicle is traveling, and the photographed image is output to the ECU 20. The ECU 20 performs image processing of a captured image captured by the camera 10, and specifically converts the captured image captured by the camera 10 into a planar view image to detect a traveling path. The edge detection unit 21, the midpoint calculation unit 22, the midpoint position voting unit 23, and the travel path detection unit 24 described above are provided in the ECU 20, for example.

エッジ検出部21は、カメラ10が撮影した道路の撮像画像から輝度の変化点であるエッジ点を検出する。図2に示されるように、白線H1及び白線H2が車両の前方の両脇にあった場合、エッジ検出部21は、撮像画像から上がりエッジ点L1及びR1と、下がりエッジ点L2及びR2とを検出する。ここで、上がりエッジ点L1及びR1は撮像画像上で一方側から他方側に検出位置を移動するときに輝度が上がるエッジ点であり、下がりエッジ点L2及びR2は撮像画像上で一方側から他方側に検出位置を移動するときに輝度が下がるエッジ点である。   The edge detection unit 21 detects an edge point that is a luminance change point from the captured image of the road captured by the camera 10. As shown in FIG. 2, when the white line H1 and the white line H2 are on both sides in front of the vehicle, the edge detection unit 21 detects the rising edge points L1 and R1 and the falling edge points L2 and R2 from the captured image. To detect. Here, the rising edge points L1 and R1 are edge points that increase in luminance when the detection position is moved from one side to the other side on the captured image, and the falling edge points L2 and R2 are the other side from the one side on the captured image. This is an edge point where the brightness decreases when the detection position is moved to the side.

中点算出部22は、エッジ検出部21によって検出された撮像画像の同じ水平位置における左側のエッジ点と右側のエッジ点との中点位置を算出する。具体的には、図3に示されるように、中点算出部22は、平面視の画像に変換された撮像画像における左側の上がりエッジ点L1と撮像画像における右側の下がりエッジ点R2との中点、及び撮像画像における左側の下がりエッジ点L2と撮像画像における右側の上がりエッジ点R1との中点を算出する。このように、左側の上がりエッジ点L1と右側の下がりエッジ点R2との中点、及び左側の下がりエッジ点L2と右側の上がりエッジ点R1との中点、を算出することにより、より車線中心に近い走行路の検出を可能としている。   The midpoint calculator 22 calculates the midpoint position between the left edge point and the right edge point at the same horizontal position of the captured image detected by the edge detector 21. Specifically, as shown in FIG. 3, the midpoint calculation unit 22 calculates the middle of the left rising edge point L1 in the captured image converted into the planar view image and the right falling edge point R2 in the captured image. The midpoint between the point and the left falling edge point L2 in the captured image and the right rising edge point R1 in the captured image is calculated. Thus, by calculating the midpoint between the left rising edge point L1 and the right falling edge point R2 and the midpoint between the left falling edge point L2 and the right rising edge point R1, the lane center is further calculated. It is possible to detect a road close to.

中点位置投票部23は、中点算出部22によって算出された中点位置から例えば図3に示されるような走路候補部C1,C2を生成する。走路候補部C1,C2は、中点算出部22が算出した中点位置が最も濃く周囲に向かうに従って徐々に薄くなる態様で表示され、このように走路候補部C1,C2をぼかして表示することにより走行路が極端にずれる事態を回避している。中点位置投票部23は、走路候補部C1,C2を繰り返し生成すると共に、中点算出部22が算出した中点位置の投票を繰り返すことによって例えば図3に示されるような中点位置の度数を示したヒストグラムを生成する。ここで、中点位置の投票とは、中点算出部22が算出した中点位置を走行路の一候補として記録することをいう。   The midpoint position voting unit 23 generates runway candidate sections C1 and C2 as shown in FIG. 3 from the midpoint position calculated by the midpoint calculation unit 22, for example. The runway candidate parts C1 and C2 are displayed in such a manner that the midpoint position calculated by the midpoint calculation part 22 is darkest and gradually becomes thinner toward the periphery, and the runway candidate parts C1 and C2 are displayed in a blurred manner in this way. This avoids a situation where the travel route is extremely shifted. The midpoint position voting unit 23 repeatedly generates the runway candidate units C1 and C2, and repeats the voting of the midpoint position calculated by the midpoint calculation unit 22, for example, the frequency of the midpoint position as shown in FIG. Is generated. Here, the vote of the midpoint position means that the midpoint position calculated by the midpoint calculation unit 22 is recorded as one candidate for the travel path.

走行路検出部24は、中点位置投票部23によって投票された中点のうち投票数が多い位置を車両の走行路として検出する。また、走行路検出部24は、中点位置投票部23によって生成されたヒストグラムから度数の高い位置を走行路の情報として検出し、検出した走行路の情報を出力部30に出力する。   The travel path detection unit 24 detects a position having a large number of votes among the midpoints voted by the midpoint position voting unit 23 as a travel path of the vehicle. The travel path detection unit 24 also detects a position with a high frequency from the histogram generated by the midpoint position voting unit 23 as travel path information, and outputs the detected travel path information to the output unit 30.

出力部30は、走行路検出部24によって出力された走行路の情報を受信して、ドライバの車両の運転をアシストする。具体的には、出力部30は、例えば、車両が走行路から逸脱して運転されているときにドライバに音声や画像表示等で警告する警報装置を有していてもよく、また、車両が走行路から逸脱して運転されているときに車両の操舵をアシストして車両を正しい走行路に導く操舵制御を行ってもよい。   The output unit 30 receives the information on the travel path output by the travel path detection unit 24 and assists the driver in driving the vehicle. Specifically, the output unit 30 may include, for example, an alarm device that warns the driver by voice, image display, or the like when the vehicle deviates from the traveling road. Steering control for assisting the steering of the vehicle and driving the vehicle to the correct traveling path may be performed when the vehicle deviates from the traveling path.

以上、図3に示されるように走路検出装置1は、中点算出部22がカメラ10の撮像画像の左側のエッジ点L1,L2と右側のエッジ点R1,R2の中点を算出すると共に中点位置投票部23が中点の投票を行い、投票された中点の位置のうち投票数の多い位置が走行路検出部24によって走行路として検出される。本実施形態では、従来のように白線候補を線として検出せずに、左右両側のエッジ点の中点位置を走行路として検出する。よって、実際のレーンマークが複合線である場合でも、両側の複合線から検出された各エッジ点間の中点の投票結果で走行路が検出されるので、走行路の検出結果を安定させることができる。   As described above, in the traveling path detection device 1, as shown in FIG. 3, the midpoint calculation unit 22 calculates the midpoint between the left edge points L 1 and L 2 and the right edge points R 1 and R 2 of the captured image of the camera 10. The point position voting unit 23 votes the middle point, and among the voted midpoint positions, a position with a large number of votes is detected by the traveling path detection unit 24 as a traveling path. In the present embodiment, the white line candidates are not detected as lines as in the prior art, but the midpoint positions of the edge points on the left and right sides are detected as the travel path. Therefore, even when the actual lane mark is a composite line, the travel path is detected by the midpoint voting result between the edge points detected from the composite lines on both sides, so the detection result of the travel path is stabilized. Can do.

具体的には、図4に示されるように、左側で2本の白線H11,H12が前方に延在し、右側で2本の白線H13,H14が前方に延在している複合線の場合には、エッジ検出部21が撮像画像の左側から上がりエッジ点L11、L13及び下がりエッジ点L12,L14を検出すると共に撮像画像の右側から上がりエッジ点R11,R13及び下がりエッジ点R12,R14を検出する。   Specifically, as shown in FIG. 4, in the case of a composite line in which two white lines H11 and H12 extend forward on the left side and two white lines H13 and H14 extend forward on the right side. The edge detection unit 21 detects rising edge points L11 and L13 and falling edge points L12 and L14 from the left side of the captured image, and detects rising edge points R11 and R13 and falling edge points R12 and R14 from the right side of the captured image. To do.

そして、図5に示されるように、中点算出部22は、左側の下がりエッジ点L14と右側の上がりエッジ点R11の中点、左側の下がりエッジ点L14と右側の上がりエッジ点R13の中点、左側の上がりエッジ点L13と右側の下がりエッジ点R12の中点、左側の上がりエッジ点L13と右側の下がりエッジ点R14の中点、左側の下がりエッジ点L12と右側の上がりエッジ点R11の中点、左側の下がりエッジ点L12と右側の上がりエッジ点R13の中点、左側の上がりエッジ点L11と右側の上がりエッジ点R12の中点、左側の上がりエッジ点L11と右側の下がりエッジ点R14の中点、をそれぞれ算出する。   Then, as shown in FIG. 5, the midpoint calculation unit 22 includes a midpoint between the left falling edge point L14 and the right rising edge point R11, and a midpoint between the left falling edge point L14 and the right rising edge point R13. The middle point of the left rising edge point L13 and the right falling edge point R12, the middle point of the left rising edge point L13 and the right falling edge point R14, the middle point of the left falling edge point L12 and the right rising edge point R11 Point, midpoint of left falling edge point L12 and right rising edge point R13, midpoint of left rising edge point L11 and right rising edge point R12, left rising edge point L11 and right falling edge point R14 Each midpoint is calculated.

その後、中点位置投票部23は、算出された上記の各中点から走路候補部C11〜C18を生成する。そして、中点位置投票部23が中点位置の投票を繰り返して図5に示されるようなヒストグラムを生成した後は、上記同様、走行路検出部24が走行路の検出を行い、走行路の情報が出力部30に出力される。   Thereafter, the midpoint position voting unit 23 generates runway candidate units C11 to C18 from the calculated midpoints. Then, after the midpoint position voting unit 23 repeats the voting of the midpoint position and generates a histogram as shown in FIG. 5, the travel path detection unit 24 detects the travel path as described above to detect the travel path. Information is output to the output unit 30.

ここで、従来のようにエッジ点から白線候補を線として検出した場合はレーンマークが複合線であるときにどの線が所望の白線か判断できず走行路の推定結果が不安定になる問題があった。しかしながら、本実施形態の走路検出装置1では、図5に示されるように、レーンマークが複合線である場合でも、レーンマークが左右対称であるという特性を生かして各エッジ点の中点から走行路の検出を行っているため、走行路の推定結果が安定し正確な走行路の検出を行うことができる。   Here, when the white line candidate is detected as a line from the edge point as in the conventional case, when the lane mark is a composite line, it is not possible to determine which line is the desired white line, and the estimation result of the traveling path becomes unstable. there were. However, in the road detection device 1 of the present embodiment, as shown in FIG. 5, even when the lane mark is a compound line, the lane mark is symmetric and travels from the middle point of each edge point. Since the road is detected, the estimation result of the travel path is stable and the travel path can be detected accurately.

次に、本実施形態に係る走路検出装置1を用いた走路検出方法の一例について図6及び図7を参照しながら説明する。図6に示される処理は、ECU20によって実行される処理であり、例えば一定時間ごとに繰り返し実行される。   Next, an example of a road detection method using the road detection device 1 according to the present embodiment will be described with reference to FIGS. 6 and 7. The process shown in FIG. 6 is a process executed by the ECU 20, and is repeatedly executed, for example, at regular intervals.

まず、ステップS11(以下、「S11」という。他のステップにおいても同様とする。)において、カメラ10の撮像画像からエッジ検出部21が図7に示されるようなエッジ点L1〜L4,R1〜R4の抽出及びラベリングをラインごとに行う(エッジ検出工程)。例えば、撮像画像において道路又は車両の横方向のラインに沿ってエッジ点の抽出およびラベリングが行われ、道路又は車両の縦方向(進行方向)に位置を変えた次のラインに沿ってエッジ点の抽出およびラベリングが順次行われる。ここでラベリングとは、抽出されたエッジ点群を輝度の上がり下がり、高さ、又は距離等で識別する処理をいう。また、ラインの方向は、例えば、検出対象となる画像において、道路又は車両の横方向に沿って配列される画素の配列方向とすればよい。次にS12において、対象ライン(例えば図7のライン1)における対象エッジ(例えば左側エッジ点L1と右側エッジ点R2)間の距離(例えば距離d12)を算出する。 First, in step S11 (hereinafter referred to as “S11”, the same applies to other steps), the edge detection unit 21 detects edge points L1 to L4 and R1 from the captured image of the camera 10 as shown in FIG. R4 extraction and labeling are performed for each line (edge detection step). For example, edge points are extracted and labeled along the horizontal line of the road or vehicle in the captured image, and the edge point is extracted along the next line whose position is changed in the vertical direction (traveling direction) of the road or vehicle. Extraction and labeling are performed sequentially. Here, the labeling refers to a process of identifying the extracted edge point group based on the increase / decrease in brightness, height, distance, or the like. The direction of the line may be, for example, the arrangement direction of pixels arranged along the road or the lateral direction of the vehicle in the image to be detected. Next, in S12, a distance (for example, distance d 12 ) between target edges (for example, left edge point L1 and right edge point R2) in the target line (for example, line 1 in FIG. 7) is calculated.

S13では、S12で算出されたエッジ点間の距離dijが下限閾値Dminより大きく且つ上限閾値Dmax未満であるか否かが判定される。ここで、下限閾値Dmin及び上限閾値Dmaxの値は、車両の走行路の幅として想定され得る下限の値と上限の値となっているが、これらの値は適宜変更可能となっている。S13でエッジ間の距離dijが下限閾値Dminより大きく且つ上限閾値Dmax未満でないと判定された場合は中点位置の投票を行わずS15に移行する。一方、S13でエッジ間の距離dijが下限閾値Dminより大きく且つ上限閾値Dmax未満であると判定された場合はS14に移行して、中点算出部22が上記エッジ間の中点位置を算出すると共に中点位置投票部23が中点位置の投票を行う(基準点算出工程、基準点位置投票工程)。 In S13, it is determined whether or not the distance d ij between the edge points calculated in S12 is greater than the lower limit threshold Dmin and less than the upper limit threshold Dmax . Here, the values of the lower limit threshold value D min and the upper limit threshold value D max are the lower limit value and the upper limit value that can be assumed as the width of the traveling path of the vehicle, but these values can be changed as appropriate. . If it is determined in S13 that the distance d ij between the edges is greater than the lower threshold D min and not less than the upper threshold D max , the process moves to S15 without voting for the midpoint position. On the other hand, if it is determined in S13 that the distance d ij between the edges is greater than the lower threshold D min and less than the upper threshold D max , the process proceeds to S14, where the midpoint calculator 22 determines the midpoint position between the edges. And the midpoint position voting unit 23 votes the midpoint position (reference point calculation step, reference point position voting step).

S15では、対象ラインの全てのエッジ点についてS12〜S14の処理が実行されたか否かが判定される。S15で対象ラインの全てのエッジ点について上記処理が実行されたと判定された場合はS16に移行し、S15で対象ラインの全てのエッジ点について上記処理が未だ実行されていないと判定された場合は対象エッジを変更して再度S12〜S14の処理を実行する。   In S15, it is determined whether or not the processes in S12 to S14 have been executed for all edge points of the target line. If it is determined in S15 that the process has been executed for all edge points of the target line, the process proceeds to S16, and if it is determined in S15 that the process has not been executed for all edge points of the target line. The process of S12 to S14 is executed again after changing the target edge.

S16では、全ての対象ラインに対してS12〜S14の処理が実行されたか否かが判定される。S16で全ての対象ラインについて上記処理が実行されたと判定された場合はS18に移行し、S16で全ての対象ラインについて上記処理が実行されていないと判定された場合はS17に移行する。   In S16, it is determined whether or not the processing in S12 to S14 has been executed for all target lines. If it is determined in S16 that the process has been executed for all target lines, the process proceeds to S18. If it is determined in S16 that the process is not performed for all target lines, the process proceeds to S17.

S17では、対象ラインを次のラインに変更する処理が行われ、例えば図7のライン1が対象ラインであった場合には対象ラインをライン1の下部に位置するライン2に変更する。また、S18では、投票数が多い中点位置を車両の進行方向として探索する処理が実行され、具体的には、S14で中点位置投票部23によって投票された中点位置の投票結果から走行路検出部24が走行路を検出する処理が実行される(走行路検出工程)。このように、走行路検出部24が走行路を検出した後は、走行路の情報が出力部30に出力されて一連の処理が終了する。   In S17, a process for changing the target line to the next line is performed. For example, when the line 1 in FIG. 7 is the target line, the target line is changed to the line 2 positioned below the line 1. In S18, a process of searching for a midpoint position with a large number of votes as a traveling direction of the vehicle is executed. Specifically, the vehicle travels from the vote result of the midpoint position voted by the midpoint position voting unit 23 in S14. A process in which the road detection unit 24 detects a travel path is executed (travel path detection step). As described above, after the travel path detection unit 24 detects the travel path, the travel path information is output to the output unit 30 and the series of processes ends.

走路検出装置1における走行路検出処理は以上のように行われるが、この走路検出装置1では、上がりエッジ点と下がりエッジ点の中点を随時算出していくことにより、中点位置投票部23による中点位置への投票数を増やすことができる。よって、推定される中点位置を実際の車線の中心に近づけることができるので、走行路の推定結果をより安定させることができる。また、走路検出装置1では、中点位置の投票によって走行路の推定を行っているので、レーンマークが分岐線である場合やレーンマークの一部が隠れている場合でも、走行路の検出を安定させることができる。   The travel path detection process in the travel path detection apparatus 1 is performed as described above. In the travel path detection apparatus 1, the midpoint position voting unit 23 calculates the midpoint of the rising edge point and the falling edge point as needed. It is possible to increase the number of votes for the midpoint position. Therefore, the estimated midpoint position can be brought closer to the center of the actual lane, and the travel path estimation result can be made more stable. Further, since the road detection device 1 estimates the road by voting the midpoint position, the road detection can be performed even when the lane mark is a branch line or a part of the lane mark is hidden. It can be stabilized.

また、第1実施形態の走路検出方法では、道路の輝度の変化点であるエッジ点を検出するエッジ検出工程と、エッジ検出工程で検出される左側のエッジ点と右側のエッジ点から走行するための基準点を算出する基準点算出工程と、基準点算出工程で算出された基準点点の位置を投票する基準点位置投票工程と、基準点位置投票工程で投票された基準点の位置から車両の走行路を検出する走行路検出工程と、を備えている。このように、本実施形態では、従来のように白線候補を線として検出せずに、左右両側のエッジ点から得られる基準点の位置を用いて走行路を検出する。よって、実際のレーンマークが複合線である場合でも、両側の複合線から検出された各エッジ点から得られた基準点の投票結果で走行路が検出されるので、走行路の検出結果を安定させることができる。   Further, in the road detection method according to the first embodiment, the vehicle travels from an edge detection step that detects an edge point that is a change point of the brightness of the road, and the left edge point and the right edge point that are detected in the edge detection step. A reference point calculation step for calculating the reference point, a reference point position voting step for voting the position of the reference point calculated in the reference point calculation step, and a reference point position voted in the reference point position voting step. A travel path detecting step for detecting the travel path. Thus, in the present embodiment, the road is detected using the positions of the reference points obtained from the left and right edge points without detecting the white line candidate as a line as in the prior art. Therefore, even when the actual lane mark is a composite line, the travel path is detected by the voting results of the reference points obtained from the edge points detected from the composite lines on both sides, so the travel path detection result is stable. Can be made.

具体的には、図8(a)に示されるように、左右両脇で2本の白線H21,H22が前後に延在しており、左側の白線H21から更に左側に白線H23が分岐している分岐線の場合、上記同様中点算出部22による中点位置の算出と中点位置投票部23による中点位置の投票が行われる。そして、白線H21と白線H22の中間で前後に延在する走行路として相応しい走路候補部C21〜C27を検出できる。   Specifically, as shown in FIG. 8 (a), two white lines H21 and H22 extend forward and backward on the left and right sides, and the white line H23 branches further to the left from the left white line H21. In the case of a branch line, the midpoint position is calculated by the midpoint calculator 22 and the midpoint position is voted by the midpoint position voting unit 23 as described above. And it is possible to detect runway candidate portions C21 to C27 suitable as a runway extending forward and backward between the white line H21 and the white line H22.

すなわち、図6のS13に示されるようにエッジ点間の距離が所定範囲内であるか否かを判定し、分岐した白線H23のエッジ点を処理対象から除外しているので、白線H23の影響を受けずに相応しい走路候補部C21〜C27を検出できる。このように、走路検出装置1では、中点位置の投票によって走行路を推定しているので、分岐した白線H23を撮像した場合でも、走行路の推定結果を安定させることができる。   That is, as shown in S13 of FIG. 6, it is determined whether the distance between the edge points is within a predetermined range, and the edge point of the branched white line H23 is excluded from the processing target. Suitable runway candidate parts C21-C27 can be detected without receiving. As described above, in the travel path detection device 1, since the travel path is estimated by voting for the midpoint position, the travel path estimation result can be stabilized even when the branched white line H23 is captured.

また、図8(b)に示されるように、左側に白線H31が前後に延在し右側に白線H32が前後に延在し、左側の白線H31の一部が他車両B等によって隠れている場合、他車両Bによって隠れているラインの中点は検出できないが、それ以外の部分の中点は検出できる。よって、他車両Bの前後において白線H31と白線H32の中間で前後に延在する走行路として相応しい走路候補部C31〜C35を検出できる。このように、白線の一部が隠れている場合でも中点位置の推定結果が大幅にずれる事態を回避でき、走行路の推定結果を安定させることができる。更に、中点位置投票部23の投票によって走行路を推定すると、従来よりもノイズ耐性が強くなるため、雨天時や夜間等のノイズが大きい環境下でも精度良く走行路の推定を行うことが可能となる。   Further, as shown in FIG. 8B, the white line H31 extends forward and backward on the left side, the white line H32 extends forward and backward on the right side, and a part of the left white line H31 is hidden by the other vehicle B or the like. In this case, the midpoint of the line hidden by the other vehicle B cannot be detected, but the midpoints of other portions can be detected. Therefore, it is possible to detect runway candidate portions C31 to C35 suitable as a runway extending forward and backward between the white line H31 and the white line H32 before and after the other vehicle B. In this way, even when a part of the white line is hidden, it is possible to avoid a situation in which the estimation result of the midpoint position is significantly shifted, and it is possible to stabilize the estimation result of the traveling road. Furthermore, when the travel route is estimated by voting by the midpoint position voting unit 23, noise resistance is stronger than before, so it is possible to accurately estimate the travel route even in a noisy environment such as rain or at night. It becomes.

(第2実施形態)
次に、第2実施形態の走路検出装置101について図9〜図11を参照して説明する。第2実施形態の走路検出装置101は、車両のピッチング角度の変化量を算出し、ピッチング角度を上記変化量で補正してエッジ点間の距離を算出する。図9に示されるように、第2実施形態の走路検出装置101は、第1実施形態のECU20に代えて、更に距離算出部125とピッチング角度変化算出部126が追加されたECU120を用いた点が第1実施形態と異なっており、その他の構成は第1実施形態と同様である。よって、以下では、第2実施形態のECU120について重点的に説明し、第1実施形態と重複する部分については説明を省略する。
(Second Embodiment)
Next, the track detection apparatus 101 of 2nd Embodiment is demonstrated with reference to FIGS. The travel path detection apparatus 101 according to the second embodiment calculates the change amount of the pitching angle of the vehicle, corrects the pitching angle with the change amount, and calculates the distance between the edge points. As shown in FIG. 9, the track detection device 101 according to the second embodiment uses an ECU 120 in which a distance calculation unit 125 and a pitching angle change calculation unit 126 are further added instead of the ECU 20 of the first embodiment. Is different from the first embodiment, and other configurations are the same as those of the first embodiment. Therefore, in the following, the ECU 120 of the second embodiment will be described with emphasis, and description of portions overlapping with those of the first embodiment will be omitted.

距離算出部125は、撮像画像の左側の画像におけるエッジ点と右側の画像におけるエッジ点との距離を算出する。具体的には、例えば図7に示される左側の上がりエッジ点L1と右側の下がりエッジ点R2の距離d12を算出し、このようなエッジ点間の距離の算出をエッジ点毎及びライン毎に行う。 The distance calculation unit 125 calculates the distance between the edge point in the left image of the captured image and the edge point in the right image. Specifically, for example, left to calculate the distance d 12 of the rising edge point L1 and a right edge point R2 shown in FIG. 7, the calculation of the distance between such an edge point for each edge point and line-by-line basis Do.

ピッチング角度変化算出部126は、距離算出部125がエッジ点毎及びライン毎に算出したエッジ点間の距離から図10に示されるようなヒストグラムを生成する。図10(a)は車両がピッチングを起こしていない場合における車幅の半分の値の例を示し、図10(b)は車両がピッチングを起こしている場合における車幅の半分の値の例を示し、図10(c)は図10(b)のヒストグラムを右側にずらしてピッチング角を補正したときの例を示している。   The pitching angle change calculation unit 126 generates a histogram as shown in FIG. 10 from the distance between the edge points calculated by the distance calculation unit 125 for each edge point and for each line. FIG. 10A shows an example of a half value of the vehicle width when the vehicle does not cause pitching, and FIG. 10B shows an example of a half value of the vehicle width when the vehicle causes pitching. FIG. 10C shows an example in which the pitching angle is corrected by shifting the histogram of FIG. 10B to the right side.

ここで、図10(a)及び図10(b)に示されるように、ピッチングを起こしていないときの車幅を2で割った値の平均値X1と、ピッチングを起こしているときの車幅を2で割った値の平均値X2とは異なっている。このように、ピッチングが発生すると撮像画像上において車幅の値が変化してしまう。よって、本実施形態ではピッチング角の変化量を算出し、その変化量でピッチング角を補正した後に再度エッジ点間の距離を算出することにより、ピッチング発生時における走行路検出の精度を高めている。すなわち、ピッチング角の補正後には、図10(c)に示されるように度数の平均値X3が図10(a)の平均値X1に近くなっており、ピッチングが発生していないときと同程度の精度で走行路を検出することができる。   Here, as shown in FIGS. 10 (a) and 10 (b), the average value X1 of the value obtained by dividing the vehicle width when pitching is not caused by 2 and the vehicle width when pitching is caused. It is different from the average value X2 of the value obtained by dividing by 2. Thus, when pitching occurs, the value of the vehicle width changes on the captured image. Therefore, in this embodiment, the amount of change in the pitching angle is calculated, and after correcting the pitching angle with the amount of change, the distance between the edge points is calculated again, thereby improving the accuracy of detection of the traveling path when pitching occurs. . That is, after correcting the pitching angle, the average value X3 of the frequencies is close to the average value X1 of FIG. 10A as shown in FIG. 10C, which is the same as when no pitching occurs. It is possible to detect the traveling road with the accuracy of

また、ピッチング角度変化算出部126は、カメラ10の焦点距離f、得られたヒストグラムの車幅の値の平均値dav、所望のレーン幅(ピッチング角が0°のときのレーン幅)dLane、所定のピッチング角度P、初期設定される推定領域への車両からの距離の平均値y(車両から0〜100m前方の距離が推定領域である場合は平均値で50m)、を用いて、例えば下記の式(1)でピッチング角の変化量ΔPを算出する。 Further, the pitching angle change calculation unit 126 calculates the focal length f of the camera 10, the average value d av of the vehicle width values of the obtained histogram, and the desired lane width (lane width when the pitching angle is 0 °) d Lane. , Using a predetermined pitching angle P 0 , an average value y from the vehicle to the initially set estimation area (an average value of 50 m when the distance from 0 to 100 m ahead of the vehicle is the estimation area), For example, the change amount ΔP of the pitching angle is calculated by the following equation (1).

次に、本実施形態に係る走路検出装置101を用いた走路検出方法について図11を参照しながら説明する。図11に示される処理は、ECU120によって実行される処理であり、例えば一定時間ごとに繰り返し実行される。   Next, a road detection method using the road detection device 101 according to the present embodiment will be described with reference to FIG. The process shown in FIG. 11 is a process executed by the ECU 120, and is repeatedly executed, for example, at regular intervals.

まず、S21において、図6のS11と同様のエッジ点の抽出及びラベリング処理を行う。そして、S22において、S12と同様に対象ラインにおける対象エッジ点間の距離dijを算出する。S22の後はS23で距離dijを用いた図10(a)に示されるようなヒストグラムの作成を行い、作成されたヒストグラムから平均値dav又は中央値を算出する(S24)。 First, in S21, edge point extraction and labeling processing similar to S11 in FIG. 6 is performed. In S22, the distance dij between the target edge points in the target line is calculated in the same manner as in S12. After S22, a histogram as shown in FIG. 10A using the distance d ij is created in S23, and an average value d av or median is calculated from the created histogram (S24).

S24の後は、S24で算出された平均値dav又は中央値と上記所望のレーン幅dLaneとの差分の絶対値が閾値dthresh未満であるか否かを判定する(S25)。S25で平均値dav又は中央値とレーン幅dLaneとの差分の絶対値が閾値dthresh未満であると判定された場合は、ピッチング角度が所定値未満であるものとしてS27に移行する。一方、S25で平均値dav又は中央値とレーン幅dLaneとの差分の絶対値が閾値dthresh未満でないと判定された場合は、ピッチング角度が所定値以上であるものとしてS26に移行する。 After S24, it is determined whether or not the absolute value of the difference between the average value d av or the median value calculated in S24 and the desired lane width d Lane is less than the threshold value d thresh (S25). If it is determined in S25 that the absolute value of the difference between the average value d av or the median value and the lane width d Lane is less than the threshold value d thresh , the pitching angle is less than the predetermined value, and the process proceeds to S27. On the other hand, if it is determined in S25 that the absolute value of the difference between the average value d av or the median value and the lane width d Lane is not less than the threshold value d thresh , the pitching angle is assumed to be greater than or equal to a predetermined value, and the process proceeds to S26.

S26では、例えば式(1)によってピッチング角の変化量ΔPを算出し、ピッチング角度Pの値を上記所定のピッチング角度Pと上記変化量ΔPの和として、再度エッジ点間の距離dijを算出する。そして、S27〜S32では、図6に示される第1実施形態のS13〜S18と同様の処理が行われ、走行路の情報が出力部30に出力されて一連の処理が終了する。 In S26, for example, calculates a change amount [Delta] P of the pitching angle by the equation (1), the value of the pitching angle P as the sum of the predetermined pitching angle P 0 and the variation amount [Delta] P, the distance d ij between re edge points calculate. And in S27-S32, the process similar to S13-S18 of 1st Embodiment shown by FIG. 6 is performed, the information of a driving path is output to the output part 30, and a series of processes are complete | finished.

以上、走路検出装置101ではピッチング角度変化算出部126が、距離算出部125によって算出された距離の度数の平均値dav又は中央値と道路の幅であるレーン幅dLaneとの差が閾値dthresh以上である場合に、平均値dav又は中央値とレーン幅dLaneとを用いてピッチング角の変化量ΔPを算出する。そして、距離算出部125は、距離の度数の平均値dav又は中央値と道路の幅であるレーン幅dLaneとの差が閾値dthresh以上である場合には、中点算出部22が中点の算出を行う前に、変化量ΔPだけピッチング角度Pの値を補正して再度エッジ点間の距離dijを算出する。 As described above, in the track detection device 101, the pitching angle change calculation unit 126 determines that the difference between the average value d av or the median value of the distance frequency calculated by the distance calculation unit 125 and the lane width d Lane that is the width of the road is the threshold value d. If it is equal to or greater than thresh , the pitching angle change amount ΔP is calculated using the average value d av or the median value and the lane width d Lane . When the difference between the average value d av or the median of the distance frequency and the lane width d Lane that is the width of the road is equal to or greater than the threshold value d thresh , the distance calculation unit 125 determines that the midpoint calculation unit 22 Before the point is calculated, the pitch angle P is corrected by the change amount ΔP, and the distance d ij between the edge points is calculated again.

このように、第2実施形態では、ピッチングが発生したときにピッチング角度Pを補正して再度エッジ点間の距離dijを算出しているので、ピッチングによって撮像画像が歪む影響を排除し、ピッチングが発生したときでも走行路の推定結果を安定させることができる。また、第2実施形態の走路検出装置101は、第1実施形態の走路検出装置1と同一の構成を備えているため、第1実施形態の走路検出装置1と同一の効果も得られる。 As described above, in the second embodiment, when pitching occurs, the pitching angle P is corrected and the distance d ij between the edge points is calculated again. Even when this occurs, the estimation result of the traveling road can be stabilized. Moreover, since the track detection apparatus 101 of 2nd Embodiment is equipped with the structure same as the track detection apparatus 1 of 1st Embodiment, the same effect as the track detection apparatus 1 of 1st Embodiment is also acquired.

以上、前述した実施形態は、本発明に係る走路検出装置の実施形態を説明したものであり、本発明に係る走路検出装置は上記実施形態に記載されたものに限定されない。本発明に係る走路検出装置は、各請求項に記載した要旨を変更しないように上記実施形態に係る走路検出装置を変形し、又は他のものに適用したものであってもよい。   As mentioned above, embodiment mentioned above demonstrates embodiment of the runway detection apparatus which concerns on this invention, and the runway detection apparatus which concerns on this invention is not limited to what was described in the said embodiment. The runway detection apparatus according to the present invention may be modified from the runway detection apparatus according to the above-described embodiment or applied to another so as not to change the gist described in each claim.

例えば、上記実施形態では、中点算出部22が左側のエッジ点と右側のエッジ点の中点を算出し、中点位置投票部23が中点の位置を投票する例について説明したが、中点以外の点を基準点としてもよい。すなわち、基準点の位置を中点とする代わりに、例えば基準点の位置を中点から左側又は右側に所定量オフセットさせた位置としてもよい。この場合、車両を車線内で左寄り又は右寄りに走行させることができる。また、車両がカーブを走行している際には、車線内でカーブの内側を走行させるように、基準点の位置を投票させることも可能である。   For example, in the above embodiment, the midpoint calculation unit 22 calculates the midpoint of the left edge point and the right edge point, and the midpoint position voting unit 23 votes the midpoint position. A point other than the point may be used as the reference point. That is, instead of setting the position of the reference point as the middle point, for example, the position of the reference point may be set to a position offset by a predetermined amount from the middle point to the left side or the right side. In this case, the vehicle can travel leftward or rightward in the lane. In addition, when the vehicle is traveling on a curve, the position of the reference point can be voted so that the vehicle travels inside the curve in the lane.

また、上記実施形態では、カメラ10が撮像した撮像画像からエッジ検出部21がエッジ点を検出し、検出したエッジ点間の中点を算出した。しかしながら、撮像画像以外から基準点を算出してもよい。すなわち、撮像画像に代えて、赤外線センサや電磁波を用いたレーダー装置を用いてもよく、例えばレーザー装置が道路の輝度の変化点である3次元点を検出し、検出した3次元点から基準点を算出してもよい。   Moreover, in the said embodiment, the edge detection part 21 detected the edge point from the captured image which the camera 10 imaged, and calculated the midpoint between the detected edge points. However, the reference point may be calculated from other than the captured image. That is, instead of the captured image, an infrared sensor or a radar device using electromagnetic waves may be used. For example, the laser device detects a three-dimensional point that is a change point of the brightness of the road, and the reference point is detected from the detected three-dimensional point. May be calculated.

また、上記実施形態では、白線のエッジ点を検出する例について説明したが、例えば縁石のエッジ点を検出してもよく、エッジ点を検出する対象は上記に限定されない。   Moreover, although the example which detects the edge point of a white line was demonstrated in the said embodiment, you may detect the edge point of a curb, for example, and the object which detects an edge point is not limited above.

また、上記実施形態では、カメラ10の撮影画像の左側及び右側の両方からエッジ点を検出したが、車両が走行している走行路の情報を取得しているような場合には撮像画像の左側及び右側のいずれか一方からエッジ点を検出してもよく、この場合も基準点の位置と走行路の推定が可能である。   Further, in the above embodiment, the edge points are detected from both the left side and the right side of the captured image of the camera 10, but in the case where the information on the travel path on which the vehicle is traveling is acquired, the left side of the captured image is displayed. The edge point may be detected from either one of the right side and the right side, and in this case, the position of the reference point and the traveling path can be estimated.

また、上記実施形態では、一車線の道路の左右両側からエッジ点を検出したが、対象の道路の車線は一車線に限定されない。具体的には、例えば対象とする車線の幅の閾値を変更して三車線の道路からエッジ点を検出してもよい。この場合、一本の白線が隠れても、その外側又は内側の白線から基準点の位置を算出することができるので、白線が隠れたときでも走行路の検出を精度よく行うことができる。   Moreover, in the said embodiment, although the edge point was detected from the right-and-left both sides of the road of one lane, the lane of the object road is not limited to one lane. Specifically, for example, the edge point may be detected from a three-lane road by changing the threshold value of the width of the target lane. In this case, even if one white line is hidden, the position of the reference point can be calculated from the white line outside or inside the white line. Therefore, even when the white line is hidden, the traveling path can be detected with high accuracy.

1,101…走路検出装置、21…エッジ検出部、22…中点算出部(基準点位置算出部)、23…中点位置投票部(基準点位置投票部)、24…走行路検出部、125…距離算出部、126…ピッチング角度変化算出部、dthresh…閾値、L1,L3,L11,L13,R1,R3,R11,R13…エッジ点(上がりエッジ点)、L2,L4,L12,L14,R2,R4,R12,R14…エッジ点(下がりエッジ点)。 DESCRIPTION OF SYMBOLS 1,101 ... Runway detection apparatus, 21 ... Edge detection part, 22 ... Midpoint calculation part (reference point position calculation part), 23 ... Midpoint position voting part (reference point position voting part), 24 ... Traveling path detection part, 125 ... distance calculation unit, 126 ... pitching angle change calculation unit, d thresh ... threshold, L1, L3, L11, L13, R1, R3, R11, R13 ... edge points (upward edge points), L2, L4, L12, L14 , R2, R4, R12, R14... Edge point (falling edge point).

Claims (6)

道路の輝度の変化点であるエッジ点を検出するエッジ検出部と、
前記エッジ検出部により検出される前記道路における左側の前記エッジ点と右側の前記エッジ点から車両の走行路の候補となる基準点を算出する基準点算出部と、
前記基準点算出部によって算出された前記基準点の位置を投票する基準点位置投票部と、
前記基準点位置投票部によって投票された前記基準点の位置から前記車両の走行路を検出する走行路検出部と、
を備えた走路検出装置。
An edge detection unit for detecting an edge point which is a change point of the brightness of the road;
A reference point calculation unit that calculates a reference point that is a candidate for a vehicle traveling path from the left edge point and the right edge point of the road detected by the edge detection unit;
A reference point position voting unit for voting the position of the reference point calculated by the reference point calculation unit;
A travel path detection unit that detects a travel path of the vehicle from the position of the reference point voted by the reference point position voting unit;
A roadway detection device with
前記基準点は、左側の前記エッジ点と右側の前記エッジ点との中点である、
請求項1に記載の走路検出装置。
The reference point is a midpoint between the left edge point and the right edge point.
The runway detection apparatus according to claim 1.
前記エッジ検出部は、前記道路の撮像画像上で左右の一方側から他方側に検出位置を移動させるときに輝度が上がる上がりエッジ点と、前記撮像画像上で左右の一方側から他方側に検出位置を移動させるときに輝度が下がる下がりエッジ点と、を検出し、
前記基準点算出部は、前記左側の前記上がりエッジ点と前記右側の前記下がりエッジ点から前記基準点を算出すると共に、前記左側の前記下がりエッジ点と前記右側の前記上がりエッジ点から前記基準点を算出する、
請求項1又は2に記載の走路検出装置。
The edge detection unit detects rising edge points that increase in brightness when the detection position is moved from one side to the other side on the captured image of the road, and from one side of the captured image to the other side. Detect the falling edge point where the brightness decreases when the position is moved,
The reference point calculation unit calculates the reference point from the left rising edge point and the right falling edge point, and also calculates the reference point from the left falling edge point and the right rising edge point. To calculate,
The runway detection apparatus according to claim 1 or 2.
前記左側の前記エッジ点と前記右側の前記エッジ点の距離を算出する距離算出部と、
前記距離算出部によって算出された前記距離の平均値又は中央値と前記道路のレーン幅との差が閾値以上である場合に、前記平均値又は前記中央値と前記道路のレーン幅とを用いて前記車両のピッチング角度の変化量を算出するピッチング角度変化算出部と、
を備え、
前記距離算出部は、前記平均値又は前記中央値と前記道路のレーン幅との差が前記閾値以上である場合には、前記基準点算出部が前記基準点の算出を行う前に、前記ピッチング角度変化算出部によって算出された前記ピッチング角度の変化量だけ前記車両のピッチング角度を補正して再度前記エッジ点間の距離を算出する、
請求項1〜3のいずれか一項に記載の走路検出装置。
A distance calculator that calculates a distance between the left edge point and the right edge point;
When the difference between the average value or the median value of the distances calculated by the distance calculation unit and the lane width of the road is equal to or greater than a threshold, the average value or the median value and the lane width of the road are used. A pitching angle change calculating unit for calculating a change amount of the pitching angle of the vehicle;
With
When the difference between the average value or the median value and the lane width of the road is equal to or greater than the threshold value, the distance calculation unit performs the pitching before the reference point calculation unit calculates the reference point. Correcting the pitching angle of the vehicle by the amount of change in the pitching angle calculated by the angle change calculating unit, and calculating the distance between the edge points again.
The runway detection device according to any one of claims 1 to 3.
前記エッジ点が前記道路の白線のエッジ点である、
請求項1〜4のいずれか一項に記載の走路検出装置。
The edge point is an edge point of a white line of the road;
The runway detection device according to any one of claims 1 to 4.
道路の輝度の変化点であるエッジ点を検出するエッジ検出工程と、
前記エッジ検出部により検出される前記道路における左側の前記エッジ点と右側の前記エッジ点から車両の走行路の候補となる基準点を算出する基準点算出工程と、
前記基準点算出工程で算出された前記基準点の位置を投票する基準点位置投票工程と、
前記基準点位置投票工程で投票された前記基準点の位置から前記車両の走行路を検出する走行路検出工程と、
を備えた走路検出方法。
An edge detection step for detecting an edge point that is a change point of the brightness of the road;
A reference point calculation step of calculating a reference point that is a candidate for a vehicle traveling path from the left edge point and the right edge point on the road detected by the edge detection unit;
A reference point position voting step for voting the position of the reference point calculated in the reference point calculation step;
A travel path detection step of detecting a travel path of the vehicle from the position of the reference point voted in the reference point position voting step;
A runway detection method comprising:
JP2013267026A 2013-04-08 2013-12-25 Track detection device and track detection method Pending JP2014219960A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013267026A JP2014219960A (en) 2013-04-08 2013-12-25 Track detection device and track detection method
PCT/IB2014/000432 WO2014167393A1 (en) 2013-04-08 2014-03-28 Travel path detection apparatus and travel path detection method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013080589 2013-04-08
JP2013080589 2013-04-08
JP2013267026A JP2014219960A (en) 2013-04-08 2013-12-25 Track detection device and track detection method

Publications (1)

Publication Number Publication Date
JP2014219960A true JP2014219960A (en) 2014-11-20

Family

ID=50687519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013267026A Pending JP2014219960A (en) 2013-04-08 2013-12-25 Track detection device and track detection method

Country Status (2)

Country Link
JP (1) JP2014219960A (en)
WO (1) WO2014167393A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063584A (en) * 2016-10-13 2018-04-19 株式会社Soken Compartment line detection device
JP2022120300A (en) * 2021-02-05 2022-08-18 国立研究開発法人農業・食品産業技術総合研究機構 Vehicle control system and method for controlling vehicle
JP2023553112A (en) * 2020-12-16 2023-12-20 北京極智嘉科技股▲ふん▼有限公司 Robot and positioning method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3036180B1 (en) * 2015-05-11 2018-08-10 Valeo Schalter Und Sensoren Gmbh METHOD FOR DETERMINING THE PLATE OF A MOTOR VEHICLE
DE102018100292A1 (en) * 2018-01-09 2019-07-11 Connaught Electronics Ltd. Detecting a lane marking by a lane keeping warning system of a vehicle
NL2024447B1 (en) * 2019-12-13 2021-09-01 Ravo B V Cleaning machine for a road or pavement or gutter

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4616046B2 (en) 2005-03-22 2011-01-19 本田技研工業株式会社 VEHICLE IMAGE PROCESSING SYSTEM, VEHICLE IMAGE PROCESSING METHOD, VEHICLE IMAGE PROCESSING PROGRAM, AND VEHICLE
WO2008130219A1 (en) * 2007-04-19 2008-10-30 Tele Atlas B.V. Method of and apparatus for producing road information

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063584A (en) * 2016-10-13 2018-04-19 株式会社Soken Compartment line detection device
JP2023553112A (en) * 2020-12-16 2023-12-20 北京極智嘉科技股▲ふん▼有限公司 Robot and positioning method
US12157635B2 (en) 2020-12-16 2024-12-03 Beijing Geekplus Technology Co., Ltd. Robot and positioning method
JP7657303B2 (en) 2020-12-16 2025-04-04 北京極智嘉科技股▲ふん▼有限公司 ROBOT, WAREHOUSE SYSTEM, POSITIONING METHOD, COMPUTER PROGRAM, AND STORAGE MEDIUM
JP2022120300A (en) * 2021-02-05 2022-08-18 国立研究開発法人農業・食品産業技術総合研究機構 Vehicle control system and method for controlling vehicle
JP7576266B2 (en) 2021-02-05 2024-10-31 国立研究開発法人農業・食品産業技術総合研究機構 Vehicle control system and vehicle control method

Also Published As

Publication number Publication date
WO2014167393A1 (en) 2014-10-16

Similar Documents

Publication Publication Date Title
US11302020B2 (en) Stereo camera device
US8611609B2 (en) Lane line estimating apparatus
JP5926080B2 (en) Traveling lane marking recognition device and program
US10147003B2 (en) Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof
US20190156131A1 (en) Image Processing Device, Outside Recognition Device
JP6416293B2 (en) Method of tracking a target vehicle approaching a car by a car camera system, a camera system, and a car
JP2014219960A (en) Track detection device and track detection method
US9697421B2 (en) Stereoscopic camera apparatus
JP5561064B2 (en) Vehicle object recognition device
JP2016016681A (en) Parking frame recognition device
JP6965739B2 (en) Vehicle control device
US8730325B2 (en) Traveling lane detector
JP2011180982A (en) Lane marker detecting apparatus
US10235579B2 (en) Vanishing point correction apparatus and method
JP6354659B2 (en) Driving support device
JP6649859B2 (en) Vehicle position estimation device and vehicle position estimation method
JP6194245B2 (en) Traffic light recognition device
JP2020057069A (en) Lane marking recognition device
EP3282389A1 (en) Image processing apparatus, image capturing apparatus, moving body apparatus control system, image processing method, and program
JP5559650B2 (en) Lane estimation device
JP2010146478A (en) Object detection device
US11889047B2 (en) Image processing device and image processing method
JP7351215B2 (en) Intersection center detection device, intersection lane determination device, intersection center detection method, intersection lane determination method and program
JP6963490B2 (en) Vehicle control device
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device