JP2010286995A - Image processing system for vehicle - Google Patents
Image processing system for vehicle Download PDFInfo
- Publication number
- JP2010286995A JP2010286995A JP2009139585A JP2009139585A JP2010286995A JP 2010286995 A JP2010286995 A JP 2010286995A JP 2009139585 A JP2009139585 A JP 2009139585A JP 2009139585 A JP2009139585 A JP 2009139585A JP 2010286995 A JP2010286995 A JP 2010286995A
- Authority
- JP
- Japan
- Prior art keywords
- lane mark
- image
- vehicle
- backlight
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】逆光状態においても車両前方のレーンマークの認識精度を向上させ得る車両用画像処理システムを提供する。
【解決手段】
車両10の前方の路面を撮像する前方カメラ12および後方の路面を撮像する後方カメラ13との撮像画像である前方画像および後方画像に基づく画像処理を実行する車両用画像処理システム100は、逆光判定手段110と、逆光判定手段100により逆光状態であると判定された場合に、前方画像または後方画像のいずれか一方からレーンマーク候補を検出すると共に、検出したレーンマーク候補を残る他方の画像から抽出される画像特徴量と突き合わせることにより、車両10の前方の路面に存在する真のレーンマークを検出するレーンマーク検出手段120とを備える。
【選択図】図1A vehicle image processing system capable of improving the recognition accuracy of a lane mark in front of a vehicle even in a backlit state.
[Solution]
A vehicle image processing system 100 that executes image processing based on a front image and a rear image that are captured images of a front camera 12 that images a road surface in front of the vehicle 10 and a rear camera 13 that images a road surface in the back is determined by backlight determination. When it is determined by the means 110 and the backlight determination means 100 that the backlight is in the backlight state, a lane mark candidate is detected from either the front image or the rear image, and the detected lane mark candidate is extracted from the remaining image. And a lane mark detection unit 120 that detects a true lane mark present on the road surface ahead of the vehicle 10 by matching with the image feature amount.
[Selection] Figure 1
Description
本発明は、カメラ等の撮像手段を介して取得された路面画像から道路のレーンマークを検出する車両用画像処理システムに関する。 The present invention relates to an image processing system for a vehicle that detects a lane mark of a road from a road surface image acquired via an imaging unit such as a camera.
従来、この種の車両用画像処理システムでは、下記特許文献1に示すように、車両の前方および後方にそれぞれ前方カメラおよび後方カメラを搭載し、これらの画像のうち照度の高い画像を選択して、該画像に基づいて道路のレーンマークを検出する技術が知られている。 Conventionally, in this type of vehicle image processing system, as shown in Patent Document 1 below, a front camera and a rear camera are mounted on the front and rear of the vehicle, respectively, and an image with high illuminance is selected from these images. A technique for detecting a road lane mark based on the image is known.
また、下記特許文献2に示す車両用画像処理システムでは、車両の前方および後方にそれぞれ前方カメラおよび後方カメラを搭載し、これらの画像の輝度の最大値および最小値が所定範囲内となる画像を良好な画像と判断して、該画像に基づいて道路のレーンマークを検出する技術が知られている。 In the vehicle image processing system shown in Patent Document 2 below, a front camera and a rear camera are mounted in front and rear of the vehicle, respectively, and images whose maximum and minimum luminance values are within a predetermined range are provided. A technique for determining a good image and detecting a road lane mark based on the image is known.
しかし、太陽光等の光が車両の進行方向とは反対方向から当該車両に対して照射されている逆光状態において、前方カメラおよび後方カメラのうちいずれか一方の選択画像のみに基づいて道路のレーンマークが検出されると、レーンマークの認識精度が低下する可能性がある。 However, in a backlit state where light such as sunlight is irradiated to the vehicle from a direction opposite to the traveling direction of the vehicle, the road lane is based only on the selected image of either the front camera or the rear camera. When the mark is detected, the recognition accuracy of the lane mark may be lowered.
すなわち、逆光状態において前方カメラの画像が選択された場合、轍または道路に設けられている人工溝などレーンマークの存在しない路面部分がレーンマークであると誤認識される可能性が高い。また、黄色線のレーンマークの色情報または白線のレーンマークのレーンマークが設けられていない路面部分に対する輝度コントラストが抽出困難となる。 That is, when an image of the front camera is selected in the backlight state, there is a high possibility that a road surface portion having no lane mark such as an eaves or an artificial groove provided on the road is erroneously recognized as a lane mark. Further, it is difficult to extract the luminance contrast for the road surface portion where the color information of the yellow lane mark or the lane mark of the white lane mark is not provided.
一方、逆光状態において後方カメラの画像が選択された場合、当該画像から抽出されたレーンマークの配置パターンが車両後方および前方において相違する場合、当該車両前方に存在する実際のレーンマークと、後方レーンマークから推測されたレーンマークとが異なる。 On the other hand, when an image of the rear camera is selected in the backlight state, if the arrangement pattern of the lane mark extracted from the image is different between the rear and front of the vehicle, the actual lane mark present in front of the vehicle and the rear lane The lane mark inferred from the mark is different.
そこで、本発明は、逆光状態においても車両前方のレーンマークの認識精度を向上させ得る車両用画像処理システムを提供することを目的とする。 Therefore, an object of the present invention is to provide a vehicle image processing system that can improve the recognition accuracy of a lane mark in front of the vehicle even in a backlight state.
第1発明の車両用画像処理システムは、車両に搭載されて該車両の前方の路面を撮像する前方撮像手段と該車両の後方の路面を撮像する後方撮像手段との撮像画像に基づき、画像処理を実行する車両用画像処理システムであって、前記前方撮像手段により撮像された前方画像と前記後方撮像手段により撮像された後方画像とのいずれか一方または両方に基づいて、太陽光等の光が前記車両の進行方向とは反対方向から当該車両に対して照射されている逆光状態であるか否かを判定する逆光判定手段と、前記逆光判定手段により逆光状態であると判定された場合に、前記前方画像または前記後方画像のいずれか一方からレーンマーク候補を検出すると共に、検出したレーンマーク候補を残る他方の画像から抽出される画像特徴量と突き合わせることにより、前記車両前方の路面に存在する真のレーンマークを検出するレーンマーク検出手段とを備えることを特徴とする。 An image processing system for a vehicle according to a first aspect of the present invention is based on image processing performed by a front imaging unit that is mounted on a vehicle and images a road surface in front of the vehicle, and a rear imaging unit that images a road surface behind the vehicle. The image processing system for vehicles that performs the above-mentioned, wherein light such as sunlight is generated based on one or both of the front image captured by the front imaging unit and the rear image captured by the rear imaging unit. When it is determined that the backlight is illuminated by the backlight from the direction opposite to the traveling direction of the vehicle, and the backlight determining means determines that the vehicle is in the backlight state. A lane mark candidate is detected from either the front image or the rear image, and the detected lane mark candidate is matched with an image feature amount extracted from the remaining image. And by, characterized in that it comprises a lane mark detection means for detecting a true lane marks present in the vehicle front road.
第1発明の車両用画像処理システムによれば、逆光状態であると判定された場合、前方画像および後方画像のうちいずれか一方の画像からレーンマーク候補が検出されるともに、当該レーンマーク候補が他方の画像から抽出される画像特徴量と突き合わせられることにより、車両前方の路面に存在するレーンマークが検出される。 According to the vehicle image processing system of the first invention, when it is determined that the backlight is in the backlight state, the lane mark candidate is detected from one of the front image and the rear image, and the lane mark candidate is By matching with the image feature amount extracted from the other image, the lane mark present on the road surface ahead of the vehicle is detected.
すなわち、逆光状態において、車両後方におけるレーンマーク候補または画像特徴量の抽出の観点から信頼性の高い後方画像のみならず、当該信頼性は低いものの車両前方に存在するレーンマークの認識に際して有用な情報を含んでいる前方画像が利用される。その結果、前方画像および後方画像のうちいずれか一方が選択的に用いられる場合と比較して、前方画像に存在するレーンマークの認識精度の向上が図られる。 That is, in backlit conditions, useful information for recognizing not only lane mark candidates or image features that are behind the vehicle, but also lane marks that are located in front of the vehicle, although the reliability is low. The front image containing is used. As a result, the recognition accuracy of the lane mark existing in the front image is improved as compared with the case where either one of the front image and the rear image is selectively used.
第2発明の車両用画像処理システムは、第1発明の車両用画像処理システムにおいて、前記レーンマーク検出手段は、前記前方画像に基づいてレーンマーク候補を検出し、検出した該レーンマーク候補の車幅方向の位置を算出すると共に、前記逆光判定手段により逆光状態であると判定された場合に、前記画像特徴量としての、前記後方画像における該位置に対応した位置の輝度および色成分のうちいずれか一方または両方に基づいて、該レーンマーク候補から真のレーンマークを検出することを特徴とする。 The vehicular image processing system according to a second aspect is the vehicular image processing system according to the first aspect, wherein the lane mark detection means detects a lane mark candidate based on the front image, and the detected lane mark candidate vehicle. When calculating the position in the width direction and determining that the backlight is in the backlight state by the backlight determination unit, either the luminance or the color component of the position corresponding to the position in the rear image as the image feature amount Based on either or both, a true lane mark is detected from the lane mark candidate.
第2発明の車両用画像処理システムによれば、逆光状態において、車両後方における画像特徴量として輝度および色成分のうち一方または両方の抽出の観点から信頼性の高い後方画像のみならず、当該信頼性は低いものの車両前方に存在するレーンマークの認識に際して有用な情報、すなわち、後方画像において当該画像特徴量の抽出対象となる位置を特定するレーンマーク候補を含んでいる前方画像が利用される。その結果、前方画像および後方画像のうちいずれか一方が選択的に用いられる場合と比較して、前方画像に存在するレーンマークの認識精度の向上が図られる。 According to the vehicle image processing system of the second aspect of the invention, in the backlit state, not only the rear image that is highly reliable from the viewpoint of extracting one or both of the luminance and color components as the image feature amount behind the vehicle, but also the reliability Although useful, information useful for recognizing a lane mark present in front of the vehicle, that is, a front image including a lane mark candidate for specifying a position from which the image feature amount is to be extracted in the rear image is used. As a result, the recognition accuracy of the lane mark existing in the front image is improved as compared with the case where either one of the front image and the rear image is selectively used.
第3発明の車両用画像処理システムは、第1発明の車両用画像処理システムにおいて、前記レーンマーク検出手段は、前記逆光判定手段により逆光状態であると判定された場合、前記後方画像に基づいてレーンマーク候補を検出し、検出した該レーンマーク候補の車幅方向の位置を算出すると共に、前記前方画像における該算出位置に対応した位置の輝度に基づいて、真のレーンマークを検出することを特徴とする。 A vehicle image processing system according to a third aspect of the present invention is the vehicle image processing system according to the first aspect, wherein the lane mark detection means is based on the rear image when the backlight determination means determines that the backlight is in a backlight state. Detecting a lane mark candidate, calculating a position in the vehicle width direction of the detected lane mark candidate, and detecting a true lane mark based on a luminance of a position corresponding to the calculated position in the front image. Features.
第3発明の車両用画像処理システムによれば、逆光状態において、車両後方におけるレーンマーク候補の抽出の観点から信頼性の高い後方画像のみならず、当該信頼性は低いものの車両前方に存在するレーンマークの認識に際して有用な情報、すなわち、輝度を含んでいる前方画像が利用される。その結果、前方画像および後方画像のうちいずれか一方が選択的に用いられる場合と比較して、前方画像に存在するレーンマークの認識精度の向上が図られる。 According to the vehicle image processing system of the third aspect of the invention, in the backlit state, not only the rear image having high reliability from the viewpoint of extracting the lane mark candidate in the rear of the vehicle, but also the lane existing in front of the vehicle although the reliability is low. Information useful for the recognition of the mark, that is, a front image including luminance is used. As a result, the recognition accuracy of the lane mark existing in the front image is improved as compared with the case where either one of the front image and the rear image is selectively used.
第4発明の車両用画像処理システムは、第1〜第3発明のいずれかの車両用画像処理システムにおいて、前記逆光判定手段は、前記後方画像の下端中心を包囲する低輝度領域が存在する場合に、逆光状態であると判定することを特徴とする。 The vehicle image processing system according to a fourth aspect of the present invention is the vehicle image processing system according to any one of the first to third aspects, wherein the backlight determining means has a low luminance region surrounding the lower end center of the rear image. In addition, it is characterized in that it is determined to be in a backlight state.
第4発明の車両用画像処理システムによれば、逆光状態において車両の影が当該車両の後方路面に現れる蓋然性が高いことに鑑みて、ところ、逆光状態であるか否かが簡易かつ正確に判定されうる。 According to the vehicle image processing system of the fourth aspect of the invention, in view of the high probability that the shadow of the vehicle appears on the rear road surface of the vehicle in the backlight state, it is determined simply and accurately whether or not it is in the backlight state. Can be done.
図1に示すように、車両用画像処理システム100は、車両10に搭載されているハードウェアとしての電子制御ユニット(コンピュータ)11により構成される。車両用画像処理システム100は、車両10の前方のカラー路面画像(前方画像)を撮像する前方カメラ(前方撮像手段)12と、車両10の後方のカラー路面画像(後方画像)を撮像する後方カメラ(後方撮像手段)13とに接続され、これらの撮像画像である路面画像に基づき、画像処理を実行する。 As shown in FIG. 1, the vehicle image processing system 100 includes an electronic control unit (computer) 11 as hardware mounted on the vehicle 10. The vehicle image processing system 100 includes a front camera (front imaging unit) 12 that captures a color road surface image (front image) in front of the vehicle 10 and a rear camera that captures a color road surface image (rear image) behind the vehicle 10. (Backward imaging means) 13 is connected to perform image processing based on the road surface images that are these captured images.
車両用画像処理システム100は、記憶手段101と、逆光判定手段110と、レーンマーク検出手段120とを備えている。 The vehicle image processing system 100 includes a storage unit 101, a backlight determination unit 110, and a lane mark detection unit 120.
記憶手段101は、レーンマークの複数の規格(レーンマーク色、規格幅等)を記憶する。 The storage unit 101 stores a plurality of lane mark standards (lane mark color, standard width, etc.).
逆光判定手段110は、後方カメラ13から取得した後方画像に基づいて、太陽光等の光が車両10の進行方向とは反対方向から当該車両10に対して照射されている逆光状態であるか否かを判定する。 Based on the rear image acquired from the rear camera 13, the backlight determination unit 110 is in a backlight state in which light such as sunlight is applied to the vehicle 10 from a direction opposite to the traveling direction of the vehicle 10. Determine whether.
レーンマーク検出手段120は、前方画像または前記後方画像のいずれか一方からレーンマーク候補を検出すると共に、検出したレーンマーク候補を基に車両10前方の路面に存在する真のレーンマークを検出する。 The lane mark detection unit 120 detects a lane mark candidate from either the front image or the rear image, and detects a true lane mark present on the road surface in front of the vehicle 10 based on the detected lane mark candidate.
[第1実施形態]
次に、図2〜図7を参照して、前記構成の車両用画像処理システムの機能(車両用画像処理方法)について説明する。
[First Embodiment]
Next, functions (vehicle image processing method) of the vehicle image processing system configured as described above will be described with reference to FIGS.
まず、レーンマーク検出手段120が、前方カメラ12から前方画像を取得する(図2/STEP1)。 First, the lane mark detection unit 120 acquires a front image from the front camera 12 (FIG. 2 / STEP 1).
次いで、レーンマーク検出手段120が、取得した前方画像からレーンマーク候補を検出するレーンマーク候補検出処理を実行する(図2/STEP2)。 Next, the lane mark detection means 120 executes a lane mark candidate detection process for detecting a lane mark candidate from the acquired front image (FIG. 2 / STEP 2).
レーンマーク候補検出処理の詳細については、本出願人による特開平11−85999号公報に係る手法が採用されればよいので、本願明細書では詳細な説明を省略するが、具体的には、レーンマーク検出手段120により、画面走査方向を右として、高輝度(明)から低輝度(暗)に転じるエッジ点が「負エッジ点」として認識され、低輝度(暗)から高輝度(明)に転じるエッジ点が「正エッジ点」として認識される。なお、画像の各ピクセルの輝度値は、例えば、取得されたカラー画像I0の各ピクセルのR値,G値,B値から算出される。 Regarding the details of the lane mark candidate detection process, a technique according to Japanese Patent Application Laid-Open No. 11-85999 by the applicant of the present application may be adopted. The mark detection means 120 recognizes an edge point that changes from high luminance (bright) to low luminance (dark) with the screen scanning direction to the right as a “negative edge point”, and changes from low luminance (dark) to high luminance (bright). The turning edge point is recognized as a “normal edge point”. Note that the luminance value of each pixel of the image is calculated from, for example, the R value, G value, and B value of each pixel of the acquired color image I0.
例えば、前方画像が、図4(a)に示すように、レーンの左右両側に白線(レーンマーク)Mがあり、白線Mからレーン中央寄りに道路の延設方向に沿って補修跡Rが延びているものとする。このとき、逆光状態の原因である太陽光の照射により前方画像において補修跡Rは高輝度部分となり、レーンの左側の白線は、白線以外の路面部分に対する輝度コントラストが低下しているものとする。 For example, as shown in FIG. 4A, the front image has white lines (lane marks) M on the left and right sides of the lane, and the repair trace R extends from the white line M toward the center of the lane along the road extending direction. It shall be. At this time, it is assumed that the repaired trace R becomes a high-luminance portion in the front image due to the irradiation of sunlight that is the cause of the backlight state, and the white line on the left side of the lane has a reduced luminance contrast with respect to the road surface portion other than the white line.
この場合、図4(b)に示すように、白線Mや補修跡Rの左エッジ上の点が正エッジ点(「+」で表されている)として認識されるとともに、右エッジ上の点が負エッジ点(「−」で表されている)として認識される。 In this case, as shown in FIG. 4B, a point on the left edge of the white line M or repair mark R is recognized as a positive edge point (represented by “+”), and a point on the right edge. Are recognized as negative edge points (represented by “−”).
これにより、直線成分を有する正エッジ点群及び負エッジ点群により挟まれた領域、すなわち、図4(b)に示されているように、左白線Mが、直線成分を有する正エッジ点群L1aと負エッジ点群L1bとによるレーンマーク候補M1として認識され、補修跡Rが直線成分を有する正エッジ点群L2aと負エッジ点群L2bとによるレーンマーク候補M2として認識され、右白線Mが、直線成分を有する正エッジ点群L3aと負エッジ点群L3bとによるレーンマーク候補M3として認識される。 Thereby, as shown in FIG. 4B, the left white line M is a positive edge point group having a linear component, as shown in FIG. 4B, between the positive edge point group and the negative edge point group having a linear component. L1a and the negative edge point group L1b are recognized as lane mark candidates M1, and the repair trace R is recognized as a lane mark candidate M2 having a straight edge component L2a and a negative edge point group L2b, and the right white line M is Are recognized as lane mark candidates M3 by the positive edge point group L3a and the negative edge point group L3b having a straight line component.
次に、レーンマーク検出手段120は、検出されたレーンマーク候補の車両10の中央から車幅方向の位置を算出する(図2/STEP3)。 Next, the lane mark detection means 120 calculates the position in the vehicle width direction from the center of the detected vehicle 10 of the lane mark candidate (FIG. 2 / STEP 3).
具体的に、レーンマーク検出手段120は、各レーンマーク候補M1,M2,M3の直線成分(L1a,L1b,・・・,L3a,L3b)のデータを画像空間から実空間(車両10に固定された座標空間)へ射影変換することにより、これら各レーンマーク候補M1,M2,M3の実空間における左端および右端のX座標を車幅方向の位置として算出する。 Specifically, the lane mark detection unit 120 converts the linear component data (L1a, L1b,..., L3a, L3b) of each lane mark candidate M1, M2, M3 from the image space to the real space (fixed to the vehicle 10). Projective transformation to the left and right X coordinates in the real space of each lane mark candidate M1, M2, M3 is calculated as the position in the vehicle width direction.
次いで、逆光判定手段110が、後方カメラ13から取得した後方画像に基づいて、車両10が逆光状態であるか否かを判定する(図2/STEP4)。なお、逆光判定手段110による逆光判定処理の詳細については、図3を参照して後述する。 Next, the backlight determination unit 110 determines whether or not the vehicle 10 is in the backlight state based on the rear image acquired from the rear camera 13 (FIG. 2 / STEP 4). Details of the backlight determination process by the backlight determination unit 110 will be described later with reference to FIG.
そして、逆光判定手段110により、逆光状態でないと判定された場合には(図2/STEP4…NO)、レーンマーク検出手段120は、各レーンマーク候補が真のレーンマークであるか否かを判定するレーンマーク判定処理を実行する(図2/STEP10)。 When the backlight determination unit 110 determines that the backlight is not in the backlight state (FIG. 2 / STEP4... NO), the lane mark detection unit 120 determines whether each lane mark candidate is a true lane mark. The lane mark determination process is executed (FIG. 2 / STEP 10).
具体的にレーンマーク判定処理では、複数の判定要素の一部または全部に基づいて、レーンマーク候補が真のレーンマークであるか否かが判定される。当該判定要素としては、例えば、車幅方向の位置から算出されるレーンマーク候補の幅が記憶手段101に記憶されているレーンマークの規格幅と整合するか否か、レーンマーク候補のエッジの連続性が一定以上であるか否か(エッジ列の配置態様を表わす直線近似式または曲線近似式との累計誤差が一定値以下であるか否か)、ならびに、レーンマーク候補の直線成分が画像の左側領域または右側領域でそれぞれレーンマークとして妥当な範囲に納まっているか否かなどの判定要素が挙げられる。 Specifically, in the lane mark determination process, it is determined whether or not the lane mark candidate is a true lane mark based on some or all of the plurality of determination elements. As the determination element, for example, whether or not the width of the lane mark candidate calculated from the position in the vehicle width direction matches the standard width of the lane mark stored in the storage unit 101, and whether the edge of the lane mark candidate is continuous The linearity component of the lane mark candidate is the image component of the image, and whether or not the total error with the linear approximation equation or the curve approximation equation representing the arrangement of the edge row is a certain value or less. Examples of the determination element include whether or not the left region or the right region is within a reasonable range as a lane mark.
そして、レーンマーク候補が真のレーンマークであると判定された場合には(図2/STEP10…YES)、当該レーンマーク候補を真のレーンマークとしてこれを検出する(図2/STEP11)。 When it is determined that the lane mark candidate is a true lane mark (FIG. 2 / STEP 10... YES), the lane mark candidate is detected as a true lane mark (FIG. 2 / STEP 11).
一方、真のレーンマークでないと判定された場合には(図2/STEP10…NO)、当該レーンマーク候補は偽のレーンマークとして除外する(図2/STEP12)。 On the other hand, when it is determined that the lane mark is not a true lane mark (FIG. 2 / STEP 10... NO), the lane mark candidate is excluded as a false lane mark (FIG. 2 / STEP 12).
次に、STEP4で、逆光状態であると判定された場合(図2/STEP4…YES)について説明する。 Next, a case where it is determined in STEP 4 that the backlight is in the backlight state (FIG. 2 / STEP 4... YES) will be described.
この場合、レーンマーク検出手段120が、後方カメラ13から後方画像を取得する(図2/STEP5)。 In this case, the lane mark detection unit 120 acquires a rear image from the rear camera 13 (FIG. 2 / STEP 5).
次いで、レーンマーク検出手段120は、取得した後方画像において、STEP3で算出した車幅方向の位置に対応した位置の画像特徴量を取得する(図2/STEP6)。 Next, the lane mark detection unit 120 acquires an image feature amount at a position corresponding to the position in the vehicle width direction calculated at STEP 3 in the acquired rear image (FIG. 2 / STEP 6).
ここで取得される画像特徴量としては、STEP3で算出された各レーンマーク候補M1,M2,M3の実空間における左端および右端のX座標を、後方画像における画像空間へ射影変換することにより得られる画像領域の色成分および輝度を取得する。 The image feature amount acquired here is obtained by projective transformation of the X coordinates of the left end and right end in the real space of each lane mark candidate M1, M2, M3 calculated in STEP 3 to the image space in the rear image. Get the color components and brightness of the image area.
例えば、後方画像が、図5(a)に示すように、レーンの左右両側に白線(レーンマーク)Mがあり、画像の下側に自車両10の影領域Sがあるものとする。この場合、STEP3で算出された各レーンマーク候補M1,M2,M3の実空間における左端および右端のX座標を後方画像における画像空間へ射影変換すると、図5(b)に示すような各レーンマーク候補M1,M2,M3に対応した直線成分(L1a´,L1b´,・・・,L3a´,L3b´)により特定される領域M1´,M2´,M3´が得られる。そして、レーンマーク検出手段120は、かかる領域M1´,M2´,M3´において特徴的となる色成分(黄色やオレンジ等の注目色に特徴的となる高R値位置の色成分(R値,G値,B値))および輝度値(最高輝度値または輝度平均値)を取得する。 For example, as shown in FIG. 5A, the rear image has white lines (lane marks) M on the left and right sides of the lane, and the shadow area S of the host vehicle 10 on the lower side of the image. In this case, when the X coordinate of the left end and the right end in the real space of each lane mark candidate M1, M2, M3 calculated in STEP 3 is projective transformed to the image space in the rear image, each lane mark as shown in FIG. Regions M1 ′, M2 ′, and M3 ′ specified by the linear components (L1a ′, L1b ′,..., L3a ′, L3b ′) corresponding to the candidates M1, M2, and M3 are obtained. Then, the lane mark detection means 120 is a color component that is characteristic in the regions M1 ′, M2 ′, and M3 ′ (high R value position color components (R value, G value, B value)) and luminance value (maximum luminance value or average luminance value).
なお、領域M1´,M2´,M3´の任意の点または複数の点の平均値としての色成分および輝度値を取得する代わりに、レーンマーク検出手段120は、かかる領域からレーンマーク候補(第2レーンマーク候補)を検出し、検出した第2レーンマーク候補の色成分および輝度値を取得するようにしてもよい。 Instead of acquiring the color component and the luminance value as an average value of an arbitrary point or a plurality of points in the regions M1 ′, M2 ′, and M3 ′, the lane mark detection unit 120 uses the lane mark candidate (first number) from the region. 2 lane mark candidates) may be detected, and the color components and luminance values of the detected second lane mark candidates may be acquired.
次いで、レーンマーク検出手段120は、各領域M1´,M2´,M3´から取得した色成分について、記憶手段101に記憶されているレーンマークの色成分と整合するか否かを判定する(図2/STEP7)。 Next, the lane mark detection unit 120 determines whether or not the color components acquired from the respective regions M1 ′, M2 ′, and M3 ′ match the color components of the lane marks stored in the storage unit 101 (FIG. 2 / STEP7).
そして、各領域M1´,M2´,M3´の色成分に整合する色があると判定された場合には(図2/STEP7…YES)、STEP10へ進んで、前記レーンマーク判定処理を実行する。 If it is determined that there is a color that matches the color component of each of the areas M1 ′, M2 ′, and M3 ′ (FIG. 2 / STEP7... YES), the process proceeds to STEP10 to execute the lane mark determination process. .
一方、各領域M1´,M2´,M3´の色成分に整合する色がないと判定された場合には(図2/STEP7…NO)、レーンマーク検出手段120は、各領域M1´,M2´,M3´から取得した輝度値が予め設定された輝度閾値以上の高輝度であるか否かを判定する(図2/STEP8)。ここで、輝度閾値は、諸条件を考慮して、画像特徴量としての輝度値が白線である場合にこれを判定可能とする値に設定されている。 On the other hand, when it is determined that there is no color that matches the color component of each of the areas M1 ′, M2 ′, and M3 ′ (FIG. 2 / STEP7... NO), the lane mark detection unit 120 determines that each of the areas M1 ′, M2 It is determined whether or not the luminance value acquired from ', M3' is higher than a preset luminance threshold (FIG. 2 / STEP8). Here, the luminance threshold value is set to a value that can be determined when the luminance value as the image feature amount is a white line in consideration of various conditions.
そして、各領域M1´,M2´,M3´から取得した輝度値が輝度閾値以上の高輝度であると判定された場合には(図2/STEP8…YES)、STEP10へ進んで、前記レーンマーク判定処理を実行する。 When it is determined that the luminance value acquired from each of the areas M1 ′, M2 ′, and M3 ′ is high luminance that is equal to or higher than the luminance threshold value (FIG. 2 / STEP8... YES), the process proceeds to STEP10, and the lane mark Execute the judgment process.
一方、各領域M1´,M2´,M3´から取得した輝度値が輝度閾値以上の高輝度でないと判定された場合には(図2/STEP8…NO)、当該レーンマーク候補は偽のレーンマークとして除外する(図2/STEP12)。 On the other hand, when it is determined that the luminance value acquired from each of the areas M1 ′, M2 ′, and M3 ′ is not high luminance equal to or higher than the luminance threshold (FIG. 2 / STEP8... NO), the lane mark candidate is a false lane mark. (FIG. 2 / STEP 12).
なお、本実施形態では、STEP7およびSTEP8のいずれか一方の条件を満たす場合に、前方画像から検出されたレーンマーク候補が真のレーンマークであり得るとしたが、これに代えて、STEP7およびSTEP8の両方を満たす場合に前方画像から検出されたレーンマーク候補が真のレーンマークであり得るとしてもよい。 In the present embodiment, when either one of STEP 7 and STEP 8 is satisfied, the lane mark candidate detected from the front image can be a true lane mark. Instead, STEP 7 and STEP 8 are used. If both of the above are satisfied, the lane mark candidate detected from the front image may be a true lane mark.
以上が、第1実施形態のおける車両用画像処理システムの全体的機能(車両用画像処理方法)についての説明である。 The above is the description of the overall function (vehicle image processing method) of the vehicle image processing system in the first embodiment.
かかる第1実施形態の車両用画像処理システムによれば、逆光状態による太陽光の照り返しにより、前方画像では高輝度部分として検出される補修跡Rは、これに対応する後方画像の領域M2´において、レーンマークである場合に特徴的となる色成分や輝度値が抽出されないため、これを確実に除外することができる。また、前方画像では、逆光状態による輝度コントラストの低下でレーンマークが検出し難い状態となっているレーンの左側の白線も、これに対応する後方画像の領域M1´に基づいて、レーンマークである場合に特徴的となる色成分や輝度値が抽出されるため、これを真のレーンマークとして確実に検出することができる。 According to the vehicle image processing system of the first embodiment, the repair trace R detected as a high-intensity portion in the front image due to the reflection of sunlight in the backlight state is in the region M2 ′ of the corresponding rear image. Since a color component or luminance value that is characteristic in the case of a lane mark is not extracted, it can be reliably excluded. In the front image, the white line on the left side of the lane in which the lane mark is difficult to detect due to a decrease in luminance contrast due to the backlight condition is also a lane mark based on the corresponding region M1 ′ of the rear image. In this case, since characteristic color components and luminance values are extracted, this can be reliably detected as a true lane mark.
次に、図3を参照して、逆光判定処理(図2/STEP4)の詳細について説明する。 Next, the details of the backlight determination process (FIG. 2 / STEP 4) will be described with reference to FIG.
まず、逆光判定手段110は、後方カメラ13から後方画像を取得する(図3/STEP40)。 First, the backlight determination unit 110 acquires a rear image from the rear camera 13 (FIG. 3 / STEP 40).
次いで、逆光判定手段110は、取得した後方画像に対して、横エッジ抽出処理を実行する(図3/STEP41)。具体的には、図6(a)に示す横エッジ正方フィルタを横方向に逐次走査させることにより逐次得られるフィルタ値を、後方画像座標系における横エッジ正方フィルタの中心座標の値として記憶保持する。横エッジ正方フィルタのフィルタ値は、当該フィルタの各要素の値および画像における各ピクセルの輝度値の積の総和として算出される。 Next, the backlight determination unit 110 performs a horizontal edge extraction process on the acquired rear image (FIG. 3 / STEP 41). Specifically, the filter value obtained sequentially by sequentially scanning the horizontal edge square filter shown in FIG. 6A in the horizontal direction is stored and held as the value of the center coordinate of the horizontal edge square filter in the rear image coordinate system. . The filter value of the horizontal edge square filter is calculated as the sum of products of the values of the elements of the filter and the luminance values of the pixels in the image.
例えば、図6(b)に示されているように、低輝度ピクセル(斜線部分)および高輝度ピクセル(斜線が付されていない部分)が併存する箇所に、横エッジ正方フィルタが位置する状態を考える。簡単のため、低輝度ピクセルの輝度値はすべて「−1」である一方、高輝度ピクセルの輝度値はすべて「+1」であると仮定する。すると、この状態におけるフィルタ値は、「+1」×(1+1+1+0)+「−1」×(0+0−1−1−1)=「+6」と算出される。 For example, as shown in FIG. 6B, a state where the horizontal edge square filter is located at a location where a low luminance pixel (shaded portion) and a high luminance pixel (non-hatched portion) coexist. Think. For simplicity, it is assumed that the luminance values of all the low luminance pixels are “−1”, while the luminance values of the high luminance pixels are all “+1”. Then, the filter value in this state is calculated as “+1” × (1 + 1 + 1 + 0) + “− 1” × (0 + 0-1-1-1) = “+ 6”.
次いで、逆光判定手段110は、取得した後方画像に対して、縦エッジ抽出処理を実行する(図3/STEP42)。具体的には、図6(c)に示されている縦エッジ正方フィルタを縦方向に逐次走査させることにより逐次得られるフィルタ値を、後方画像座標系における縦エッジ正方フィルタの中心座標の値として記憶保持する。縦エッジ正方フィルタのフィルタ値は、当該フィルタの各要素の値および画像における各ピクセルの輝度値の積の総和として算出される。 Next, the backlight determination unit 110 performs vertical edge extraction processing on the acquired rear image (FIG. 3 / STEP 42). Specifically, the filter value sequentially obtained by sequentially scanning the vertical edge square filter shown in FIG. 6C in the vertical direction is used as the value of the center coordinate of the vertical edge square filter in the rear image coordinate system. Keep in memory. The filter value of the vertical edge square filter is calculated as the sum of products of the values of the elements of the filter and the luminance values of the pixels in the image.
例えば、図6(c)に示されているように、低輝度ピクセル(斜線部分)および高輝度ピクセル(斜線が付されていない部分)が併存する箇所に、縦エッジ正方フィルタが位置する状態を考える。簡単のため、低輝度ピクセルの輝度値はすべて「−1」である一方、高輝度ピクセルの輝度値はすべて「+1」であると仮定する。すると、この状態におけるフィルタ値は、「+1」×(1+1+0−1)+「−1」×(1+0−1−1)=「+2」と算出される。 For example, as shown in FIG. 6C, a state where the vertical edge square filter is located at a location where a low luminance pixel (hatched portion) and a high luminance pixel (portion not shaded) coexist. Think. For simplicity, it is assumed that the brightness values of the low brightness pixels are all “−1”, while the brightness values of the high brightness pixels are all “+1”. Then, the filter value in this state is calculated as “+1” × (1 + 1 + 0−1) + “− 1” × (1 + 0−1−1) = “+ 2”.
次いで、逆光判定手段110は、前記正方フィルタの中心座標の値として記憶保持された横エッジフィルタ値および縦エッジフィルタ値とのそれぞれを成分とするエッジベクトルを算出する(図3/STEP43)。具体的に、図6(b)および(d)に示す中心座標位置のエッジベクトルは、図6(e)に示すように、縦エッジフィルタ値をX成分、横エッジフィルタ値をY成分とする(2,6)となる。 Next, the backlight determination unit 110 calculates an edge vector having the horizontal edge filter value and the vertical edge filter value stored as the central coordinate value of the square filter as components (FIG. 3 / STEP 43). Specifically, in the edge vector at the center coordinate position shown in FIGS. 6B and 6D, the vertical edge filter value is the X component and the horizontal edge filter value is the Y component, as shown in FIG. 6E. (2, 6).
次に、逆光判定手段110は、次の条件を満たす影領域が存在するか否かを判定する(図3/STEP45
(条件1)
後方画像の下端部の一部であって、当該下端部の中央位置または当該中央位置を含む領域により下端が画定されている。当該抽出領域のうち、たとえば、当該一または複数の線分により画定されるとともに、左側のエッジベクトルのY成分が正である一方、右側のエッジベクトルのY成分が負となる。
Next, the backlight determination unit 110 determines whether there is a shadow region that satisfies the following condition (FIG. 3 / STEP 45).
(Condition 1)
A lower end of the rear image is defined by a center position of the lower end part or a region including the center position. For example, the extracted region is defined by the one or more line segments, and the Y component of the left edge vector is positive, while the Y component of the right edge vector is negative.
(条件2)
ピクセルの座標値により画像座標系における位置が定まるとともに、当該ピクセルにおけるエッジベクトルの姿勢により画像座標系における姿勢(傾き)が定まる所定数以上の微小線分が、当該エッジベクトルの方向に連続的に接続されることにより得られた一または複数の線分により画定されている。
(Condition 2)
The position in the image coordinate system is determined by the coordinate value of the pixel, and a predetermined number or more of minute line segments in which the posture (tilt) in the image coordinate system is determined by the posture of the edge vector in the pixel are continuously in the direction of the edge vector. It is defined by one or more line segments obtained by being connected.
(条件3)
左側を画定する線分を構成するエッジベクトルのY成分の総和が正の閾値以上であるとともに、右側を画定する線分を構成するエッジベクトルのY成分の総和が負の閾値以下である(条件3は当該線分により画定される領域が低輝度ピクセルにより構成されていることを示している)。
(Condition 3)
The sum of Y components of edge vectors constituting the line segment defining the left side is not less than a positive threshold, and the sum of Y components of edge vectors constituting the line segment defining the right side is not more than a negative threshold (condition) 3 indicates that the area defined by the line segment is composed of low-luminance pixels).
(条件4)
当該抽出領域の面積が、自車両10の影に相当する所定の面積以上の領域であり、かつ当該抽出領域の横幅(画面座標系におけるY方向の長さ)が車幅に基づき設定される所定幅相当である。
(Condition 4)
A predetermined area in which the area of the extraction area is equal to or larger than a predetermined area corresponding to the shadow of the host vehicle 10 and the width of the extraction area (the length in the Y direction in the screen coordinate system) is set based on the vehicle width. It is equivalent to the width.
そして、逆光判定手段110は、影領域が存在する場合には(図3/STEP45…YES)、逆光状態であると判定し(図3/STEP46)、この処理を終了する。 Then, when there is a shadow area (FIG. 3 / STEP 45... YES), the backlight determination unit 110 determines that the backlight is in the backlight state (FIG. 3 / STEP 46), and ends this process.
一方、逆光判定手段110は、影領域が存在しない場合には(図3/STEP45…NO)、逆光状態でない順光状態であると判定し(図3/STEP47)、この処理を終了する。 On the other hand, if there is no shadow area (FIG. 3 / STEP 45... NO), the backlight determining unit 110 determines that the backlight is not in the backlight state (FIG. 3 / STEP 47), and ends this process.
具体的には、図5(a)に示す後方画像に対して、STEP42で算出されたエッジベクトルから、図7に示す3つの領域T1,T2,T3が抽出されるが、領域T1,T3については、前記条件1、条件3および条件4を充足しないが、領域T1については、前記条件1〜条件4のすべてを充足するため、図5(a)に示す後方画像に対しては、影領域が存在し(図3/STEP45…YES)、逆光状態と判定される(図3/STEP46)。 Specifically, three regions T1, T2, and T3 shown in FIG. 7 are extracted from the edge vector calculated in STEP 42 for the rear image shown in FIG. 5A. Does not satisfy the conditions 1, 3 and 4, but the area T1 satisfies all of the conditions 1 to 4 above. Therefore, for the rear image shown in FIG. Is present (FIG. 3 / STEP 45... YES) and is determined to be in the backlight state (FIG. 3 / STEP 46).
以上が、逆光判定処理(図2/STEP4)の詳細である。 The above is the details of the backlight determination process (FIG. 2 / STEP 4).
[第2実施形態]
次に、図8を参照して、前記第1実施形態の変更例について説明する。
[Second Embodiment]
Next, a modification of the first embodiment will be described with reference to FIG.
まず、逆光判定手段110が、後方カメラ13から取得した後方画像に基づいて、逆光状態であるか否かを判定する(図8/STEP4)。なお、この処理は、図2/STEP4の逆光判定処理と同一であるため説明を省略する。 First, the backlight determination unit 110 determines whether or not it is in the backlight state based on the rear image acquired from the rear camera 13 (FIG. 8 / STEP 4). Note that this process is the same as the backlight determination process of FIG.
次いで、逆光判定手段110により、逆光状態でないと判定された場合には(図8/STEP4…NO)、レーンマーク検出手段120が、前方カメラ12から前方画像を取得し(図8/STEP51)、取得した前方画像からレーンマーク候補を検出するレーンマーク候補検出処理を実行する(図8/STEP52)。なお、これらの処理は、図2/STEP1およびSTEP2の処理と同一である。 Next, when the backlight determination unit 110 determines that the backlight is not in the backlight state (FIG. 8 / STEP 4... NO), the lane mark detection unit 120 acquires a front image from the front camera 12 (FIG. 8 / STEP 51). A lane mark candidate detection process for detecting a lane mark candidate from the acquired forward image is executed (FIG. 8 / STEP 52). These processes are the same as those in FIG. 2 / STEP1 and STEP2.
次いで、レーンマーク検出手段120は、検出された各レーンマーク候補が真のレーンマークであるか否かを判定するレーンマーク判定処理を実行し(図8/STEP70)、真のレーンマークであると判定された場合には(図8/STEP70…YES)、当該レーンマーク候補を真のレーンマークとしてこれを検出し(図8/STEP71)、真のレーンマークでないと判定された場合には(図8/STEP70…NO)、当該レーンマーク候補は偽のレーンマークとして除外する(図8/STEP72)。なお、これら処理は、図2/STEP10〜STEP12と同一である。 Next, the lane mark detection unit 120 executes a lane mark determination process for determining whether or not each detected lane mark candidate is a true lane mark (FIG. 8 / STEP 70). If it is determined (FIG. 8 / STEP 70... YES), the lane mark candidate is detected as a true lane mark (FIG. 8 / STEP 71), and if it is determined that it is not a true lane mark (FIG. 8). 8 / STEP 70 ... NO), the lane mark candidate is excluded as a false lane mark (FIG. 8 / STEP 72). These processes are the same as those in FIG. 2 / STEP10 to STEP12.
次に、STEP4で、逆光状態であると判定された場合(図8/STEP4…YES)について説明する。 Next, a case where it is determined in STEP 4 that the backlight is in the backlight state (FIG. 8 / STEP 4... YES) will be described.
この場合、レーンマーク検出手段120が、後方カメラ13から後方画像を取得する(図2/STEP61)。 In this case, the lane mark detection means 120 acquires a rear image from the rear camera 13 (FIG. 2 / STEP 61).
次いで、レーンマーク検出手段120は、取得した後方画像からレーンマーク候補を検出するレーンマーク候補検出処理を実行する(図8/STEP62)。なお、この処理手法は、画像処理対象が前方画像と後方画像で異なるだけで、図2/STEP2と同一の手法である。 Next, the lane mark detection unit 120 executes a lane mark candidate detection process for detecting a lane mark candidate from the acquired rear image (FIG. 8 / STEP 62). Note that this processing method is the same as FIG. 2 / STEP 2 except that the image processing target is different between the front image and the rear image.
例えば、後方画像が、前記図5(a)に示すような場合には、図9(a)に示すように、直線成分を有する正エッジ点群及び負エッジ点群により挟まれた領域として、左白線Mが、直線成分を有する正エッジ点群L6aと負エッジ点群L6bとによるレーンマーク候補M6として認識され、右白線Mが、直線成分を有する正エッジ点群L7aと負エッジ点群L7bとによるレーンマーク候補M7として認識される。 For example, when the rear image is as shown in FIG. 5A, as shown in FIG. 9A, as a region sandwiched between a positive edge point group and a negative edge point group having a linear component, The left white line M is recognized as a lane mark candidate M6 by a positive edge point group L6a and a negative edge point group L6b having a straight line component, and the right white line M is a positive edge point group L7a and a negative edge point group L7b having a straight line component. Is recognized as a lane mark candidate M7.
次に、レーンマーク検出手段120は、検出されたレーンマーク候補の車両10の中央から車幅方向の位置を算出する(図8/STEP63)。なお、この処理手法は、画像処理対象が前方画像と後方画像で異なるだけで、図2/STEP3と同一の手法であり、これにより、各レーンマーク候補M6,M7の直線成分(L6a,L6b,L7a,L7b)のデータを画像空間から実空間(車両10に固定された座標空間)へ射影変換することにより、これら各レーンマーク候補M6,M7の実空間における左端および右端のX座標を車幅方向の位置として算出する。 Next, the lane mark detection means 120 calculates the position in the vehicle width direction from the center of the detected vehicle 10 of the lane mark candidate (FIG. 8 / STEP 63). This processing method is the same as that in FIG. 2 / STEP 3 except that the image processing target is different between the front image and the rear image. Accordingly, the linear components (L6a, L6b, L7a, L7b) is subjected to projective transformation from image space to real space (coordinate space fixed to the vehicle 10), so that the X coordinates of the left end and right end of each lane mark candidate M6, M7 in the real space can be converted into the vehicle width. Calculate as the position in the direction.
次いで、レーンマーク検出手段120は、前方カメラ12から前方画像を取得し(図8/STEP64)、取得した前方画像において、STEP63で算出した車幅方向の位置に対応した位置からレーンマーク候補を検出する(図8/STEP65)。 Next, the lane mark detection unit 120 acquires a front image from the front camera 12 (FIG. 8 / STEP 64), and detects a lane mark candidate from a position corresponding to the position in the vehicle width direction calculated in STEP 63 in the acquired front image. (FIG. 8 / STEP 65).
例えば、図9(a)に示す各レーンマーク候補M6,M7の実空間における左端および右端のX座標を前方画像における画像空間へ射影変換すると、前記図4(a)の前方画像において、図9(b)に示すような各レーンマーク候補M6,M7に対応した直線成分(L6a´,L6b´,L7a´,L7b´)により特定される領域M6´,M7´が得られる。そして、レーンマーク検出手段120は、かかる領域M6´,M7´から、レーンマーク候補を検出する。なお、ここでレーンマークの検出手法は、図2/STEP2と同一でもよいが、前方画像が逆光状態であることを考慮して、画像特徴量としての輝度値がレーンマーク(白線)である場合にこれを検出することが好ましい。 For example, when the left and right X coordinates of the lane mark candidates M6 and M7 shown in FIG. 9A in the real space are projectively transformed to the image space in the forward image, the forward image in FIG. Regions M6 ′ and M7 ′ specified by the linear components (L6a ′, L6b ′, L7a ′, and L7b ′) corresponding to the lane mark candidates M6 and M7 as shown in FIG. Then, the lane mark detection unit 120 detects lane mark candidates from the areas M6 ′ and M7 ′. Here, the detection method of the lane mark may be the same as in FIG. 2 / STEP 2, but the luminance value as the image feature amount is the lane mark (white line) in consideration that the front image is in the backlight state. It is preferable to detect this.
これにより、図9(b)に示すように、領域M6´からはレーンマーク候補M2が検出され、領域M7´からはレーンマーク候補M1が検出される。 Thereby, as shown in FIG. 9B, the lane mark candidate M2 is detected from the region M6 ′, and the lane mark candidate M1 is detected from the region M7 ′.
次いで、レーンマーク検出手段120は、各領域M6´,M7´からレーンマーク候補が検出されたか否かを判定する(図8/STEP66)。 Next, the lane mark detection unit 120 determines whether or not a lane mark candidate is detected from each of the regions M6 ′ and M7 ′ (FIG. 8 / STEP 66).
そして、各領域M6´,M7´からレーンマーク候補が検出された場合には(図8/STEP66…YES)、STEP70へ進んで、前記レーンマーク判定処理を実行する。なお、この場合、STEP70のレーンマーク判定処理の内容を、STEP62で後方画像から検出されたレーンマーク候補に対して予め実行しておくことにより、STEP70の処理を省略して、対応位置から検出されたレーンマーク候補をそのまま新のレーンマークとして検出するようにしてもよい。 If a lane mark candidate is detected from each of the areas M6 ′ and M7 ′ (FIG. 8 / STEP 66... YES), the process proceeds to STEP 70 and the lane mark determination process is executed. In this case, the content of the lane mark determination process in STEP 70 is executed in advance for the lane mark candidate detected from the rear image in STEP 62, so that the process in STEP 70 is omitted and the lane mark determination process is detected from the corresponding position. The lane mark candidate may be detected as a new lane mark as it is.
一方、各領域M6´,M7´からレーンマーク候補が検出されない場合には(図8/STEP66…NO)、当該レーンマーク候補は偽のレーンマークとして除外する(STEP72)。 On the other hand, if no lane mark candidate is detected from each of the regions M6 ′ and M7 ′ (FIG. 8 / STEP 66... NO), the lane mark candidate is excluded as a false lane mark (STEP 72).
以上が、第2実施形態の車両用画像処理システムの全体的機能(車両用画像処理方法)についての説明である。 The above is the description of the overall function (vehicle image processing method) of the vehicle image processing system of the second embodiment.
かかる第2実施形態の車両用画像処理システムによれば、逆光状態下でも本来の路面状態を反映させた画像となる後方画像に基づいて、真のレーンマークが存在し得る前方画像の領域M6´,M7´を限定することができる。そのため、路面の照り返し等により、レーンマーク候補の検出精度が低下し得る前方画像からも、車両前方に存在し得る真のレーンマークを精度よく検出することができる。 According to the vehicular image processing system of the second embodiment, the area M6 ′ of the front image in which a true lane mark can exist based on the rear image that is an image reflecting the original road surface state even under backlight conditions. , M7 ′ can be limited. Therefore, a true lane mark that can exist in front of the vehicle can be accurately detected from a front image in which the detection accuracy of the lane mark candidate can be reduced due to reflection on the road surface or the like.
このように、前記第1実施形態および第2実施形態の車両用画像処理システムによれば、逆光状態下でも、レーンマーク候補から車両10の前方の路面に存在する真のレーンマークに該当する該当する蓋然性の高いものが認識され、延いては当該認識結果に基づく当該車両10の横位置制御を適切なものとすることができる。 Thus, according to the vehicle image processing system of the first embodiment and the second embodiment, even under a backlight condition, the corresponding lane mark candidate corresponds to a true lane mark existing on the road surface ahead of the vehicle 10. Therefore, the lateral position control of the vehicle 10 based on the recognition result can be made appropriate.
なお、前記第1および第2実施形態では、図3に示すように、後方カメラ13から取得した後方画像に基づいて、逆光状態か否かの判定を行っているが、これに限定されるものではなく、既存の種々の手法を用いることができる。例えば、前方カメラ12から取得した前方画像の照度が逆光となる場合の閾値を上回るか否か等により逆光判定を行ってもよく、これを、上記実施形態における逆光判定と組み合わせてもよい。 In the first and second embodiments, as shown in FIG. 3, it is determined whether or not the backlight is in the backlight state based on the rear image acquired from the rear camera 13. However, the present invention is not limited to this. Instead, various existing methods can be used. For example, the backlight determination may be performed based on whether or not the illuminance of the front image acquired from the front camera 12 exceeds a threshold when the backlight is backlit, and this may be combined with the backlight determination in the above embodiment.
10‥車両、11‥電子制御ユニット、12‥前方カメラ(前方撮像手段)、13‥後方カメラ(後方撮像手段)、100‥画像処理システム、101・・記憶手段、110・・逆光判定手段、120‥レーンマーク検出手段。 DESCRIPTION OF SYMBOLS 10 ... Vehicle, 11 ... Electronic control unit, 12 ... Front camera (front imaging means), 13 ... Rear camera (rear imaging means), 100 ... Image processing system, 101 ... Memory means, 110 ... Backlight judging means, 120 Lane mark detection means.
Claims (4)
前記前方撮像手段により撮像された前方画像と前記後方撮像手段により撮像された後方画像とのいずれか一方または両方に基づいて、太陽光等の光が前記車両の進行方向とは反対方向から当該車両に対して照射されている逆光状態であるか否かを判定する逆光判定手段と、
前記逆光判定手段により逆光状態であると判定された場合に、前記前方画像または前記後方画像のいずれか一方からレーンマーク候補を検出すると共に、検出したレーンマーク候補を残る他方の画像から抽出される画像特徴量と突き合わせることにより、前記車両前方の路面に存在する真のレーンマークを検出するレーンマーク検出手段と
を備えることを特徴とする車両用画像処理システム。 An image processing system for a vehicle that executes image processing based on captured images of a front imaging unit that is mounted on a vehicle and images a road surface in front of the vehicle and a rear imaging unit that images a road surface behind the vehicle. ,
Based on one or both of the front image captured by the front imaging unit and the rear image captured by the rear imaging unit, light such as sunlight from the direction opposite to the traveling direction of the vehicle A backlight determining means for determining whether or not the backlight is irradiated with respect to,
When it is determined that the backlight is in the backlight state by the backlight determination unit, lane mark candidates are detected from either the front image or the rear image, and the detected lane mark candidates are extracted from the remaining image. A vehicle image processing system comprising: lane mark detection means for detecting a true lane mark present on the road surface ahead of the vehicle by matching with an image feature amount.
前記レーンマーク検出手段は、前記前方画像に基づいてレーンマーク候補を検出し、検出した該レーンマーク候補の車幅方向の位置を算出すると共に、前記逆光判定手段により逆光状態であると判定された場合に、前記画像特徴量としての、前記後方画像における該位置に対応した位置の輝度および色成分のうちいずれか一方または両方に基づいて、該レーンマーク候補から真のレーンマークを検出することを特徴とする車両用画像処理システム。 The vehicle image processing system according to claim 1,
The lane mark detection unit detects a lane mark candidate based on the front image, calculates a position of the detected lane mark candidate in the vehicle width direction, and is determined to be in a backlight state by the backlight determination unit. A true lane mark is detected from the lane mark candidate based on one or both of luminance and color components at a position corresponding to the position in the rear image as the image feature amount. A vehicle image processing system.
前記レーンマーク検出手段は、前記逆光判定手段により逆光状態であると判定された場合、前記後方画像に基づいてレーンマーク候補を検出し、検出した該レーンマーク候補の車幅方向の位置を算出すると共に、前記前方画像における該算出位置に対応した位置の輝度に基づいて、真のレーンマークを検出することを特徴とする車両用画像処理システム。 The vehicle image processing system according to claim 1,
The lane mark detection unit detects a lane mark candidate based on the rear image when the backlight determination unit determines that the backlight is in the backlight state, and calculates the position of the detected lane mark candidate in the vehicle width direction. In addition, a true lane mark is detected based on the luminance at a position corresponding to the calculated position in the front image.
前記逆光判定手段は、前記後方画像の下端中心を包囲する低輝度領域が存在する場合に、逆光状態であると判定することを特徴とする車両用画像処理システム。
The vehicle image processing system according to any one of claims 1 to 3,
The vehicle image processing system according to claim 1, wherein the backlight determination unit determines that the backlight is in a backlight state when there is a low-luminance region surrounding the lower center of the rear image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009139585A JP2010286995A (en) | 2009-06-10 | 2009-06-10 | Image processing system for vehicle |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2009139585A JP2010286995A (en) | 2009-06-10 | 2009-06-10 | Image processing system for vehicle |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2010286995A true JP2010286995A (en) | 2010-12-24 |
Family
ID=43542652
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2009139585A Pending JP2010286995A (en) | 2009-06-10 | 2009-06-10 | Image processing system for vehicle |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2010286995A (en) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016045508A (en) * | 2014-08-19 | 2016-04-04 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method and algorithm for estimating degree of degradation of road surface (crack detection method using gabor filter output image of multi-resolution image) |
| CN107784844A (en) * | 2016-08-31 | 2018-03-09 | 百度在线网络技术(北京)有限公司 | Intelligent traffic lamp system and its road environment detection method |
| JPWO2016178335A1 (en) * | 2015-05-07 | 2018-03-29 | 株式会社日立製作所 | Lane detection device and lane detection method |
| CN107862290A (en) * | 2017-11-10 | 2018-03-30 | 智车优行科技(北京)有限公司 | Method for detecting lane lines and system |
| WO2019013253A1 (en) * | 2017-07-14 | 2019-01-17 | 株式会社デンソー | Detection device |
| JPWO2024166927A1 (en) * | 2023-02-09 | 2024-08-15 | ||
| JP7647818B1 (en) | 2023-09-05 | 2025-03-18 | いすゞ自動車株式会社 | Information processing device and information processing method |
-
2009
- 2009-06-10 JP JP2009139585A patent/JP2010286995A/en active Pending
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016045508A (en) * | 2014-08-19 | 2016-04-04 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method and algorithm for estimating degree of degradation of road surface (crack detection method using gabor filter output image of multi-resolution image) |
| US9390343B2 (en) | 2014-08-19 | 2016-07-12 | International Business Machines Corporation | Estimating degree of deterioration of road surface |
| JPWO2016178335A1 (en) * | 2015-05-07 | 2018-03-29 | 株式会社日立製作所 | Lane detection device and lane detection method |
| US10650252B2 (en) | 2015-05-07 | 2020-05-12 | Hitachi, Ltd. | Lane detection device and lane detection method |
| CN107784844A (en) * | 2016-08-31 | 2018-03-09 | 百度在线网络技术(北京)有限公司 | Intelligent traffic lamp system and its road environment detection method |
| WO2019013253A1 (en) * | 2017-07-14 | 2019-01-17 | 株式会社デンソー | Detection device |
| CN107862290A (en) * | 2017-11-10 | 2018-03-30 | 智车优行科技(北京)有限公司 | Method for detecting lane lines and system |
| CN107862290B (en) * | 2017-11-10 | 2021-09-24 | 智车优行科技(北京)有限公司 | Lane line detection method and system |
| JPWO2024166927A1 (en) * | 2023-02-09 | 2024-08-15 | ||
| JP7701680B2 (en) | 2023-02-09 | 2025-07-02 | 三菱自動車工業株式会社 | Road surface condition determination device for vehicles |
| JP7647818B1 (en) | 2023-09-05 | 2025-03-18 | いすゞ自動車株式会社 | Information processing device and information processing method |
| JP2025041998A (en) * | 2023-09-05 | 2025-03-27 | いすゞ自動車株式会社 | Information processing device and information processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8005266B2 (en) | Vehicle surroundings monitoring apparatus | |
| US9818301B2 (en) | Lane correction system, lane correction apparatus and method of correcting lane | |
| JP4856611B2 (en) | Object detection device | |
| US9807320B2 (en) | Operation input device, operation input method, and computer-readable recording medium | |
| JP2014215877A (en) | Object detection device | |
| JP2012173879A (en) | Traffic signal detection apparatus and program therefor | |
| US9619895B2 (en) | Image processing method of vehicle camera and image processing apparatus using the same | |
| US10339396B2 (en) | Vehicle accessibility determination device | |
| JP2010286995A (en) | Image processing system for vehicle | |
| JP4930046B2 (en) | Road surface discrimination method and road surface discrimination device | |
| JP6094252B2 (en) | Road sign recognition device | |
| JP2011243161A (en) | Lane boundary detection apparatus and lane boundary detection program | |
| JP2019020956A (en) | Vehicle surrounding recognition device | |
| JP5407920B2 (en) | Lighting color identification device and program | |
| JP4706693B2 (en) | Vehicle color determination device, vehicle color determination system, and vehicle color determination method | |
| KR101276073B1 (en) | System and method for detecting distance between forward vehicle using image in navigation for vehicle | |
| CN101978392B (en) | Image processing device for vehicle | |
| JP2019209734A (en) | Track identification apparatus | |
| JP5056931B2 (en) | Vehicle color determination device, vehicle color determination system, and vehicle color determination method | |
| JP5018652B2 (en) | Object presence determination device | |
| JP2012023572A (en) | White balance coefficient calculating device and program | |
| US20190138839A1 (en) | Image processing apparatus, image processing method, and program | |
| JP2013106238A (en) | Marker detection and tracking device | |
| JP4842301B2 (en) | Pedestrian detection device and program | |
| JP3532896B2 (en) | Smear detection method and image processing apparatus using the smear detection method |