JP2003168123A - Lane boundary judgment device - Google Patents
Lane boundary judgment deviceInfo
- Publication number
- JP2003168123A JP2003168123A JP2001367133A JP2001367133A JP2003168123A JP 2003168123 A JP2003168123 A JP 2003168123A JP 2001367133 A JP2001367133 A JP 2001367133A JP 2001367133 A JP2001367133 A JP 2001367133A JP 2003168123 A JP2003168123 A JP 2003168123A
- Authority
- JP
- Japan
- Prior art keywords
- lane
- line
- marking
- markings
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 路面上の車線標示が複雑な標示(複合線)で
ある場合にも、確実なレーン境界位置を安定的かつ継続
的に出力すること。
【解決手段】 図1(a)の標示パターンに関して、次
式(2)に示す条件を満たすものを三重線と判定する複
合線判定手段を設ける。ただし、以下に示すdi(1≦
i≦7)は適当な定数である。「式(2):|w1−w
3|≦d2,w1≧w2,d2≦w2≦d5,d2≦L
≦d6」。例えば、図1(a)の車線境界線の幅w2
が、10cm〜20cmである地域においては、d2=10
cm,d5=20cmとすれば良い。これらの判定の結果、
式(2)が満たされれば図1(a)の斜線部に該当する
ブロック標示をノイズとして除去する。即ち、この処理
により、探索情報テーブル中のブロック標示(即ち、ノ
イズ)と判定された該当する白線標示のデータを削除若
しくは無効化する。
(57) [Summary] [Problem] To stably and continuously output a reliable lane boundary position even when a lane marking on a road surface is a complicated marking (composite line). A complex line determining means is provided for determining a triplet that satisfies the condition shown in the following equation (2) with respect to the marking pattern of FIG. However, di shown below (1 ≦
i ≦ 7) is an appropriate constant. "Formula (2): | w1-w
3 | ≦ d2, w1 ≧ w2, d2 ≦ w2 ≦ d5, d2 ≦ L
≦ d6 ”. For example, the width w2 of the lane boundary line in FIG.
Is 10 cm to 20 cm, d2 = 10
cm, d5 = 20 cm. As a result of these decisions,
If Expression (2) is satisfied, the block marking corresponding to the shaded area in FIG. 1A is removed as noise. In other words, this process deletes or invalidates the data of the corresponding white line marking determined to be a block marking (ie, noise) in the search information table.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、車載カメラからの
入力画像に基づいて路面上に描かれた車線標示の境界位
置を実時間で判定する判定装置に関し、例えば、車両の
自動レーンキーピング動作等を実行する車両の運転支援
システム等に有用な装置として、利用することができ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a judging device for judging the boundary position of a lane marking drawn on a road surface in real time based on an input image from a vehicle-mounted camera. For example, an automatic lane keeping operation of a vehicle. It can be used as a device useful for a vehicle driving support system for executing the above.
【0002】[0002]
【従来の技術】図21は、高速道路等の走行車線を走行
中の車両の車載カメラの視界に入る複合線(車線標示)
の標示パターンを例示する平面図である。また、図22
に、追い越し車線を走行中の車両の車載カメラの視界に
入る複合線(車線標示)の標示パターンを例示する。図
中の車載カメラは、車内のルームミラー付近に設けられ
ており、斜線部はカメラ視界に入らない部分を示してい
る。2. Description of the Related Art FIG. 21 is a composite line (lane marking) within the field of view of a vehicle-mounted camera of a vehicle traveling on a lane such as an expressway.
It is a top view which illustrates the marking pattern of. In addition, FIG.
FIG. 4 illustrates a marking pattern of a compound line (lane marking) within the field of view of a vehicle-mounted camera of a vehicle traveling on an overtaking lane. The vehicle-mounted camera in the figure is provided in the vicinity of the rearview mirror in the vehicle, and the shaded portion indicates a portion that is out of the field of view of the camera.
【0003】現在、車載カメラを利用した自動制御によ
るレーン・キーピング・オペレーション(車線維持動
作)を実行する運転支援システムが普及しつつあり、こ
の様な運転支援システムを備えた車両が一般にも市販さ
れている。これらの運転支援システムでは、車載カメラ
から入力した前方の道路の画像をコンピュータで解析す
ることにより、レーンを規定する車線標示の位置(レー
ン境界位置)を検知している。Currently, a driving support system for executing lane keeping operation (lane keeping operation) by automatic control using an in-vehicle camera is becoming widespread, and a vehicle equipped with such a driving support system is commercially available to the general public. ing. In these driving support systems, the position of the lane marking (lane boundary position) that defines the lane is detected by analyzing the image of the road ahead input from the vehicle-mounted camera with a computer.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、路面上
の車線標示が、例えば図21、図22に例示される様な
複合線(縦方向に脈絡の有る複数列又は複数本の標示で
構成されている車線標示)である場合に、レーン・キー
ピング・オペレーション(車線維持動作)を実行可能な
従来の運転支援システムにおいては、レーン(車線)の
境界位置の判定が困難または不確実と成るために、車線
維持動作を中断しなくてはならなかったり、或いは、算
出した車線の境界位置が横方向に振動してしまい、安定
した出力結果が得られない等の問題が生じていた。However, the lane markings on the road surface may be complex lines such as those shown in FIGS. 21 and 22, for example. Lane marking)), it is difficult or uncertain to determine the boundary position of the lane (lane) in the conventional driving support system capable of performing lane keeping operation (lane keeping operation). There has been a problem that the lane keeping operation must be interrupted, or the calculated boundary position of the lane vibrates laterally, so that a stable output result cannot be obtained.
【0005】本発明は、上記の課題を解決するために成
されたものであり、その目的は、路面上の車線標示が例
えば上記の様な複合線である場合にも、確実なレーン境
界位置を安定的かつ継続的に出力可能な車線境界判定装
置を実現することである。The present invention has been made to solve the above problems, and its object is to ensure a reliable lane boundary position even when the lane marking on the road surface is, for example, the complex line as described above. Is to realize a lane boundary determination device capable of stably outputting continuously.
【0006】[0006]
【課題を解決するための手段、並びに、作用及び発明の
効果】上記の課題を解決するためには、以下の手段が有
効である。即ち、本発明の第1の手段は、カメラからの
入力画像に基づいて、路面上に描かれた車線標示で規定
される車線(レーン)の境界位置を走行中に実時間で判
定する判定装置において、車線標示の脈絡方向又は自車
両の進行方向を縦方向とし、この縦方向に直交する方向
を車線標示に関する探索方向として、この探索方向にお
ける探索により得られた探索情報に基づいて、車線標示
が縦方向に脈絡の有る複数列又は複数本の標示で構成さ
れている複合線から成るか否かを判定する複合線判定手
段と、この複合線判定結果に基づいて境界位置を推定す
る境界位置推定手段とを備えることである。Means for Solving the Problems, and Functions and Effects of the Invention In order to solve the above problems, the following means are effective. That is, the first means of the present invention is a determination device for determining the boundary position of the lane (lane) defined by the lane markings drawn on the road surface in real time during traveling based on the image input from the camera. In, the vertical direction is the direction of the lane markings or the traveling direction of the host vehicle, and the direction orthogonal to this vertical direction is the search direction for the lane markings, and the lane markings are based on the search information obtained by the search in this search direction. A composite line determination means for determining whether or not a composite line composed of a plurality of columns or a plurality of markings having a vertical context, and a boundary position for estimating a boundary position based on the composite line determination result Estimating means.
【0007】図1は、車線標示を上記の探索方向に沿っ
て探索した際に得られる複合線の標示パターンを例示す
る平面図である。例えば、図1(a)は、図21、図2
2の(a)で示される探索位置で横方向に探索した際の
探索結果に対応している。また、図1の(b),
(c),(d)の各標示パターンについても、それぞれ
同様に同じ符号に対応している。また、図中の各標示パ
ターンの斜線部分は、複合線のブロック標示を示すもの
である。ただし、ここで言う「複合線のブロック標示」
とは、運転者にレーン逸脱等の注意を促すために、車線
(レーン)の境界標示線の近傍に側方から添えて描かれ
た矩形の標示のことであり、通常、縦方向の標示ピッチ
が、境界標示線よりも短周期になっている。FIG. 1 is a plan view exemplifying a marking pattern of a composite line obtained when a lane marking is searched along the above-mentioned search direction. For example, FIG.
This corresponds to the search result when the search is performed in the horizontal direction at the search position indicated by 2 (a). In addition, FIG.
The marking patterns of (c) and (d) also correspond to the same symbols. Also, the shaded portion of each marking pattern in the figure indicates the block marking of the composite line. However, "composition line block marking" here
Is a rectangular marking drawn from the side in the vicinity of the lane (lane) boundary marking line to draw the driver's attention such as deviation from the lane, and is usually a vertical marking pitch. However, it is shorter than the boundary marking line.
【0008】例えば、この様な標示が路面画像上に検出
された場合には、その標示パターンが、一般或いは通常
の複合線の規格範囲内に有るか否かを上記の複合線判定
手段により、判定することができる。また、この様な判
定結果を、経時的に或いは画像平面内にて空間的に蓄積
(統計操作)していくことにより、その複合線が車両の
前方に連続しているか否かを判定することも可能とな
る。For example, when such a marking is detected on the road surface image, it is determined by the above-mentioned composite line judging means whether or not the marking pattern is within the standard range of the general or normal composite line. Can be determined. It is also possible to determine whether or not the composite line is continuous in front of the vehicle by accumulating (statistically operating) such determination results with time or spatially in the image plane. Will also be possible.
【0009】したがって、これらの判定結果を用いれ
ば、複合線の一部をノイズとみなして無視することが可
能となる。例えば、図1の(a)〜(d)に示した標示
パターンの斜線部分は、複合線のブロック標示と判定す
ることができるため、この標示を車線境界を検出する上
では不要な標示であると推定することができる。このた
め、例えば、このブロック標示を無視することにより、
走行中のレーンの正しい境界位置の検出が可能となる。
例えば、以上の様な作用により、路面上の車線標示が例
えば上記の様な複合線である場合にも、正確なレーン境
界位置を安定的かつ継続的に検出することができる。Therefore, by using these judgment results, it is possible to regard a part of the composite line as noise and ignore it. For example, the shaded portion of the marking pattern shown in (a) to (d) of FIG. 1 can be determined to be a block marking of a composite line, and thus this marking is unnecessary marking for detecting a lane boundary. It can be estimated that So, for example, by ignoring this block label,
It is possible to detect the correct boundary position of the running lane.
For example, with the above-described operation, even when the lane marking on the road surface is the above-described complex line, the accurate lane boundary position can be detected stably and continuously.
【0010】また、本発明の第2の手段は、上記の第1
の手段の複合線判定手段において、探索方向が互いに略
平行となる入力画像上の複数箇所の探索位置での複数件
の探索情報に基づいて、車線標示が複合線から成るか否
かを判定することである。標示パターンが一般或いは通
常の複合線の規格範囲内に有るか否か等の判定結果は、
そのサンプルを多数集めることにより、その信頼度が向
上する。上記の第2の手段によれば、1つの標示パター
ンに対する判定結果を、画像平面内にて空間的に蓄積
(統計操作)していくことができる。このため、その複
合線が車両の前方に連続しているか否かを推定すること
が、より確実或いは容易となる。The second means of the present invention is the above first means.
In the composite line determination means of the means, it is determined whether or not the lane marking is a composite line, based on a plurality of pieces of search information at a plurality of search positions on the input image whose search directions are substantially parallel to each other. That is. The judgment result such as whether the marking pattern is within the standard range of general or normal composite line is
The reliability is improved by collecting a large number of the samples. According to the second means, the determination result for one marking pattern can be spatially accumulated (statistical operation) in the image plane. Therefore, it becomes more reliable or easier to estimate whether or not the composite line is continuous in front of the vehicle.
【0011】また、第3の手段は、上記の第1又は第2
の手段の複合線判定手段において、最新の探索情報と過
去の探索情報との関係に基づいて、車線標示が複合線か
ら成るか否かを判定することである。例えば、標示パタ
ーンが一般或いは通常の複合線の規格範囲内に有るか否
か等の判定結果は、そのサンプルを経時的な蓄積処理に
よって多数集めることもでき、この様な処理方式によっ
ても、複合線が車両の前方に連続しているか否かをより
確実或いは容易に推定することができる。The third means is the above-mentioned first or second.
In the composite line determination means of the means, it is determined whether or not the lane marking is composed of a composite line, based on the relationship between the latest search information and the past search information. For example, the judgment result as to whether or not the marking pattern is within the standard range of the general or normal composite line can be obtained by collecting a large number of the samples with the lapse of time. It is possible to more reliably or easily estimate whether or not the line is continuous in front of the vehicle.
【0012】また、上記の第2の手段により得られた1
単位時刻(1制御周期)前の判定結果(境界線位置)と
現在の入力画像に基づく判定結果(境界線位置)とを照
合することによっても、車線標示に対する認識の信頼度
を向上させることが可能である。この様な照合手段によ
れば、路面画像中にノイズが多数写っている場合におい
ても、確実に現在走行中のレーンの境界位置を確定する
ことができる。Further, 1 obtained by the above second means
The reliability of recognition of the lane marking can be improved by collating the determination result (boundary line position) before the unit time (1 control cycle) with the determination result (boundary line position) based on the current input image. It is possible. According to such a collating unit, even when a lot of noise is reflected in the road surface image, the boundary position of the currently running lane can be definitely determined.
【0013】また、第4の手段は、上記の第1乃至第3
の何れか1つの手段の複合線判定手段において、上記の
探索情報が有する標示の数、標示の幅、又は標示間の間
隙幅の少なくとも1つから、車線標示が、両側からブロ
ック標示で挟まれた1本の標示線で構成された複合線よ
り成るか否かを判定することである。この手段によれ
ば、図1(a)、図21(a)、図22(a)等の標示
パターンを有する複合線を3重線(ブロック標示+車線
境界線+ブロック標示)と判定することが可能となる。
この時の探索情報としては、例えば、図1(a)に示し
たw1(標示の幅),w2,w3,L1(標示間の間隙
幅),L2,L、或いは図形(標示パターン)自身の位
置等が考えられる。A fourth means is the above-mentioned first to third.
In the composite line determination means of any one of the above, the lane markings are sandwiched from both sides by at least one of the number of markings, the width of the markings, or the gap width between the markings included in the search information. It is to judge whether or not it is composed of a composite line composed of one marking line. According to this means, the composite line having the marking pattern of FIG. 1 (a), FIG. 21 (a), FIG. 22 (a), etc. is determined as a triple line (block marking + lane boundary line + block marking). Is possible.
As the search information at this time, for example, w1 (width of the marking), w2, w3, L1 (gap width between the markings), L2, L, or the figure (marking pattern) itself shown in FIG. The position etc. can be considered.
【0014】また、第5の手段は、上記の第1乃至第4
の何れか1つの手段の複合線判定手段において、探索情
報が有する標示の数、標示の幅、又は標示間の間隙幅の
少なくとも1つから、車線標示が、片側にブロック標示
が接近した1本の標示線で構成された複合線より成るか
否かを判定することである。この手段によれば、図1
(b),(c)、図21(b),(c)、図22
(b),(c)等の標示パターンを有する複合線を2重
線(車線境界線+ブロック標示/ブロック標示+車線境
界線)と判定することが可能となる。この時の探索情報
としては、例えば、図1(b)に示したw1,w2,L
1、或いは図形(標示パターン)自身の位置等が考えら
れる。The fifth means is the above-mentioned first to fourth.
In the composite line determination means of any one of the means, the lane marking is one of which the block marking approaches one side from at least one of the number of markings, the width of the markings, or the gap width between the markings included in the search information. It is to judge whether or not it is composed of a composite line composed of the marking lines of. According to this means, FIG.
(B), (c), FIG. 21 (b), (c), FIG.
It is possible to determine a composite line having marking patterns such as (b) and (c) as a double line (lane boundary line + block marking / block marking + lane boundary line). As the search information at this time, for example, w1, w2, and L shown in FIG.
1 or the position of the figure (marking pattern) itself can be considered.
【0015】また、第6の手段は、上記の第1乃至第5
の何れか1つの手段の複合線判定手段において、探索情
報が有する標示の数、標示の幅、又は標示間の間隙幅の
少なくとも1つから、車線標示が縦方向に並列に配置さ
れた2つ又は2列のブロック標示で構成された複合線よ
り成るか否かを判定することである。この手段によれ
ば、図1(d)、図21(d)、図22(d)等の標示
パターンを有する複合線を上記の3重線の中央に位置す
る車線境界線が周期的に途切れている部分の標示パター
ン(中抜けしている3重線:ブロック標示+ブロック標
示)と判定することが可能となる。この時の探索情報と
しては、例えば、図1(d)に示したw1,w2,L、
或いは図形(標示パターン)自身の位置等が考えられ
る。The sixth means is the above-mentioned first to fifth means.
The lane markings are arranged in parallel in the vertical direction based on at least one of the number of markings included in the search information, the width of the markings, or the gap width between the markings. Alternatively, it is to judge whether or not the line consists of a composite line composed of two columns of block markings. According to this means, the lane boundary line located at the center of the above-mentioned triple line is periodically interrupted on the composite line having the marking pattern of FIG. 1 (d), FIG. 21 (d), FIG. 22 (d), etc. It is possible to determine that the marking pattern of the part where the mark is present (triple line with a missing dot: block marking + block marking). As the search information at this time, for example, w1, w2, L shown in FIG.
Alternatively, the position of the figure (marking pattern) itself may be considered.
【0016】また、第7の手段は、上記の第1乃至第6
の何れか1つの手段の複合線判定手段に、現在走行中の
車線の車線標示の「線種モード」を、過去又は現在の上
記の探索情報に基づいて決定する線種モード判定部を設
けることである。例えば、走行中の車線の左側に上記の
3重線が空間的に前方へ連続している状態が検出された
場合に、左側の車線標示を「左3重線モードにある」と
定義する。Further, a seventh means is the above first to sixth means.
In any one of the means, the line type mode determination unit for determining the "line type mode" of the lane marking of the lane currently being driven based on the past or present search information is provided. Is. For example, when a state where the above-mentioned triple line is spatially continuous to the front on the left side of the running lane is detected, the left lane marking is defined as "in the left triple line mode".
【0017】この様な線種モード判定を常時行っていれ
ば、例えば「左単一線モードにある」時に、左側に上記
の3重線が検出されても、その時に限って、それらの標
示パターンを無視することが可能となる。即ち、線種モ
ードと複合線の種類の間に矛盾(不一致)が生じた場
合、それらの標示パターンをノイズとして取り扱うこと
が可能となる。これにより、ノイズに対して頑強な境界
位置判定を実現することが可能となる。If such a line type mode determination is always performed, for example, even when the above-mentioned triple line is detected on the left side when "in the left single line mode", those marking patterns are limited to that time. Can be ignored. That is, when a contradiction (mismatch) occurs between the line type mode and the type of the composite line, it is possible to handle those marking patterns as noise. This makes it possible to realize a robust boundary position determination against noise.
【0018】また、第8の手段は、上記の第7の手段の
線種モード判定部に、探索情報がある一定期間継続的に
「所定のモード変更条件」を満たすまで、線種モードの
変更処理を保留するモード変更保留手段を設けることで
ある。この様な線種モードの経時的な継続性を判定する
手段を導入することにより、ノイズ等の影響により、モ
ード判定が不安定と成りがちな状況下においても、より
確実に線種モードの変更を実施することが可能となる。
即ち、これにより、ノイズに対してより頑強な境界位置
判定を実現することが可能となる。The eighth means changes the line type mode until the line type mode determination section of the seventh means described above continuously satisfies the "predetermined mode changing condition" for a certain period of time. A mode change holding means for holding the processing is provided. By introducing a means to determine the continuity of the linetype mode over time, the linetype mode can be changed more reliably even in the situation where the mode determination tends to be unstable due to the influence of noise. Can be carried out.
That is, this makes it possible to realize more robust boundary position determination against noise.
【0019】また、第9の手段は、上記の第7又は第8
の手段の境界位置推定手段に、線種モード判定部が決定
した線種モードに基づいて、上記の探索情報から車線標
示が有するブロック標示等の不要部分を判別して除去す
るノイズ除去部を設けることである。例えばこの様な手
段により、ノイズとして除去しておくことが望ましい部
分の探索情報を、線種モードに基づいて推定(除去)す
ることが可能若しは容易となる。The ninth means is the seventh or eighth aspect described above.
The boundary position estimating means of the means is provided with a noise removing unit that determines and removes unnecessary portions such as block markings included in the lane markings from the search information based on the line type mode determined by the line type mode determining unit. That is. For example, with such means, it is possible or easy to estimate (remove) the search information of the portion that should be removed as noise based on the line type mode.
【0020】また、第10の手段は、上記の第7乃至第
9の何れか1つの手段の境界位置推定手段において、単
一線として探索された前記車線標示の幅が、所定の値D
Sを越えていた場合に、上記の線種モード判定部が決定
した線種モードに基づいて、境界位置を推定することで
ある。上記の値DSとしては、例えば、一般的な単一線
から成る車線境界線の幅の標準的な適正範囲の上限値等
がふさわしい。In a tenth means, the width of the lane marking searched for as a single line in the boundary position estimating means of any one of the seventh to ninth means is a predetermined value D.
If S is exceeded, the boundary position is estimated based on the line type mode determined by the line type mode determination unit. As the above value DS, for example, an upper limit value of a standard appropriate range of the width of a lane boundary line composed of a general single line is suitable.
【0021】この第10の手段によれば、カメラの光軸
の角度が路面上の車線標示の位置に対して浅い場合や、
撮影した画像の解像度が低い場合、画像上のノイズが多
い場合、或いは路面上に望ましい形式で車線標示が描か
れていない場合等にも、より正確に複合線の判定を行う
ことができる。この手段の作用については、後述の本発
明の実施の形態(第2実施例)のところで詳細に説明す
る。According to the tenth means, when the angle of the optical axis of the camera is shallow with respect to the position of the lane marking on the road surface,
The composite line can be more accurately determined when the resolution of the captured image is low, when there is a lot of noise on the image, or when the lane marking is not drawn on the road surface in a desired format. The operation of this means will be described in detail in the embodiment (second embodiment) of the present invention described later.
【0022】また、第11の手段は、上記の第1乃至第
10の何れか1つの手段の境界位置推定手段において、
複合線の一部として検出された、横幅が最も短い1つの
標示の位置を境界位置と推定することである。例えば、
図1の(b)の図形(左2重線の標示パターン)におい
ては、w1≦w2成る関係が要請されるが、この様な場
合、横幅が最も短い1つの標示の位置を境界位置と推定
する手段が有効である。例えばこの様な判定基準を活用
することにより正確な車線境界位置を推定することが可
能となる。An eleventh means is the boundary position estimating means of any one of the above first to tenth means,
This is to estimate the position of one mark having the shortest width detected as a part of the composite line as the boundary position. For example,
In the figure of FIG. 1B (marking pattern of left double line), the relation of w1 ≦ w2 is required. In such a case, the position of one mark having the shortest width is estimated to be the boundary position. The means to do is effective. For example, it is possible to accurately estimate the lane boundary position by utilizing such a criterion.
【0023】また、第12の手段は、上記の第1乃至第
11の何れか1つの手段の境界位置推定手段において、
複合線として検出された、縦方向に並列に配置された2
つ又は2列のブロック標示の探索方向における中間点を
境界位置と推定することである。例えば、図1(d)、
図21(d)、図22(d)等の上記の中抜けの標示パ
ターンが検出された場合、図1(d)の図中の破線で示
した様に、車線境界線の位置を推定することができる。
従って、この様な手段によれば、ノイズとして無視する
ことが望ましい情報(2つのブロック標示の探索情報)
に基づいて、境界位置の推定を行うことができる。これ
により、車線境界線の位置情報のサンプルを増補するこ
とができるため、より正確な境界位置の推定が可能とな
る。A twelfth means is the boundary position estimating means of any one of the first to eleventh means,
Detected as a compound line, 2 arranged in parallel in the vertical direction
This is to estimate the middle point in the search direction of the block marking of one or two columns as the boundary position. For example, in FIG.
When the above-described void marking pattern in FIG. 21 (d), FIG. 22 (d), etc. is detected, the position of the lane boundary line is estimated, as indicated by the broken line in FIG. 1 (d). be able to.
Therefore, according to such means, information that should be ignored as noise (search information for two block markings)
Based on, the boundary position can be estimated. As a result, it is possible to augment the samples of the lane boundary position information, so that it is possible to more accurately estimate the boundary position.
【0024】また、第13の手段は、車線標示が1つ又
は1列のブロック標示で構成されていると複合線判定結
果において判定された場合に、上記の第1乃至第12の
何れか1つの手段の境界位置推定手段において、境界位
置をブロック標示の位置に基づいて推定するか、境界位
置の推定を保留するか、又は境界位置を不定とすること
である。Further, the thirteenth means is any one of the above first to twelfth, when the composite line determination result determines that the lane marking is composed of one or one column of block markings. The boundary position estimating means of one means estimates the boundary position based on the position of the block marking, suspends the estimation of the boundary position, or makes the boundary position indefinite.
【0025】例えば、図21の(f)、図22の(f)
にそれぞれ●(黒丸印)で示した点の位置は、図中の
(f)に示された1つのブロック標示の位置、即ち、2
重線の外側の標示(車線境界線)が周期的に途切れてい
る部分の標示パターンの位置からそれぞれ推定すること
ができる。したがって、この様な推定から、図中の●
(黒丸印)で示した点の位置を車線境界線の位置(レー
ンの境界位置)と推定することが可能である。For example, FIG. 21 (f) and FIG. 22 (f)
The positions of the dots indicated by ● (black circles) are the positions of one block marking shown in (f) of the figure, that is, 2
It can be estimated from the position of the marking pattern at the portion where the marking outside the heavy line (lane boundary line) is periodically interrupted. Therefore, from such an estimation,
It is possible to estimate the position of the point indicated by (black circle) as the position of the lane boundary line (lane boundary position).
【0026】或いは、図21の(f)、図22の(f)
に示された1つのブロック標示は、ノイズと判断して、
無視することもできる。この様な場合には、その他の情
報から車線境界線の位置(レーンの境界位置)を推定す
れば良い。即ち、上記の様な場合には、一旦、境界位置
の推定を保留するか、又は境界位置を不定とすること
で、その他の確実な情報を基にして、車線境界線の位置
を推定することにより、その探索位置における境界位置
も同時に推定することができる。以上の本発明の手段に
より、前記の課題を効果的、或いは合理的に解決するこ
とができる。Alternatively, FIG. 21 (f) and FIG. 22 (f)
One block marking shown in is judged as noise,
It can be ignored. In such a case, the position of the lane boundary line (lane boundary position) may be estimated from other information. That is, in the above case, the position of the lane boundary line is estimated based on other reliable information by temporarily suspending the estimation of the boundary position or making the boundary position indefinite. Thus, the boundary position at the search position can be estimated at the same time. By the means of the present invention described above, the above problems can be effectively or rationally solved.
【0027】[0027]
【発明の実施の形態】以下、本発明を具体的な実施例に
基づいて説明する。ただし、本発明は以下に示す実施例
に限定されるものではない。
(第1実施例)図2は、本発明の実施例に係わる車線境
界判定装置100の構成形態を例示するブロック図であ
る。以下、本図2を用いて、まず最初に、本実施例の車
線境界判定装置100の構成の概要を説明する。BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on specific embodiments. However, the present invention is not limited to the examples shown below. (First Embodiment) FIG. 2 is a block diagram illustrating the configuration of a lane boundary determining apparatus 100 according to an embodiment of the present invention. Hereinafter, the outline of the configuration of the lane boundary determination apparatus 100 according to the present embodiment will be described first with reference to FIG.
【0028】標示抽出手段1は、車載カメラからの入力
画像に基づいて解析的に生成された路面画像(図4
(b))に対して、周知の白線抽出手段を適用すること
により標示(白線)を抽出するものである。ただし、路
面上の標示は、黄色等の比較的輝度の高いものであって
も良い。例えば、生成された路面画像に対して、輝度に
関する微分処理を行うことにより、これらの標示を抽出
することができる(図7)。The sign extracting means 1 is a road surface image analytically generated based on an input image from a vehicle-mounted camera (see FIG. 4).
A known white line extraction means is applied to (b)) to extract the marking (white line). However, the marking on the road surface may be relatively bright such as yellow. For example, these markings can be extracted by subjecting the generated road surface image to a differential process regarding luminance (FIG. 7).
【0029】図2の境界標示採択部2は、複合線判定手
段110と境界位置推定手段120とを備えており、上
記の標示抽出手段1により抽出された探索情報(図8)
から、車線の境界位置の判定に悪影響を及ぼす不要な標
示をも含めた各種のノイズを除去する機能を奏する。こ
の探索情報は、車線標示の脈絡方向又は自車両の進行方
向を縦方向とし、この縦方向に直交する方向を車線標示
に関する探索方向として、この探索方向における探索
(図7)により得られたものである。The boundary marking selecting section 2 of FIG. 2 comprises a composite line judging means 110 and a boundary position estimating means 120, and the search information extracted by the marking extracting means 1 (FIG. 8).
Therefore, it has a function of removing various noises including unnecessary markings that adversely affect the determination of the boundary position of the lane. This search information is obtained by the search in this search direction (FIG. 7) with the vertical direction being the context direction of the lane markings or the traveling direction of the host vehicle, and the direction orthogonal to this vertical direction being the search direction relating to the lane markings. Is.
【0030】複合線判定手段110は、上記の探索情報
に基づいて、車線標示が縦方向に脈絡の有る複数列又は
複数本の標示で構成されている複合線から成るか否かを
判定する。複合線判定手段110は、線種分別部111
と線種モード判定部112を備えている。線種分別部1
11は、探索情報の一部から構成される標示パターン
が、一般或いは通常の複合線の規格範囲内に有るか否か
を判定する。また、線種モード判定部112は、現在走
行中の車線の車線標示の「線種モード」を、過去又は現
在の上記の探索情報に基づいて決定する。Based on the above search information, the composite line determination means 110 determines whether or not the lane marking is composed of a composite line composed of a plurality of columns or a plurality of markings having a vertical context. The composite line determination unit 110 includes a line type classification unit 111.
And a line type mode determination unit 112. Line type sorting section 1
Step 11 determines whether or not the marking pattern formed by a part of the search information is within the standard range of the general or normal composite line. In addition, the line type mode determination unit 112 determines the “line type mode” of the lane marking of the lane that is currently traveling, based on the above-mentioned search information of the past or the present.
【0031】境界位置推定手段120は、上記の複合線
判定結果に基づいて境界位置を推定する。この推定の基
準としては、例えば線種分別部111により分類された
車線標示の線種(3重線、2重線、単一線、中抜け等)
や、線種モード判定部112により判定されたその時々
の線種モードの区分等を利用することができる。境界位
置推定手段120は、これらの判定基準に基づいて、車
線の境界位置の判定に悪影響を及ぼす不要な標示をも含
めた各種のノイズを特定(推定)し、上記の探索情報
(図8)から不要な情報として除去する。境界位置推定
手段120は、本実施例においては、このノイズ除去処
理を実行する後述のサブルーチン群(ノイズ除去n(1
≦n≦7):図10、図11、図12)により具現され
ている。The boundary position estimating means 120 estimates the boundary position based on the above composite line determination result. As a criterion for this estimation, for example, the line type of the lane markings classified by the line type classification unit 111 (triple line, double line, single line, hollow line, etc.)
Alternatively, the classification of the line type mode at each time determined by the line type mode determination unit 112 can be used. The boundary position estimating means 120 identifies (estimates) various noises including unnecessary markings that adversely affect the determination of the boundary position of the lane based on these determination criteria, and the search information (FIG. 8) described above. From the list as unnecessary information. In the present embodiment, the boundary position estimating means 120 executes a group of subroutines (noise removal n (1
≦ n ≦ 7): This is realized by FIGS. 10, 11, and 12).
【0032】直線検出手段3は、ノイズが除去された上
記の探索情報に基づいて、周知の直線検出方法に従っ
て、車線標示の脈絡方向に伸びている車線境界線を検出
する。レーン選択手段4は、直線検出手段3により検出
された車線境界線の組の中から、周知のレーン選択方法
に従って、最も信頼性の高い(尤もらしい)車線境界線
の組を選択する。これにより、レーンの左右の境界位置
を決定することができる。The straight line detecting means 3 detects the lane boundary line extending in the direction of the lane markings according to a well-known straight line detecting method based on the above-mentioned search information from which noise has been removed. The lane selection unit 4 selects the most reliable (likely) lane boundary line set from the set of lane boundary lines detected by the straight line detection unit 3 according to a known lane selection method. Thereby, the left and right boundary positions of the lane can be determined.
【0033】図3は、車載カメラを有するコンピュータ
システムにより上記の車線境界判定装置100(図2)
を実現する際の、各手段の実行手順(200)を例示す
るフローチャートである。本フローチャート(実行手順
200)は、ループを有しているが、このループの1巡
分の処理は、例えばタイマ割込み等を用いて定期的に実
行する。本フローチャートにおいては、まず最初に、ス
テップ210にて、車線境界判定処理全体の初期化を実
行する。この初期化処理としては、例えば、以下の様な
後述の各種のフラグやカウンターの初期化処理が含まれ
ている。FIG. 3 shows a lane boundary determining apparatus 100 (FIG. 2) using a computer system having an in-vehicle camera.
It is a flowchart which illustrates the execution procedure (200) of each means at the time of implement | achieving. Although this flowchart (execution procedure 200) has a loop, the processing for one round of this loop is periodically executed using, for example, a timer interrupt. In this flowchart, first, in step 210, the initialization of the entire lane boundary determination processing is executed. The initialization processing includes, for example, initialization processing of various flags and counters described below, which will be described later.
【0034】
LF3 … 左3重線モードフラグ(初期値は、0)
RF3 … 右3重線モードフラグ(初期値は、0)
LF2 … 左2重線モードフラグ(初期値は、0)
RF2 … 右2重線モードフラグ(初期値は、0)
LM2 … 左複合線モードカウンター(初期値は、
0)
LM1 … 左単一線モードカウンター(初期値は、
γ)
RM2 … 右複合線モードカウンター(初期値は、
0)
RM1 … 右単一線モードカウンター(初期値は、
γ)
ただし、ここでγは、後述の単一線モード復帰閾値であ
る。LF3 ... Left triplet mode flag (initial value is 0) RF3 ... Right triplet mode flag (initial value is 0) LF2 ... Left doublet mode flag (initial value is 0) RF2 ... Right double line mode flag (initial value is 0) LM2 ... Left compound line mode counter (initial value is
0) LM1 ... Left single line mode counter (The initial value is
γ) RM2 ... Right compound line mode counter (initial value is
0) RM1 ... Right single line mode counter (initial value is
γ) where γ is a single line mode return threshold value described later.
【0035】次に、ステップ220では、車載カメラか
ら現在の最新の撮影画像を入力する。その入力画像の1
例を図4(a)に例示する。ステップ230では、路面
に対する垂直方向上方から鳥瞰した形式の路面画像(路
面の平面図)を上記の入力画像(図4(a))から解析
的に生成する。この処理により生成された路面画像の1
例を図4(b)に例示する。Next, at step 220, the latest latest photographed image is input from the vehicle-mounted camera. 1 of the input image
An example is illustrated in FIG. In step 230, a road surface image (plan view of the road surface) in a bird's-eye view from above in the vertical direction with respect to the road surface is analytically generated from the input image (FIG. 4A). 1 of the road surface image generated by this processing
An example is shown in FIG.
【0036】図5、図6は、この入力画像(図4
(a))を歪み補正した補正画像(図5(a))と、上
記の路面画像(図4(b),図5(b))との関係を示
す説明図である。例えば画像の解析パラメータ(カメラ
の外部・内部パラメータ等の幾何変換パラメータ)の中
には、以下の様な各種の物理量の数値が含まれる。
(解析パラメータの例)
h : カメラの高さ〔m〕
f : カメラの焦点距離〔m〕
φ0 : カメラの俯角〔rad〕
尚、図6中の点Cはカメラ視点を、矩形Σは幾何変換後
の路面画像の投影範囲を示している。5 and 6 show the input image (FIG. 4).
It is explanatory drawing which shows the relationship between the correction image (FIG. 5 (a)) which carried out distortion correction of (a), and the said road surface image (FIG. 4 (b), FIG. 5 (b)). For example, the following numerical values of various physical quantities are included in the image analysis parameters (geometric conversion parameters such as external and internal parameters of the camera). (Example of analysis parameter) h: height of camera [m] f: focal length of camera [m] φ 0 : depression angle of camera [rad] Note that point C in FIG. The projection range of the road surface image after conversion is shown.
【0037】図6は、路面を平面近似した平面Σ(∋
P)と撮像面(∋Q)との関係を例示する斜視図であ
り、本図6は車載カメラが地面(平面Σ)から距離(高
さ)hを有し、光軸が水平面上では車両の進行方向を向
き、かつ、光軸の俯角が角度φで車体に取付けられてい
る場合の路面と撮像面の関係を表している。ただし、こ
の撮像面には、以下、上記の補正画像(図5(a))を
配置して考えるものとする。この時、撮像面上(補正画
像上)の任意の点Qの座標値(x,y)と、路面を近似
した平面Σ上の対応点Pの座標値(X,Y)との関係
(射影変換)は、次式(1)で与えられる。FIG. 6 shows a plane Σ (∋
FIG. 6 is a perspective view illustrating the relationship between P) and the imaging surface (∋Q). FIG. 6 shows that the vehicle-mounted camera has a distance (height) h from the ground (plane Σ) and the optical axis is a vehicle on a horizontal plane. Shows the relationship between the road surface and the imaging surface when the vehicle is attached to the vehicle body with the depression angle of the optical axis being the angle φ. However, it is assumed that the above-described corrected image (FIG. 5A) is arranged on this imaging surface. At this time, the relationship (projection) between the coordinate value (x, y) of an arbitrary point Q on the imaging surface (correction image) and the coordinate value (X, Y) of the corresponding point P on the plane Σ approximating the road surface. Conversion) is given by the following equation (1).
【数1】 y=f/tan(φ0 + tan-1(Y/h)), x=fX/( h sinφ0 + Y cosφ0 ) …(1)## EQU1 ## y = f / tan (φ 0 + tan -1 (Y / h)), x = fX / (h sinφ 0 + Y cosφ 0 ) ... (1)
【0038】即ち、ステップ230では、この式(1)
に従って路面画像上の点(X,Y)の画像値を対応する
撮像面上(補正画像(図5(a)上)の点(x,y)の
画像値から決定することにより変換画像(以下、「路面
画像(X,Y)」等と言う場合がある。)を生成する。That is, in step 230, this equation (1)
According to the image value of the point (X, Y) on the road surface image is determined from the image value of the point (x, y) on the corresponding imaging surface (correction image (on FIG. 5A)) , "Road surface image (X, Y)", etc.) are generated.
【0039】路面画像(X,Y)に対応する撮像面画像
(x,y)が存在しない時は、その部分を、図4(b)
の矩形画像の右下角と左下角の様な無効画像領域とす
る。これらの幾何学的な変換処理により、投影された撮
像面上(補正画像(図5(a)上)の画像パターンは、
被写体が路面上に位置する場合は、路面上(平面Σ上)
の正しい位置に投影される。When there is no image pickup surface image (x, y) corresponding to the road surface image (X, Y), that portion is shown in FIG.
The rectangular image is an invalid image area such as the lower right corner and the lower left corner. By these geometric conversion processes, the image pattern on the projected imaging surface (corrected image (on FIG. 5A)) is
On the road surface (on plane Σ) when the subject is on the road surface
Is projected in the correct position.
【0040】次に、ステップ240では、路面画像
(X,Y)上の標示を抽出する。この標示は通常白色等
を前提とするものであるが、以下に示す抽出処理の作用
は輝度に関する微分処理に基づくものであるため、黄色
等でも以下の処理の対象とすることが可能である。図7
は、標示抽出手段1(図2)、即ち本ステップ240の
作用を説明する説明図である。本図7に示す様に、標示
(白線)の幅や位置は、輝度に対するX方向における微
分値のピーク座標から求めることができる。Next, at step 240, the markings on the road surface image (X, Y) are extracted. This marking is usually based on the premise of white or the like, but since the operation of the extraction processing described below is based on the differential processing regarding luminance, yellow or the like can also be the target of the following processing. Figure 7
FIG. 4 is an explanatory diagram for explaining the operation of the sign extracting means 1 (FIG. 2), that is, the present step 240. As shown in FIG. 7, the width and position of the marking (white line) can be obtained from the peak coordinates of the differential value in the X direction with respect to the luminance.
【0041】図8は、本実施例の探索情報として保存さ
れる車線標示の保存形態(データ形式)を例示する探索
情報テーブル10のテーブル構造図である。このテーブ
ル構造図上の「ライン」とは、路面画像データ(画素)
の1画面上における行(Y座標)のことであり、図5
(b)にその行番号I(1≦I≦m)の増加方向を示
す。また、このテーブル構造図上の「白線ペア」とは、
路面画像上で抽出された、図7のピーク対のことであ
り、図5(b)にその白線ペア番号J(1≦J≦NI)
の増加方向を示す。白線ペア番号Jの増加方向は、路面
画像データ(画素)の1画面上におけるX座標の方向と
一致する。また、各ライン毎に白線ペアの数NI(1≦
I≦m)が記憶されている。FIG. 8 is a table structure diagram of the search information table 10 exemplifying the storage mode (data format) of the lane markings stored as the search information in this embodiment. "Lines" in this table structure diagram are road surface image data (pixels)
5 is a line (Y coordinate) on one screen of FIG.
(B) shows the increasing direction of the line number I (1 ≦ I ≦ m). Also, the "white line pair" on this table structure diagram is
It is the peak pair of FIG. 7 extracted on the road surface image, and the white line pair number J (1 ≦ J ≦ NI) is shown in FIG. 5B.
Shows the increasing direction of. The increasing direction of the white line pair number J matches the direction of the X coordinate on one screen of the road surface image data (pixels). In addition, the number of white line pairs NI (1 ≦
I ≦ m) is stored.
【0042】以下、本発明の最も大きな特徴部分である
境界標示採択部2(図2)を実現するためのアルゴリズ
ムを例示する。図9は、図3のステップ250(境界標
示採択部2)を実現するための実行手順300を例示す
るフローチャートである。本ステップステップ250
(実行手順300)では、探索情報テーブル10の中か
ら、不要な標示等をも含んだ広義のノイズを除去するこ
とにより、残った白線標示を車線境界線の一部を表す標
示として採択する。即ち、一部の標示を有用な境界標示
として採択することは、その他の不要な部分を排除(除
去)することと同値である。この除去処理は、後述のサ
ブルーチン群(ノイズ除去n(1≦n≦7)により実行
する。An algorithm for realizing the boundary marking selecting unit 2 (FIG. 2), which is the most characteristic feature of the present invention, will be exemplified below. FIG. 9 is a flowchart illustrating an execution procedure 300 for implementing step 250 (boundary marking selecting unit 2) of FIG. This step Step 250
In (execution procedure 300), noise in a broad sense including unnecessary markings is removed from the search information table 10 so that the remaining white line markings are adopted as markings representing a part of the lane boundary line. That is, adopting a part of the markings as useful boundary markings is equivalent to eliminating (removing) other unnecessary portions. This removal processing is executed by a subroutine group (noise removal n (1 ≦ n ≦ 7) described later.
【0043】以下、上記の探索情報テーブル10の中か
ら広義のノイズを検出(推定)し、除去する除去処理の
手順について詳しく説明する。Hereinafter, the procedure of the removing process for detecting (estimating) and removing noise in a broad sense from the search information table 10 will be described in detail.
【0044】本フローチャート(実行手順300)で
は、まず最初に初期処理(ステップ310,ステップ3
15,ステップ320)を実行する。この初期処理で0
クリアされるカウンタには、以下のものがある。
(1)L3C(左3重線カウンター)
路面画像データの1画面を探索した結果得られた探索情
報テーブル10の中から検出された、画面左半分に位置
する3重線標示パターン(図1(a))の全件数。
(2)R3C(右3重線カウンター)
路面画像データの1画面を探索した結果得られた探索情
報テーブル10の中から検出された、画面右半分に位置
する3重線標示パターン(図1(a))の全件数。
(3)I(行番号)In this flowchart (execution procedure 300), first of all, initial processing (step 310, step 3)
15, step 320) is executed. 0 in this initial processing
The following counters are cleared. (1) L3C (left triple line counter) The triple line marking pattern located in the left half of the screen detected from the search information table 10 obtained as a result of searching one screen of road surface image data (see FIG. 1 ( a)) The total number of cases. (2) R3C (Right triple line counter) The triple line marking pattern located in the right half of the screen detected from the search information table 10 obtained as a result of searching one screen of the road surface image data (Fig. 1 ( a)) The total number of cases. (3) I (line number)
【0045】次に、ステップ325、ステップ330で
は、各行単位の処理を実行する際の、初期化を行う。即
ち、ステップ325では、行番号Iを1つ増やす。ステ
ップ330では、上記の白線ペア番号Jを0に初期化す
る。Kは、ステップ340にて操作対象となる標示の個
数であり、Jの増加幅と一致する。ただし、Kの初期値
は1とする。Next, in steps 325 and 330, initialization is performed when executing the processing in units of rows. That is, in step 325, the line number I is incremented by 1. In step 330, the white line pair number J is initialized to 0. K is the number of markings to be operated in step 340, and matches the increment of J. However, the initial value of K is 1.
【0046】ステップ335では、白線ペア番号Jを増
加幅Kだけ増加させる。ステップ340では、線種分別
部111(図2)に対応する処理を実行する。図10
に、この線種分別部111(図9ステップ340)を実
現する実行手順400を例示する。At step 335, the white line pair number J is increased by the increment K. In step 340, processing corresponding to the line type classification unit 111 (FIG. 2) is executed. Figure 10
An execution procedure 400 for realizing the line type classification unit 111 (step 340 in FIG. 9) is illustrated in FIG.
【0047】ステップ410では、図1(a)の標示パ
ターンに関して、次式(2)に示す条件を満たすものを
三重線と判定する。ただし、以下に示すdi(0≦i≦
7)は適当な定数であり、概ね、添字iの値が大きくな
る程、定数diの値も大きくなる傾向にある。In step 410, the marking pattern shown in FIG. 1A is determined to be a triple line if it satisfies the condition shown in the following expression (2). However, di (0 ≦ i ≦
7) is an appropriate constant, and generally, as the value of the subscript i increases, the value of the constant di tends to increase.
【0048】[0048]
【数2】 |w1−w3|≦d1, w1≧w2, d2≦w2≦d5, d2≦L≦d6 …(2)[Equation 2] | W1-w3 | ≦ d1, w1 ≧ w2 d2 ≦ w2 ≦ d5 d2 ≦ L ≦ d6 (2)
【0049】これらの定数diの各値は、本実施例を適
用する国や地域での実際の車線標示の形式(規格)に照
らして、好適或いは最適な値を設定することが望まし
い。また、カーナビゲーションシステムと連動させるこ
とにより、本実施例を適用する国や地域を具体的に実時
間にて動的に求め、その位置に応じて、各di(0≦i
≦7)の値が自動的に最適化される様に構成しても良
い。例えば、図1(a)の車線境界線の幅w2が、10
cm〜20cmである地域においては、例えば、d2=(1
0−ε)cm,d5=20cm等とすれば良い。It is desirable that each value of these constants di is set to a suitable or optimum value in view of the actual lane marking format (standard) in the country or region to which this embodiment is applied. Further, by linking with the car navigation system, the country or region to which the present embodiment is applied is dynamically obtained in real time, and each di (0 ≦ i
You may comprise so that the value of <= 7) may be optimized automatically. For example, the width w2 of the lane boundary line in FIG.
In the area of cm to 20 cm, for example, d2 = (1
0-ε) cm and d5 = 20 cm may be set.
【0050】ただし、規格や経験等から既知である標示
幅wnの閾値(特に下限値)を、例えば上記の様に適当
な正数ε分だけ小さめに設定しておいた方が望ましいケ
ースとしては、例えば次の様なものが考えられる。
(ケース1)白線が磨耗して細く見える場合。
(ケース2)例えばタイヤ跡等の汚れにより白線が細く
見える場合。
即ち、上記の式(2)は、これらの各種の諸事情をも加
味して、各種のノイズに対して頑強になる様に、好適或
いは最適に決定することがより望ましい。尚、これらの
事情は、後述のその他の判別式についても全く同様であ
る。However, as a case where it is desirable to set the threshold value (particularly the lower limit value) of the marking width wn known from the standard, experience, etc. to a small value by an appropriate positive number ε as described above, for example. For example, the following can be considered. (Case 1) When the white line looks worn and thin. (Case 2) When the white line looks thin due to dirt such as tire marks. That is, it is more preferable that the above formula (2) be determined appropriately or optimally so as to be robust against various noises, taking these various circumstances into consideration. Incidentally, these circumstances are exactly the same for other discriminants described later.
【0051】ステップ420では、3重線と判定された
上記の標示パターンの位置が、路面画像上の左右どちら
に有るかを判定する。この判定は、例えば、図1(a)
のJ+1番目の標示の立ち下がりピーク位置(図7、図
8)が画面の中心線に対して左右のどちら側に位置する
か等の判定基準を用いて実行することができる。In step 420, it is determined whether the position of the marking pattern, which is determined to be a triple line, is on the left or right of the road surface image. This determination is made, for example, in FIG.
This can be performed by using a judgment criterion such as which of the left and right sides the falling peak position (FIG. 7, FIG. 8) of the (J + 1) th sign of is located with respect to the center line of the screen.
【0052】ステップ422では、L3C(左3重線カ
ウンター)の値を1だけ増やす。このカウンターL3C
は、図2の線種モード判定部112(即ち、図9のステ
ップ355や図14の実行手順500)にて、左側の線
種モードを決定する際に参照されるものである。ステッ
プ424では、後述のサブルーチン(ノイズ除去1)を
呼び出して実行する。このサブルーチン(ノイズ除去
1)は、図1(a)の斜線部に該当するブロック標示を
ノイズとして除去するためのものである。即ち、このサ
ブルーチンにより、探索情報テーブル10(図8)の中
のノイズ(ブロック標示)と判定された該当する白線標
示のデータが削除若しくは無効化される。In step 422, the value of L3C (left triple line counter) is incremented by 1. This counter L3C
Is referred to when the line type mode determination unit 112 in FIG. 2 (that is, step 355 in FIG. 9 or the execution procedure 500 in FIG. 14) determines the left line type mode. In step 424, a subroutine (noise removal 1) described later is called and executed. This subroutine (noise removal 1) is for removing the block marking corresponding to the shaded area in FIG. 1A as noise. That is, this subroutine deletes or invalidates the data of the corresponding white line marking determined to be noise (block marking) in the search information table 10 (FIG. 8).
【0053】ステップ426では、R3C(右3重線カ
ウンター)の値を1だけ増やす。このカウンターR3C
は、図2の線種モード判定部112(即ち、図9のステ
ップ360)にて、右側の線種モードを決定する際に参
照されるものである。ステップ428では、後述のサブ
ルーチン(ノイズ除去2)を呼び出して実行する。At step 426, the value of R3C (right triple line counter) is incremented by 1. This counter R3C
Is referred to when the line type mode determination unit 112 in FIG. 2 (that is, step 360 in FIG. 9) determines the right line type mode. In step 428, a subroutine (noise removal 2) described later is called and executed.
【0054】ステップ430では、図1(b)の標示パ
ターンに関して、次式(3)に示す条件を満たすものを
左二重線と判定する。ただし、次式(3)を満たす標示
パターンが、路面画像上の右側に位置する場合には、そ
の標示パターンを左二重線とは判定しない。In step 430, the marking pattern shown in FIG. 1B is determined to be the left double line if it satisfies the condition shown in the following expression (3). However, when the marking pattern that satisfies the following expression (3) is located on the right side of the road surface image, the marking pattern is not determined as the left double line.
【数3】
d2≦w1≦d5,
d3≦w2≦d6,
d0≦L1≦d4 …(3)
また、ステップ435では、後述のサブルーチン(ノイ
ズ除去3)を呼び出して実行する。## EQU00003 ## d2.ltoreq.w1.ltoreq.d5, d3.ltoreq.w2.ltoreq.d6, d0.ltoreq.L1.ltoreq.d4 (3) In step 435, a subroutine (noise removal 3) described later is called and executed.
【0055】ステップ440では、図1(c)の標示パ
ターンに関して、次式(4)に示す条件を満たすものを
右二重線と判定する。ただし、次式(4)を満たす標示
パターンが、路面画像上の左側に位置する場合には、そ
の標示パターンを右二重線とは判定しない。In step 440, the marking pattern shown in FIG. 1C is determined to be the right double line if it satisfies the condition shown in the following equation (4). However, when the marking pattern that satisfies the following expression (4) is located on the left side of the road surface image, the marking pattern is not determined as the right double line.
【数4】
d3≦w1≦d6,
d2≦w2≦d5,
d0≦L1≦d4 …(4)
また、ステップ445では、後述のサブルーチン(ノイ
ズ除去4)を呼び出して実行する。## EQU00004 ## d3.ltoreq.w1.ltoreq.d6, d2.ltoreq.w2.ltoreq.d5, d0.ltoreq.L1.ltoreq.d4 (4) In step 445, a subroutine (noise removal 4) described later is called and executed.
【0056】次に、図11のステップ450では、図1
(d)の標示パターン(中抜け)に関して、次式(5)
に示す条件を満たすものを前述の「中抜け」の標示パタ
ーンと判定する。Next, in step 450 of FIG. 11, in FIG.
Regarding the marking pattern (blank) of (d), the following equation (5)
Those that satisfy the condition shown in are determined to be the above-mentioned "middle-out" marking patterns.
【数5】 |w1−w2|≦d1, d2≦L≦d6 …(5)[Equation 5] | W1-w2 | ≦ d1, d2 ≦ L ≦ d6 (5)
【0057】ステップ460では、「中抜け」と判定さ
れた上記の標示パターンの位置が、路面画像上の左右ど
ちらに有るかを判定する。この判定は、例えば、図1
(d)のJ番目とJ+1番目の各標示の立ち下がりピー
ク位置の中点が画面の中心線に対して左右のどちら側に
位置するかなどの判定基準を用いて実行することができ
る。In step 460, it is determined whether the position of the marking pattern, which is determined to be "middle-out", is on the left or right side of the road surface image. This determination is made, for example, in FIG.
This can be performed by using a determination criterion such as whether the midpoint of the falling peak position of each of the Jth and J + 1th markings in (d) is located on the left or right side of the center line of the screen.
【0058】ステップ464では、後述のサブルーチン
(ノイズ除去5)を呼び出して実行する。ステップ46
8では、後述のサブルーチン(ノイズ除去6)を呼び出
して実行する。In step 464, a subroutine (noise removal 5) described later is called and executed. Step 46
In 8, the subroutine (noise removal 6) described later is called and executed.
【0059】ステップ470では、現在判定対象となっ
ているJ番目の標示の幅w1が次式(6)を満たすか否
かを判定する。この白線幅条件を満たすものは、単一の
車線境界線(単一線)と推定される。In step 470, it is determined whether or not the width w1 of the J-th marking which is the current determination target satisfies the following expression (6). Those that satisfy the white line width condition are presumed to be a single lane boundary line (single line).
【数6】
d2≦w1≦d7 …(6)
ステップ475では、Jの増加幅Kを1に設定する。ス
テップ480では、後述のサブルーチン(ノイズ除去
7)を呼び出して実行する。このサブルーチン(ノイズ
除去7)で除去される標示は、実際には車線標示に直接
関係ないノイズなどが主である。以上のサブルーチン
(ノイズ除去n)の振り分け処理が、図2の線種分別部
111に該当する処理である。以上の処理(実行手順4
00)が完了した時点で、呼出元に処理を移す(制御を
戻す)。## EQU00006 ## d2.ltoreq.w1.ltoreq.d7 (6) In step 475, the increment K of J is set to 1. In step 480, a subroutine (noise removal 7) described later is called and executed. The markings removed by this subroutine (noise removal 7) are mainly noises that are not directly related to the lane markings. The above-described sub-routine (noise removal n) distribution processing corresponds to the line type classification unit 111 in FIG. The above process (execution procedure 4)
When (00) is completed, the process is transferred to the caller (control is returned).
【0060】以下、図12を用いて、前述の境界位置推
定手段120(図2)の処理に付いて説明する。本実施
例においては、この境界位置推定手段120は、上記の
ノイズ除去処理を実行するサブルーチン群(ノイズ除去
n(1≦n≦7))により具現されている。The processing of the boundary position estimating means 120 (FIG. 2) described above will be described below with reference to FIG. In the present embodiment, the boundary position estimating means 120 is embodied by a group of subroutines (noise removal n (1 ≦ n ≦ 7)) that executes the above noise removal processing.
【0061】図12に、これらのノイズ除去部(サブル
ーチン名:ノイズ除去1〜7)の動作を規定する境界位
置推定基準の一覧表を示す。図10、図11に例示し
た、線種分別部111(図1)の動作により、図12の
一覧表に示す各線種が分類される。ただし、単一線(単
独の車線境界線)に関しては、ノイズ除去処理が必要な
いため、本図12の一覧表には掲載していない。FIG. 12 shows a list of boundary position estimation standards that define the operations of these noise removing units (subroutine name: noise removing 1 to 7). By the operation of the line type classification unit 111 (FIG. 1) illustrated in FIGS. 10 and 11, each line type shown in the list of FIG. 12 is classified. However, a single line (single lane boundary line) does not require noise removal processing, and therefore is not included in the list of FIG.
【0062】図12の一覧表(境界位置推定基準表)に
おける各記号の意味は、以下の通りである。
(記号)
× : 操作対象となる標示を無条件でノイズと判定
(推定)し、前述の探索情報テーブル10上に有る対応
する白線ペアのデータを削除又は無効化する。
△ : 表中の「標示採択条件」が成り立たない場合に
だけ、操作対象となる標示をノイズと判定(推定)し、
前述の探索情報テーブル10上に有る対応する白線ペア
のデータを削除又は無効化する。
− : 操作或いは参照の対象外とする。The meaning of each symbol in the list (boundary position estimation reference table) of FIG. 12 is as follows. (Symbol) ×: Unconditionally determines (estimates) the marking to be operated as noise, and deletes or invalidates the corresponding white line pair data on the search information table 10 described above. △: Only when the "mark selection condition" in the table is not satisfied, the mark to be operated is judged (estimated) as noise,
The corresponding white line pair data on the search information table 10 is deleted or invalidated. -: Not subject to operation or reference.
【0063】(ノイズ除去1)したがって、例えば、サ
ブルーチン「ノイズ除去1」では、フラグLF3の値が
1である時に限り、図1(a)のJ+1番目の標示(中
央に位置する車線境界線)を削除対象外としてテーブル
上に該当データを残す。即ち、有効な標示として採択す
る。尚、その後は無条件に、Jの増加幅Kの値を3に設
定して、呼出元に制御を戻す。(Noise removal 1) Therefore, for example, in the subroutine "noise removal 1", only when the value of the flag LF3 is 1, the (J + 1) th marking (lane boundary line located at the center) in FIG. Is excluded from the deletion target and the corresponding data is left on the table. That is, it is adopted as a valid sign. After that, the value of the increment K of J is unconditionally set to 3, and the control is returned to the calling source.
【0064】(ノイズ除去6)また、例えば、サブルー
チン「ノイズ除去6」では、フラグRF3の値が0であ
る時に限り、図1(d)のJ番目とJ+1番目の標示を
削除対象外としてテーブル上に該当データを残す。即
ち、有効な標示として採択する。尚、その後は無条件
に、Jの増加幅Kの値を2に設定して、呼出元に制御を
戻す。(Noise Removal 6) Further, for example, in the subroutine "noise removal 6", the Jth and J + 1th markings in FIG. 1D are excluded from the deletion target table only when the value of the flag RF3 is 0. Leave the relevant data above. That is, it is adopted as a valid sign. Incidentally, thereafter, the value of the increment K of J is unconditionally set to 2, and the control is returned to the calling source.
【0065】図13に、各線種モードとモードフラグ
(1ビット)の関係を示す。これらの4本のフラグは、
線種モード判定部112(図2)に相当する図9のステ
ップ355(左線種モード判定を実行するサブルーチ
ン)及びステップ360(右線種モード判定を実行する
サブルーチン)において更新される。即ち、これらの左
右の線種モードを判定するサブルーチンは、上記の探索
情報テーブル10に対する路面画像1画面分のノイズ除
去処理が一通り完了した段階で実行される。尚、この様
な1画面単位の処理手順は、図9のステップ345とス
テップ350により実現される。FIG. 13 shows the relationship between each line type mode and the mode flag (1 bit). These four flags are
It is updated in step 355 (subroutine for performing left line type mode determination) and step 360 (subroutine for performing right line type mode determination) in FIG. 9 corresponding to the line type mode determination unit 112 (FIG. 2). That is, the subroutine for determining the left and right line type modes is executed when the noise removal processing for one screen of the road surface image for the search information table 10 is completed. It should be noted that such a processing procedure for each screen is realized by steps 345 and 350 in FIG.
【0066】図14に、図2の線種モード判定部112
(図9の左線種モード判定)を実現する実行手順500
を例示する。この実行手順500は、前述の本発明の第
8の手段の「モード変更保留手段」をも同時に実現する
ものである。FIG. 14 shows the line type mode determining section 112 of FIG.
Execution procedure 500 for realizing (left line type mode determination in FIG. 9)
Is illustrated. The execution procedure 500 also realizes the "mode change holding means" of the eighth means of the present invention at the same time.
【0067】本フローチャートでは、まず最初に、ステ
ップ510により、線種分別部111(図2,図10)
のステップ422で更新される前述の左3重線カウンタ
ーL3Cを参照する。本カウンターL3Cは、路面画像
データの1画面を探索した結果得られた探索情報テーブ
ル10の中から検出された、画面左半分に位置する3重
線標示パターン(図1(a))の全件数を保持してい
る。In this flowchart, first, in step 510, the line type classification unit 111 (FIGS. 2 and 10) is used.
Reference is made to the left triplet line counter L3C, which is updated in step 422 of FIG. This counter L3C is the total number of triple line marking patterns (FIG. 1 (a)) located in the left half of the screen, which is detected from the search information table 10 obtained as a result of searching one screen of the road surface image data. Holding
【0068】この結果、カウンターL3Cの値が所定の
閾値αよりも大きければ、ステップ520に、そうでな
ければステップ530に処理を移す。以下のステップ5
20とステップ525、及び、ステップ530とステッ
プ535では、次の2種類のカウンター(LM1,LM
2)を更新する。As a result, if the value of the counter L3C is larger than the predetermined threshold value α, the process proceeds to step 520, and if not, the process proceeds to step 530. Step 5 below
20 and step 525, and step 530 and step 535, the following two types of counters (LM1, LM
2) is updated.
【0069】(1)LM1(左単一線モードカウンタ
ー)
以下の「左単一線状態判定条件」が連続的に満たされた
回数をカウントする(ステップ530)。したがって、
1度でも「左単一線状態判定条件」が満たされなかった
場合には、その場でそのカウント値は0に戻される(ス
テップ520)。これにより、本カウンターでカウント
した期間における左単一線状態の連続性が保証される。
《左単一線状態判定条件》路面画像中の左側にて検出さ
れた3重線標示の標示パターン(図1(a))の件数
(L3C)がその1画面中で所定の閾値α以下であるこ
と。(1) LM1 (left single line mode counter) The number of times that the following "left single line state determination condition" is continuously satisfied is counted (step 530). Therefore,
If the "left single line state determination condition" is not satisfied even once, the count value is returned to 0 on the spot (step 520). This guarantees the continuity of the left single line state during the period counted by this counter. << Left Single Line State Judgment Condition >> The number (L3C) of triple line marking patterns (FIG. 1 (a)) detected on the left side of the road surface image is less than or equal to a predetermined threshold value α in one screen. thing.
【0070】(2)LM2(左複合線モードカウンタ
ー)
以下の「左複合線状態判定条件」が連続的に満たされた
回数をカウントする(ステップ525)。したがって、
1度でも「左複合線状態判定条件」が満たされなかった
場合には、その場でそのカウント値は0に戻される(ス
テップ535)。これにより、本カウンターでカウント
した期間における左複合線状態の連続性が保証される。
《左複合線状態判定条件》路面画像中の左側にて検出さ
れた3重線標示の標示パターン(図1(a))の件数
(L3C)がその1画面中で所定の閾値αよりも大きい
こと。(2) LM2 (left composite line mode counter) The number of times that the following "left composite line state determination condition" is continuously satisfied is counted (step 525). Therefore,
If the "left composite line state determination condition" is not satisfied even once, the count value is returned to 0 on the spot (step 535). This ensures the continuity of the left composite line state during the period counted by this counter. << Left Composite Line State Judgment Condition >> The number (L3C) of the marking patterns (FIG. 1 (a)) of the triple line marking detected on the left side of the road surface image is larger than the predetermined threshold α in one screen. thing.
【0071】《モード変更条件1》左単一線モードカウ
ンターLM1の値が所定の閾値γを越えること。本条件
はステップ560でチェックされ、本条件が満たされて
いる場合には、ステップ570とステップ575の動作
により、図13(a)の定義に従って、左側の線種モー
ドが単一線モードに設定される。<Mode changing condition 1> The value of the left single line mode counter LM1 exceeds a predetermined threshold value γ. This condition is checked in step 560, and when this condition is satisfied, the left line type mode is set to the single line mode according to the definition of FIG. 13A by the operations of step 570 and step 575. It
【0072】《モード変更条件2》左複合線モードカウ
ンターLM2の値が所定の閾値βを越えること。本条件
はステップ540でチェックされ、本条件が満たされて
いる場合には、ステップ550とステップ555の動作
により、図13(a)の定義に従って、左側の線種モー
ドが三重線モードに設定される。<Mode changing condition 2> The value of the left composite line mode counter LM2 exceeds a predetermined threshold value β. This condition is checked in step 540, and if this condition is satisfied, the left line type mode is set to the triple line mode according to the definition of FIG. 13A by the operations of step 550 and step 555. It
【0073】モード変更条件1、2が満たされなけれ
ば、モードの変更は行わない。これにより、前述の「モ
ード変更保留手段」が実現される。この様な手段によ
り、線種モードの変更は、状況が一定した段階で初めて
実行されるため、ノイズに対して頑強なモード決定処理
を実現することができる。If the mode changing conditions 1 and 2 are not satisfied, the mode is not changed. As a result, the "mode change holding means" described above is realized. By such means, the line type mode is changed only when the situation is constant, so that it is possible to realize a robust mode determination process against noise.
【0074】尚、上記の例では、ステップ510〜ステ
ップ535を用いて、左単一線状態と左複合線状態の区
分判定を閾値αにて行ったが、この様な状態区分判定で
は、3重線標示の件数(L3C)の一定期間(複数回の
制御周期にわたる期間)の平均値と所定の閾値α′とを
比較する様にしても良い。また、この平均値に加えて更
に、3重線標示の件数(L3C)の一定期間(例:20
mの走行期間)の最小値も同時に所定の閾値α″と比較
する様にしても良い。これらの統計操作における各種の
変形により、ノイズに対してより頑強なアルゴリズムを
構成することができる。In the above example, the judgment of the left single line state and the left compound line state is made by the threshold value α using steps 510 to 535. It is also possible to compare the average value of the number of line markings (L3C) for a certain period (period over a plurality of control cycles) with a predetermined threshold value α '. In addition to this average value, the number of triple line markings (L3C) for a certain period (eg, 20)
The minimum value of (m running period) may be compared with a predetermined threshold value α ″ at the same time. By various modifications of these statistical operations, a more robust algorithm against noise can be configured.
【0075】例えば図14のロジックでは、βの値が9
である時、ステップ510の条件が連続して10回以上
満たされないと、左三重線モードに移行しない(即ち、
ステップ550を実行しない)。しかし、上記の変形例
として、例えば、カウンタL3Cの平均値をこの10回
に渡って求め、この10回にわたる平均値が所定の閾値
α′以上であれば、左三重線モードに移行する(即ち、
ステップ550を実行する)様にロジックを構成しても
良い。For example, in the logic of FIG. 14, the value of β is 9
If the condition of step 510 is not satisfied 10 times or more in succession, the mode does not shift to the left triple line mode (ie,
Do not execute step 550). However, as a modification of the above, for example, the average value of the counter L3C is obtained 10 times, and if the average value for 10 times is equal to or more than a predetermined threshold value α ', the mode is shifted to the left triple line mode (that is, ,
The logic may be configured such that step 550 is executed).
【0076】ステップ580とステップ585では、左
二重線モードフラグLF2の設定処理を行う。このフラ
グ設定処理は、ステップ510〜ステップ575までの
モード設定処理と略同様に実施しても良いが、通常高速
道路では、右側が3重線である場合には、図21に示す
様に左側は2重線(若しくは3重線)であり、また、左
側が2重線の時は、右側は3重線であるため、本実施例
の車線境界判定装置100の適用範囲を高速道路に限定
する際には、この様な左二重線モードフラグLF2の設
定処理を行っても良い。路面画像中に三重線と誤判定さ
れ得るノイズが出現する頻度は通常十分に小さいので、
例えば上記の様に三重線の判別結果をベースとして線種
モード判定を行えば、ノイズに対して頑強な判定手段を
構成することができる。以上の処理が完了した時点で、
図14の実行手順500を終了し、呼出元に処理を戻
す。In steps 580 and 585, the left double line mode flag LF2 is set. This flag setting process may be performed in substantially the same manner as the mode setting process from step 510 to step 575, but on a normal highway, if the right side is a triple line, as shown in FIG. Is a double line (or a triple line), and when the left side is a double line, the right side is a triple line, so that the applicable range of the lane boundary determination device 100 of the present embodiment is limited to an expressway. In doing so, such a setting process of the left double line mode flag LF2 may be performed. The frequency of appearance of noise that can be erroneously determined as a triple line in the road image is usually small enough,
For example, when the line type mode determination is performed based on the determination result of the triple line as described above, it is possible to configure a determination unit that is robust against noise. When the above process is completed,
The execution procedure 500 of FIG. 14 is terminated, and the process is returned to the calling source.
【0077】なお、以下の処理手順1〜3に従えば、上
記のステップ580,585に対する代替処理として、
図14のステップ510〜ステップ575までのモード
設定処理と略同様に、左二重線モードフラグLF2の設
定処理を独立に構成することができる。
(処理手順1)前記のカウンターL3C,R3Cと同様
のカウンターであるL2C(左二重線カウンター)とR
2C(右二重線カウンター)を設け、前記のL3C,R
3Cと同様のタイミングで初期化(0クリア)する。According to the following procedure 1 to 3, as an alternative process to the above steps 580 and 585,
The setting process of the left double-line mode flag LF2 can be independently configured in substantially the same manner as the mode setting process of steps 510 to 575 of FIG. (Processing procedure 1) L2C (left double line counter) and R, which are the same counters as the counters L3C and R3C,
2C (right double line counter) is installed and L3C and R
It is initialized (cleared to 0) at the same timing as 3C.
【0078】(処理手順2)線種分別部111にて、上
記のカウンターL2Cを用いて、画面左半分に位置する
2重線標示パターン(図1(b)又は(c))の全件数
をカウントする。ただし、この全件数は、標示パターン
((b)又は(c))別にそれぞれカウントする様にし
ても良い。これらの処理は、カウンターR2Cについて
も同様である。(Processing procedure 2) The line type classification unit 111 uses the counter L2C to determine the total number of double line marking patterns (FIG. 1 (b) or (c)) located in the left half of the screen. To count. However, this total number may be counted for each marking pattern ((b) or (c)). These processes are the same for the counter R2C.
【0079】(処理手順3)線種モード判定部112に
て、カウンターL2Cの値に基づいて、例えば、図14
のステップ510〜ステップ575と略同様に、左側の
線種モードの切換処理を実行する。尚、図14のステッ
プ580,ステップ585は削除する。これらの処理
は、右側の線種モードの切換処理についても同様であ
る。(Processing procedure 3) Based on the value of the counter L2C, the line type mode determination unit 112, for example, FIG.
In substantially the same manner as steps 510 to 575, the switching processing of the left line type mode is executed. Note that step 580 and step 585 in FIG. 14 are deleted. These processes are the same for the line type mode switching process on the right side.
【0080】この様な処理形態は、例えば、車線標示に
おいて三重線の有無とは必ずしも関係せず、三重線の有
無とは独立に二重線が標示されている国や地域や道路に
おいて有効である。これらの処理形態は、国、地域、道
路等の実際の具体的環境に適した最適なものを選択して
実施すれば良い。Such a processing form is not necessarily related to the presence / absence of a triple line in the lane marking, but is effective in a country, region or road where a double line is marked independently of the presence / absence of a triple line. is there. These processing modes may be carried out by selecting an optimum one suitable for an actual concrete environment such as a country, an area, and a road.
【0081】また、図9のステップ360においても、
上記と全く同様に、右線種モード判定処理を実施すれば
良い。以上の処理が完了した時点で、図9の実行手順3
00を終了し、呼出元に処理を戻す。以上の処理によ
り、図3の実行手順200のステップ250が実行され
る。これにより、図2の境界標示採択部2の処理が一通
り完了する。Also in step 360 of FIG. 9,
The right line type mode determination process may be performed in exactly the same manner as above. When the above processing is completed, the execution procedure 3 in FIG.
00 is terminated and the process is returned to the calling source. Through the above processing, step 250 of the execution procedure 200 of FIG. 3 is executed. As a result, the process of the boundary marking selecting unit 2 in FIG. 2 is completed.
【0082】以下、上記の手順により採択された(有効
なデータとして残された)車線境界線の候補点データ、
即ち、探索情報テーブル10上に残った有効な多数の白
線点のデータに対して、下記の周知の統計操作([1]
直線検出,[2]レーン選択)を施すことにより、車線
境界位置を決定(推定)することができる。即ち、図3
のステップ260では、下記の「直線検出」を実行す
る。また、図3のステップ270では、下記の「レーン
選択」を実行する。そして、図3のステップ280で
は、これらの統計操作に基づいて得られた境界位置を所
定の出力先(例:レーン逸脱警報装置等)に出力する。Hereinafter, lane boundary line candidate point data (retained as valid data) adopted by the above procedure,
That is, the following well-known statistical operation ([1] is performed on the data of many valid white line points remaining on the search information table 10.
The lane boundary position can be determined (estimated) by performing straight line detection and [2] lane selection). That is, FIG.
In step 260, the following "straight line detection" is executed. Further, in step 270 of FIG. 3, the following “lane selection” is executed. Then, in step 280 of FIG. 3, the boundary position obtained based on these statistical operations is output to a predetermined output destination (eg, lane departure warning device or the like).
【0083】[1]直線検出(Hough 変換)
複合線判定の処理により、白線点リストから複合線のブ
ロック白線に対応するノイズは除去できたが、路面の汚
れ等によるランダムなノイズが残っている。そこで、周
知のHough 変換により、路面画像上の直線を検出する。
Hough 変換はノイズのある画像からロバストに直線を検
出することができる代表的な手法である。[1] Straight Line Detection (Hough Transform) By the processing of the composite line determination, the noise corresponding to the block white line of the composite line can be removed from the white line point list, but random noise due to dirt on the road surface remains. . Therefore, the straight line on the road surface image is detected by the well-known Hough transform.
The Hough transform is a typical method that can robustly detect straight lines from a noisy image.
【0084】車線境界を走行レーンと白線の境界線とす
るため、路面画像の右半平面では白線ペアの立ち上がり
ピーク位置を、路面画像の左半平面では白線ペアの立ち
下がりピーク位置を代表点(投票点)としてHough 変換
を実行する。Hough 変換は、白線点リストから白線点位
置を順番に読み出し、その白線点位置を通る可能性のあ
るすべての直線への投票を行う。投票は直線を表す2パ
ラメータ空間(直線の切片と傾き)へ行われる。白線点
リストをすべて投票した後にパラメータ空間で積算され
た投票値のピークを複数個検出する。このピークが車線
境界の候補となる直線のパラメータ値を示す。このパラ
メータ値と票数をメモリにリストとして記憶しておく。Since the lane boundary is defined as the boundary line between the driving lane and the white line, the rising peak position of the white line pair is represented on the right half plane of the road surface image, and the falling peak position of the white line pair is represented on the left half plane of the road surface image as a representative point ( Hough transform is executed as the voting point. The Hough transform sequentially reads the positions of white line points from the list of white line points, and votes to all straight lines that may pass the position of the white line points. Voting is done in a two-parameter space that represents a straight line (the intercept and slope of the straight line). After voting all the white line dot lists, a plurality of peaks of voting values accumulated in the parameter space are detected. This peak indicates the parameter value of a straight line that is a candidate for a lane boundary. This parameter value and the number of votes are stored in memory as a list.
【0085】[2]レーン選択
Hough 変換の結果、路面画像中の車線境界の候補となる
直線が複数検出される。レーン選択ではHough 変換で検
出した直線を全て組み合わせてペアをつくり、レーンの
左右車線境界に対応するものの中から最も確信度の高い
ペアを選択する。それは以下の条件を満たすものであ
る。[2] Lane selection As a result of the Hough transform, a plurality of straight lines that are candidates for lane boundaries in the road surface image are detected. In lane selection, all straight lines detected by Hough transformation are combined to form a pair, and the pair with the highest certainty is selected from those corresponding to the left and right lane boundaries of the lane. It satisfies the following conditions.
【0086】1)左右の直線長が0.5m以上であること。
2)直線のペアから計算したレーンパラメータが設定範
囲内にあること。設定範囲は以下の通りである。
(a)位置偏差:−レーン幅計算値/2 〜+レーン幅計
算値/2
(b)レーン幅:LW0−標準偏差〜LW0+標準偏差
(c)ヨー角 : −ヨー角閾値〜+ヨー角閾値
(d)ピッチ角:−ピッチ角閾値〜+ピッチ角閾値
ただし、ここで、LW0は、レーン幅の基準値であり、
通常以下の中から選択されるものである。
(一般道路)・・・2.75m,3.00m
(高速道路)・・・3.25m,3.50m,3.75
m1) The right and left straight line length is 0.5 m or more. 2) The lane parameters calculated from the straight line pair are within the setting range. The setting range is as follows. (A) Position deviation: -Lane width calculated value / 2 to + Lane width calculated value / 2 (b) Lane width: LW0-Standard deviation to LW0 + Standard deviation (c) Yaw angle: -Yaw angle threshold value to + Yaw angle threshold value (D) Pitch angle: −Pitch angle threshold value to + Pitch angle threshold value Here, LW0 is a reference value of the lane width,
It is usually selected from the following. (General road) ・ ・ ・ 2.75m, 3.00m (Expressway) ・ ・ ・ 3.25m, 3.50m, 3.75
m
【0087】図15に、これらの判定処理(図2のレー
ン選択手段4)で使用する各レーンパラメータの定義を
示す。路面画像上で本図15に示すような左右2本の白
線白線が検出された場合のレーンパラメータ(位置偏
差,レーン幅,ヨー角,ピッチ角)の計算式を以下に示
す.このとき路面は局所的に平面で,cosΔφ≒1と
仮定している。また、路面画像の奥行きdはレーンマー
クが直線と見なせる距離である。FIG. 15 shows the definition of each lane parameter used in these determination processes (lane selecting means 4 in FIG. 2). The formulas for the lane parameters (position deviation, lane width, yaw angle, pitch angle) when two white lines on the left and right as shown in Fig. 15 are detected on the road surface image are shown below. At this time, it is assumed that the road surface is locally flat and cos Δφ≈1. The depth d of the road surface image is a distance at which the lane mark can be regarded as a straight line.
【0088】(変数定義)
e:位置偏差[m] ,
w:レーン幅[m],
θ:ヨー角[rad] ,
Δφ:カメラの俯角を基準値としたピッチ角変動量[ra
d] ,
h:カメラ高さ[m],
d:路面画像上の奥行き距離[m] ,
pR,L :路面画像下端(カメラ直下位置)と直線の交わ
る位置[m] ,
qR,L :路面画像上端と直線の交わる位置とpR,L との
差分[m] 。(Variable definition) e: position deviation [m], w: lane width [m], θ: yaw angle [rad], Δφ: pitch angle variation [ra with camera depression angle as a reference value]
d], h: Camera height [m], d: Depth distance [m] on the road surface image, p R, L : Position [m], q R, L where the lower edge of the road surface image (the position directly below the camera) intersects with a straight line : Difference [m] between p R, L and the position where the straight line intersects the upper edge of the road image.
【0089】以上の条件を満たすペアを抽出しその中で
左右の直線長の和が最大のものを現在走行中のレーンの
境界線を示すペアと判定する。Hough 変換の結果として
は、直線長は直接に求められないが、例えば、Hough変
換から得られる票数から直線長の和が最大のものを決定
することができる。A pair satisfying the above conditions is extracted, and the one having the maximum sum of the left and right straight line lengths is determined as the pair indicating the boundary line of the currently running lane. As a result of the Hough transform, the straight line length is not directly obtained, but for example, the maximum sum of straight line lengths can be determined from the number of votes obtained from the Hough transform.
【0090】以上で選択されたペアを車線境界の結果と
する。環境条件が悪化するとノイズの誤認は完全に除去
できない場合があるので、必要に応じて周知のローパス
フィルタ等でフィルタリングを実施した後、レーン逸脱
警報装置等へ出力するようにしても良い。例えば、以上
の様な実施例の適用により、路面上の車線標示が例えば
上記の様な複合線である場合にも、正確なレーン境界位
置を安定的かつ継続的に検出することができる。The pair selected above is taken as the result of the lane boundary. When the environmental condition deteriorates, the false recognition of noise may not be completely removed. Therefore, if necessary, the noise may be filtered by a known low-pass filter or the like and then output to a lane departure warning device or the like. For example, by applying the above-described embodiment, the accurate lane boundary position can be stably and continuously detected even when the lane marking on the road surface is, for example, the complex line as described above.
【0091】(第2実施例)本第2実施例では、上記の
第1実施例の改良事例に付いて例示する。図16は、本
第2実施例に係わる車線標示の平面図である。本図16
の(a),(b)は、両方ともそれぞれ車両の左側に現
れる車線標示を例示するもので、網かけ部位が、路面上
に描かれた車線標示を示している。カメラの光軸の角度
が路面上の車線標示の位置に対して浅い場合や、撮影し
た画像の解像度が低い場合、画像上のノイズが多い場
合、或いは路面上に望ましい形式で車線標示が描かれて
いない場合等には、例えば本図16に例示する様に、複
合線を構成するブロック標示と車線境界を示す車線境界
線とが一体になって見えることがある。(Second Embodiment) In the second embodiment, an improvement example of the first embodiment will be illustrated. FIG. 16 is a plan view of the lane marking according to the second embodiment. This Figure 16
Both (a) and (b) exemplify the lane markings appearing on the left side of the vehicle, and the shaded portions indicate the lane markings drawn on the road surface. When the angle of the optical axis of the camera is shallow with respect to the position of the lane markings on the road surface, when the resolution of the captured image is low, when there is a lot of noise on the image, or when the lane markings are drawn on the road surface in the desired format. If not, for example, as illustrated in FIG. 16, the block markings that compose the composite line and the lane boundary line that indicates the lane boundary may appear to be integrated.
【0092】これらの場合には、図8のテーブル10の
上には、車線標示があたかも1本であるかの様に記録さ
れ、その時の白線幅(単一線の幅)は、図示する様に白
線幅waやwbなる値として記録される。したがって、
この様な場合、上記の第1実施例においては、車線の境
界位置を正確に把握することが困難となり、車線の境界
位置が振動する恐れがある。本第2実施例では、この様
な問題に対応する手段を例示する。In these cases, the lane markings are recorded on the table 10 of FIG. 8 as if they were one line, and the white line width (width of a single line) at that time is as shown in the figure. The white line width wa and wb are recorded as values. Therefore,
In such a case, in the above-described first embodiment, it becomes difficult to accurately grasp the boundary position of the lane, and the boundary position of the lane may vibrate. In the second embodiment, means for dealing with such a problem will be illustrated.
【0093】図17は、本第2実施例に係わる、図2の
線種分別部111(図9ステップ340)を実現する実
行手順400(図10、図11)に対する新規拡張部分
を例示するフローチャートである。即ち、本第2実施例
は、図11のステップ470の直前に、図17の処理
(ステップ655〜ステップ669)を追加(挿入)す
ることにより、上記の課題を解決するものである。ただ
し、前述のカウンターL3C,R3C,L2C,R2C
については、前述の(処理手順1),(処理手順2),
(処理手順3)に従って、初期化、更新、及び参照する
ものとする。即ち、本第2実施例では、例えば、以下の
タイミングでこれらのカウンターを更新(インクリメン
ト)する。FIG. 17 is a flow chart illustrating a new extension portion for the execution procedure 400 (FIGS. 10 and 11) for realizing the line type classification unit 111 (FIG. 9 step 340) of FIG. 2 according to the second embodiment. Is. That is, the second embodiment solves the above problem by adding (inserting) the process (steps 655 to 669) of FIG. 17 immediately before step 470 of FIG. However, the above-mentioned counters L3C, R3C, L2C, R2C
For the above, (procedure 1), (procedure 2),
It shall be initialized, updated, and referenced in accordance with (Processing Procedure 3). That is, in the second embodiment, for example, these counters are updated (incremented) at the following timings.
【0094】(カウンターL3C)ノイズ除去1、ノイ
ズ除去5、データ修正1(図18)の各サブルーチンの
直前。
(カウンターR3C)ノイズ除去2、ノイズ除去6、デ
ータ修正3(図略)の各サブルーチンの直前。
(カウンターL2C)ノイズ除去3、データ修正2(図
18)の各サブルーチンの直前。
(カウンターR2C)ノイズ除去4、データ修正4(図
略)の各サブルーチンの直前。(Counter L3C) Immediately before each subroutine of noise removal 1, noise removal 5, and data correction 1 (FIG. 18). (Counter R3C) Immediately before each subroutine of noise removal 2, noise removal 6, and data correction 3 (not shown). (Counter L2C) Immediately before each subroutine of noise removal 3 and data correction 2 (FIG. 18). (Counter R2C) Immediately before each subroutine of noise removal 4 and data correction 4 (not shown).
【0095】尚、以下の処理においては、次の閾値を用
いることがある。
(閾値)
D2D:図16(a)の間隙が詰まった白線の幅waの
下限値
D2 :図16(a)の間隙が詰まった白線の幅waの
上限値
D3D:図16(b)の間隙が詰まった白線の幅wbの
下限値
D3 :図16(b)の間隙が詰まった白線の幅wbの
上限値
これらの値は、実際の道路事情やカメラの解像度等に基
づいて適当な値を経験的に求めて設定する。The following threshold values may be used in the following processing. (Threshold value) D2D: Lower limit value D2 of the width wa of the white line with the gap shown in FIG. 16 (a): Upper limit value W2 of the white line with the gap of FIG. 16 (a) D3D: The gap of FIG. 16 (b) Lower limit value D3 of the width wb of the white line clogged with: The upper limit value of the width wb of the white line clogged with the gap shown in FIG. 16 (b). These values are appropriate values based on actual road conditions and the resolution of the camera. Empirically set and set.
【0096】図17のステップ655では、J番目の標
示の幅、即ち、現在解析中の白線幅w1の値が、所定の
値DSよりも大きいか否かを判定する。この値DSは、
例えば、一般的な単一線から成る車線境界線の幅の標準
的な適正範囲の上限値等がふさわしく、一般に、上記の
閾値D2D以下の値をとる。即ち、本第2実施例におい
ては、1本に見える単一線の幅w1が、所定の値DSよ
りも大きい場合の処理に特徴がある。ステップ658、
ステップ669の変数Kは、前記のJの増加幅Kであ
る。In step 655 of FIG. 17, it is determined whether or not the width of the Jth mark, that is, the value of the white line width w1 currently being analyzed is larger than a predetermined value DS. This value DS is
For example, the upper limit value of the standard appropriate range of the width of the lane boundary line composed of a general single line is suitable, and generally, the value is the threshold value D2D or less. That is, the second embodiment is characterized by the processing when the width w1 of a single line that appears to be one is larger than the predetermined value DS. Step 658,
The variable K in step 669 is the increment K of J described above.
【0097】図18は、図17のステップ664を実現
するサブルーチン(左データ修正)を例示するフローチ
ャートである。このフローチャートでは、ステップ71
0〜740までの一連の処理により図16の(b)の車
線標示パターン(間隙の詰まった左3重線:白線幅=w
b)に対応する処理を実施し、ステップ750〜780
までの一連の処理により図16の(a)の車線標示パタ
ーン(間隙の詰まった左2重線:白線幅=wa)に対応
する処理を実施する。FIG. 18 is a flow chart exemplifying a subroutine (correction of left data) for realizing step 664 of FIG. In this flowchart, step 71
The lane marking pattern of FIG. 16B (left triple line with a closed gap: white line width = w by a series of processes from 0 to 740)
The process corresponding to b) is performed, and steps 750 to 780 are performed.
By the series of processes up to, the process corresponding to the lane marking pattern (left double line with a closed gap: white line width = wa) in FIG. 16A is performed.
【0098】例えば、ステップ710では、図13
(a)の左三重線モードフラグLF3をチェックする。
また、ステップ715では、間隙の詰まった三重線の白
線幅の適正範囲をチェックする。ステップ730(デー
タ修正1)では、図8のテーブル10に記録されている
該当する白線の代表点(ピーク位置)を、例えば、図1
6(b)の太い縦線で示した位置(幅wbの略中心点の
位置)に修正する。この「データ修正1」の処理は、例
えば、以下の様に図19に習って実施することがより望
ましい。For example, in step 710, FIG.
The left triple line mode flag LF3 in (a) is checked.
Further, in step 715, the proper range of the white line width of the triple line with the narrow gap is checked. In step 730 (data correction 1), the representative point (peak position) of the corresponding white line recorded in the table 10 of FIG.
The position is corrected to the position indicated by the thick vertical line 6 (b) (the position of the approximate center point of the width wb). It is more desirable to carry out the process of "data correction 1" by learning from FIG. 19 as follows, for example.
【0099】図19は、図18のステップ730を実現
するサブルーチン(データ修正1)のより望ましい処理
内容を説明する概念図である。即ち、間隙が詰まった左
側の3重線の場合、白線幅wbの中点から車線境界線の
標準幅D0の半分だけ位置を右にずらした点(図中●
印)を上記の代表点として採用する。FIG. 19 is a conceptual diagram for explaining more preferable processing contents of the subroutine (data correction 1) for realizing step 730 of FIG. That is, in the case of the left triple line with a narrow gap, the position is shifted to the right by half the standard width D0 of the lane boundary line from the midpoint of the white line width wb (● in the figure).
Mark) is adopted as the representative point above.
【0100】図18のステップ750〜ステップ780
についても、上記のステップ710〜ステップ740と
略同様に修正処理を実行する。図20は、図18のステ
ップ770を実現するサブルーチン(データ修正2)の
処理内容を説明する概念図である。即ち、間隙が詰まっ
た左側の2重線の場合には、上記と略同様にして、白線
幅waの左端から車線境界線の標準幅D0分だけ位置を
右にずらした点(図中●印)を上記の代表点として採用
する。Steps 750 to 780 in FIG.
As for the above, the correction process is executed in substantially the same manner as the above steps 710 to 740. FIG. 20 is a conceptual diagram for explaining the processing contents of a subroutine (data correction 2) that realizes step 770 of FIG. That is, in the case of the double line on the left side where the gap is closed, the position is shifted to the right by the standard width D0 of the lane boundary line from the left end of the white line width wa (marked with ● in the figure) in substantially the same manner as above. ) Is adopted as the representative point above.
【0101】右側のデータ修正処理(図17のステップ
668のサブルーチン「右データ修正」)に付いても、
左右の対称性に注意して上記と同様に実施すれば良い。
例えば、前記の図略の「データ修正3」は、上記のデー
タ修正1に習って構成することができ、また、前記の図
略の「データ修正4」は、上記のデータ修正2に習って
構成することができる。以上のデータ修正処理により、
より適正な代表点が図8のテーブル10上に残されるた
め、前記の課題を解決することができる。Even when the data correction processing on the right side (subroutine "correct right data" in step 668 of FIG. 17) is executed,
It may be carried out in the same manner as above, paying attention to the left-right symmetry.
For example, the above-mentioned "data correction 3", which is not shown, can be constructed by learning from the above-mentioned data correction 1, and the above-mentioned "data correction 4" can be learned by following the above-mentioned data correction 2. Can be configured. By the above data correction processing,
Since more appropriate representative points are left on the table 10 in FIG. 8, the above-mentioned problem can be solved.
【0102】また、ノイズを太線として誤認する可能性
があるため、左側の複合線の出現状況と右側の複合線の
出現状況とを総合的に判断して、線種モードを決定する
方法を取ることがより望ましい。この様な手法によれ
ば、以下に例示する様により頑強な線種モード判定が実
施可能となる。例えば、図14の実行手順500を改良
する際に、以下の方法を取ることが望ましい。Further, since noise may be mistakenly recognized as a thick line, a method of determining the line type mode by comprehensively judging the appearance situation of the left composite line and the appearance situation of the right composite line is adopted. Is more desirable. According to such a method, more robust line type mode determination can be performed as illustrated below. For example, when improving the execution procedure 500 of FIG. 14, it is desirable to take the following method.
【0103】即ち、例えば、以下の条件式(7)〜
(9)の何れか1つが成り立つ時、二重線と三重線(又
は、三重線と三重線)があると判定する。That is, for example, the following conditional expressions (7)-
When any one of (9) is established, it is determined that there is a double line and a triple line (or a triple line and a triple line).
【数7】 L2C>閾値α1、かつ、R3C>閾値α2 …(7)[Equation 7] L2C> threshold value α1 and R3C> threshold value α2 (7)
【数8】 L3C>閾値α2、かつ、R3C>閾値α2 …(8)[Equation 8] L3C> threshold value α2 and R3C> threshold value α2 (8)
【数9】 L3C>閾値α2、かつ、R2C>閾値α1 …(9)[Equation 9] L3C> threshold value α2 and R2C> threshold value α1 (9)
【0104】図14の実行手順500で用いた手法と略
同様に、上記の条件を満たすシーン(撮影画面)の数を
カウントし、その様な場面が設定回数以上継続したら、
複合線モードに切り換えれば良い。また、二重線か三重
線かは点数の多い側で判定しても良い。例えばこの様な
線種モード判定手法により、より頑強な線種モード判定
が実施できる。Similar to the method used in the execution procedure 500 of FIG. 14, the number of scenes (shooting screens) satisfying the above conditions is counted, and if such a scene continues for a set number of times or more,
Switch to the composite line mode. Further, the double line or the triple line may be determined on the side having the most points. For example, a more robust line type mode determination can be performed by such a line type mode determination method.
【0105】尚、上記の実施例では、車両の前方の様子
を撮影するカメラを用いたケースを示したが、カメラの
配向は任意で良い。即ち、車両の直下、後方、側方等を
撮影した場合にも、本発明の作用・効果を得ることが可
能である。また、本発明を実施するに当っては、カメラ
の台数に対する制約は無い。例えば、複数台のカメラで
広い範囲を撮像することにより、検出精度を向上させる
等の各種の応用形態を実施しても良い。In the above embodiment, the case of using the camera for photographing the situation in front of the vehicle is shown, but the orientation of the camera may be arbitrary. That is, it is possible to obtain the action and effect of the present invention even when the image is taken directly under, behind, or on the side of the vehicle. In implementing the present invention, there is no restriction on the number of cameras. For example, various application modes such as improving detection accuracy by capturing a wide range with a plurality of cameras may be implemented.
【図1】複合線(車線標示)の標示パターンを例示する
平面図。FIG. 1 is a plan view illustrating a marking pattern of a compound line (lane marking).
【図2】本発明の実施例に係わる車線境界判定装置10
0の構成形態を例示するブロック図。FIG. 2 is a lane boundary determination device 10 according to an embodiment of the present invention.
The block diagram which illustrates the structural form of 0.
【図3】車載カメラを有するコンピュータシステムによ
り車線境界判定装置100を実現する際の、各手段の実
行手順(200)を例示するフローチャート。FIG. 3 is a flowchart illustrating an execution procedure (200) of each unit when the lane boundary determination apparatus 100 is realized by a computer system having an in-vehicle camera.
【図4】車載カメラからの入力画像(a)、及びそれに
基づいて解析的に生成された路面画像(b)を例示する
写真。FIG. 4 is a photograph illustrating an input image (a) from a vehicle-mounted camera and a road surface image (b) analytically generated based on the input image.
【図5】入力画像(図4(a))を歪み補正した補正画
像と、路面画像(図4(b))との関係を示す説明図。FIG. 5 is an explanatory diagram showing the relationship between a corrected image obtained by correcting the distortion of an input image (FIG. 4A) and a road surface image (FIG. 4B).
【図6】図5による説明を更に補足するカメラ視界の斜
視図。6 is a perspective view of the field of view of the camera, which further supplements the description according to FIG.
【図7】標示抽出手段1(図2)の作用を説明する説明
図。FIG. 7 is an explanatory view for explaining the operation of the sign extracting means 1 (FIG. 2).
【図8】本発明の実施例に係わる探索情報として保存さ
れる車線標示の保存形態(データ形式)を例示する探索
情報テーブル10のテーブル構造図。FIG. 8 is a table structure diagram of a search information table 10 illustrating a storage mode (data format) of lane markings stored as search information according to an embodiment of the present invention.
【図9】図2の境界標示採択部2(図3ステップ25
0)を実現する実行手順(300)を例示するフローチ
ャート。9 is a block diagram of the boundary marking selecting unit 2 of FIG.
10 is a flowchart illustrating an execution procedure (300) for realizing 0).
【図10】図2の線種分別部111(図9ステップ34
0)を実現する実行手順(400)を例示するフローチ
ャート(前半)。10 is a diagram illustrating a line type classification unit 111 of FIG. 2 (step 34 of FIG. 9).
0) A flowchart illustrating the execution procedure (400) for realizing (0) (first half).
【図11】図2の線種分別部111(図9ステップ34
0)を実現する実行手順(400)を例示するフローチ
ャート(後半)。11 is a diagram illustrating a line type classification unit 111 of FIG. 2 (step 34 of FIG. 9).
0 is a flowchart illustrating the execution procedure (400) for realizing (0) (second half).
【図12】ノイズ除去部(サブルーチン名:ノイズ除去
1〜7)の動作を規定する境界位置推定基準の一覧表。FIG. 12 is a list of boundary position estimation standards that define the operation of a noise removal unit (subroutine name: noise removal 1 to 7).
【図13】各線種モードとモードフラグ(1ビット)の
関係を示す定義表。FIG. 13 is a definition table showing a relationship between each line type mode and a mode flag (1 bit).
【図14】図2の線種モード判定部112(図9の左線
種モード判定)を実現する実行手順(500)を例示す
るフローチャート。14 is a flowchart illustrating an execution procedure (500) for realizing the line type mode determination unit 112 (left line type mode determination of FIG. 9) of FIG.
【図15】図2のレーン選択手段4(図3のステップ2
70)で使用する各レーンパラメータの定義を示す説明
図。15 is a lane selection means 4 of FIG. 2 (step 2 of FIG. 3).
70) is an explanatory view showing the definition of each lane parameter used in FIG.
【図16】本発明の第2実施例に係わる車線標示の平面
図。FIG. 16 is a plan view of a lane marking according to the second embodiment of the present invention.
【図17】本発明の第2実施例に係わる、図2の線種分
別部111(図9ステップ340)を実現する実行手順
400(図10、図11)に対する新規拡張部分を例示
するフローチャート。FIG. 17 is a flowchart illustrating a new extension portion for the execution procedure 400 (FIGS. 10 and 11) that realizes the line type classification unit 111 (FIG. 9, step 340) according to the second embodiment of the present invention.
【図18】図17のステップ664を実現するサブルー
チン(左データ修正)を例示するフローチャート。FIG. 18 is a flowchart illustrating a subroutine (correction of left data) for realizing step 664 of FIG.
【図19】図18のステップ730を実現するサブルー
チン(データ修正1)の処理内容を説明する概念図。FIG. 19 is a conceptual diagram illustrating the processing contents of a subroutine (data correction 1) that realizes step 730 of FIG.
【図20】図18のステップ770を実現するサブルー
チン(データ修正2)の処理内容を説明する概念図。20 is a conceptual diagram illustrating the processing content of a subroutine (data modification 2) that implements step 770 of FIG.
【図21】走行車線を走行中の車両の車載カメラの視界
に入る複合線(車線標示)の標示パターンを例示する平
面図。FIG. 21 is a plan view exemplifying a marking pattern of a compound line (lane marking) within the field of view of a vehicle-mounted camera of a vehicle traveling on a traveling lane.
【図22】追い越し車線を走行中の車両の車載カメラの
視界に入る複合線(車線標示)の標示パターンを例示す
る平面図。FIG. 22 is a plan view exemplifying a marking pattern of a compound line (lane marking) within the field of view of an on-vehicle camera of a vehicle traveling on an overtaking lane.
1 … 標示抽出手段
2 … 境界標示採択部
3 … 直線検出手段
4 … レーン選択手段
10 … 探索情報テーブル
100 … 車線境界判定装置
110 … 複合線判定手段
111 … 線種分別部
112 … 線種モード判定部
120 … 境界位置推定手段
C … カメラ視点
Σ … 路面画像平面
I … 路面画像データ(画素)の行番号(1≦I≦
m)
J … 標示に路面画像の左側から付けた番号(1≦J
≦NI)
L3C … 左3重線カウンター
R3C … 右3重線カウンター
LF3 … 左3重線モードフラグ
RF3 … 右3重線モードフラグ
LF2 … 左2重線モードフラグ
RF2 … 右2重線モードフラグ
LM2 … 左複合線モードカウンター
LM1 … 左単一線モードカウンター
α … 左複合線状態判定閾値
β … 左複合線モード突入閾値
γ … 単一線モード復帰閾値1 ... Mark extraction means 2 ... Boundary mark adoption section 3 ... Straight line detection means 4 ... Lane selection means 10 ... Search information table 100 ... Lane boundary determination device 110 ... Composite line determination means 111 ... Line type classification unit 112 ... Line type mode determination Part 120 ... Boundary position estimating means C ... Camera viewpoint Σ ... Road surface image plane I ... Row number of road surface image data (pixels) (1 ≦ I ≦
m) J ... Numbers attached to the markings from the left side of the road surface image (1 ≦ J
≦ NI) L3C ... left triplet line counter R3C ... right triplet line counter LF3 ... left triplet mode flag RF3 ... right triplet mode flag LF2 ... left doublet mode flag RF2 ... right doublet mode flag LM2 ... left compound line mode counter LM1 ... left single line mode counter α ... left compound line state determination threshold β ... left compound line mode entry threshold γ ... single line mode return threshold
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/16 G08G 1/16 C (72)発明者 高橋 新 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 二宮 芳樹 愛知県愛知郡長久手町大字長湫字横道41番 地の1 株式会社豊田中央研究所内 (72)発明者 里中 久志 愛知県豊田市トヨタ町1番地 トヨタ自動 車株式会社内 (72)発明者 西田 誠 愛知県豊田市トヨタ町1番地 トヨタ自動 車株式会社内 (72)発明者 高山 宗広 愛知県刈谷市朝日町2丁目1番地 アイシ ン精機株式会社内 Fターム(参考) 5B057 AA16 BA02 CD12 DA07 DB02 DB09 DC03 DC19 DC22 DC30 DC36 5H180 AA01 CC04 CC24 LL07 5L096 BA04 CA04 EA07 FA03 FA38 FA64 FA69 FA73 GA02 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification symbol FI theme code (reference) G08G 1/16 G08G 1/16 C (72) Inventor Takahashi Shin 41 Address 1 Toyota Central Research Institute Co., Ltd. (72) Inventor Yoshiki Ninomiya 41, Nagakute-cho, Aichi-gun, Aichi-gun Nagakute-cho, Yokouchi Central Research Institute Inc. (72) Inventor Hisashi Satonaka Toyota, Aichi Prefecture Toyota Town No. 1 Toyota Automobile Co., Ltd. (72) Inventor Makoto Nishida No. 1 Toyota Town, Toyota City, Aichi Prefecture Toyota Auto Co., Ltd. (72) Inventor Munehiro Takayama 2-1-1 Asahi Town, Kariya City, Aichi Prefecture Aisin Seiki Co., Ltd. F term (reference) 5B057 AA16 BA02 CD12 DA07 DB02 DB09 DC03 DC19 DC22 DC30 DC36 5H180 AA01 CC04 CC24 LL07 5L096 BA04 CA04 EA07 FA03 FA38 FA64 FA69 FA73 GA02
Claims (13)
に描かれた車線標示で規定される車線(レーン)の境界
位置を走行中に実時間で判定する判定装置であって、 前記車線標示の脈絡方向又は自車両の進行方向を縦方向
とし、この縦方向に直交する方向を前記車線標示に関す
る探索方向として、この探索方向における探索により得
られた探索情報に基づいて、前記車線標示が、前記縦方
向に脈絡の有る複数列又は複数本の標示で構成されてい
る複合線から成るか否かを判定する複合線判定手段と、 この複合線判定結果に基づいて、前記境界位置を推定す
る境界位置推定手段とを備えたことを特徴とする車線境
界判定装置。1. A determination device for determining a boundary position of a lane (lane) defined by a lane marking drawn on a road surface in real time based on an image input from a camera, the lane The direction of the marking or the direction of travel of the host vehicle is the vertical direction, and the direction orthogonal to this vertical direction is the search direction for the lane markings, and based on the search information obtained by the search in this search direction, the lane markings are , A composite line determination means for determining whether or not the composite line is composed of a plurality of columns or a plurality of markings having a context in the vertical direction, and the boundary position is estimated based on the composite line determination result. A lane boundary determination device, comprising:
いに略平行となる前記入力画像上の複数箇所の探索位置
での複数件の前記探索情報に基づいて、前記車線標示が
複合線から成るか否かを判定することを特徴とする請求
項1に記載の車線境界判定装置。2. The composite line determination means determines that the lane marking is a composite line based on a plurality of pieces of search information at a plurality of search positions on the input image in which the search directions are substantially parallel to each other. The lane boundary determination device according to claim 1, wherein it is determined whether or not the lane boundary is determined.
報と過去の前記探索情報との関係に基づいて、前記車線
標示が複合線から成るか否かを判定することを特徴とす
る請求項1又は請求項2に記載の車線境界判定装置。3. The composite line determination means determines whether or not the lane marking is composed of a composite line based on a relationship between the latest search information and the past search information. The lane boundary determination device according to claim 1 or 2.
する標示の数、標示の幅、又は標示間の間隙幅の少なく
とも1つから、 前記車線標示が、両側からブロック標示で挟まれた1本
の標示線で構成された複合線より成るか否かを判定する
ことを特徴とする請求項1乃至請求項3の何れか1項に
記載の車線境界判定装置。4. The lane marking is sandwiched by block markings on both sides from at least one of the number of markings included in the search information, the width of the markings, or the gap width between the markings. The lane boundary determination device according to any one of claims 1 to 3, wherein it is determined whether or not it is composed of a composite line configured by one marking line.
する標示の数、標示の幅、又は標示間の間隙幅の少なく
とも1つから、 前記車線標示が、片側にブロック標示が接近した1本の
標示線で構成された複合線より成るか否かを判定するこ
とを特徴とする請求項1乃至請求項4の何れか1項に記
載の車線境界判定装置。5. The composite line determination means determines, based on at least one of the number of markings, the width of the markings, or the gap width between the markings included in the search information, that the lane markings have block markings approaching one side. The lane boundary determination device according to claim 1, wherein the lane boundary determination device determines whether or not it is composed of a composite line composed of book marking lines.
の間隙幅の少なくとも1つから、 前記車線標示が、前記縦方向に並列に配置された2つ又
は2列のブロック標示で構成された複合線より成るか否
かを判定することを特徴とする請求項1乃至請求項5の
何れか1項に記載の車線境界判定装置。6. The lane markings are arranged in parallel in the vertical direction from at least one of the number of markings, the width of the markings, or the gap width between the markings included in the search information. The lane boundary determination device according to any one of claims 1 to 5, wherein it is determined whether or not it is composed of a composite line composed of two or two columns of block markings.
在の前記探索情報に基づいて決定する線種モード判定部
を有することを特徴とする請求項1乃至請求項6の何れ
か1項に記載の車線境界判定装置。7. The composite line determination means includes a line type mode determination unit that determines a line type mode of the lane marking that is currently traveling based on the past or present search information. The lane boundary determination device according to any one of claims 1 to 6.
更条件」を満たすまで、前記線種モードの変更処理を保
留するモード変更保留手段を有することを特徴とする請
求項7に記載の車線境界判定装置。8. The line type mode determination unit has a mode change holding means for holding the line type mode change processing until the search information continuously satisfies a "predetermined mode change condition" for a certain period of time. The lane boundary determination device according to claim 7, wherein:
いて、前記探索情報から前記車線標示が有するブロック
標示等の不要部分を判別して除去するノイズ除去部を有
することを特徴とする請求項7又は請求項8に記載の車
線境界判定装置。9. The boundary position estimating means determines and removes an unnecessary portion such as a block marking included in the lane marking from the search information based on the line type mode determined by the line type mode determining unit. The lane boundary determination device according to claim 7 or 8, further comprising a noise removal unit.
を越えていた場合に、 前記線種モード判定部が決定した前記線種モードに基づ
いて、前記境界位置を推定することを特徴とする請求項
7乃至請求項9の何れか1項に記載の車線境界判定装
置。10. The boundary position estimating means is based on the line type mode determined by the line type mode determination unit when the width of the lane markings searched for as a single line exceeds a predetermined value. The lane boundary determination device according to any one of claims 7 to 9, wherein the boundary position is estimated.
つの標示の位置を前記境界位置と推定することを特徴と
する請求項1乃至請求項10の何れか1項に記載の車線
境界判定装置。11. The boundary position estimating means has the shortest width 1 detected as a part of the composite line.
The lane boundary determination device according to any one of claims 1 to 10, wherein the position of one marking is estimated as the boundary position.
された2つ又は2列のブロック標示の前記探索方向にお
ける中間点を前記境界位置と推定することを特徴とする
請求項1乃至請求項11の何れか1項に記載の車線境界
判定装置。12. The boundary position estimating means estimates, as the boundary position, an intermediate point in the search direction of two or two columns of block markings that are detected as the composite line and are arranged in parallel in the vertical direction. The lane boundary determination device according to any one of claims 1 to 11, wherein:
標示が1つ又は1列のブロック標示で構成されていると
判定された場合に、前記境界位置推定手段は、 前記境界位置を前記ブロック標示の位置に基づいて推定
するか、 前記境界位置の推定を保留するか、又は、 前記境界位置を不定とすることを特徴とする請求項1乃
至請求項12の何れか1項に記載の車線境界判定装置。13. The boundary position estimating means determines the boundary position by the block marking when it is judged in the composite line judgment result that the lane marking is composed of one or one column of block markings. The lane boundary according to any one of claims 1 to 12, wherein the boundary position is estimated based on the position of the lane boundary, the boundary position estimation is suspended, or the boundary position is indefinite. Judgment device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001367133A JP3748811B2 (en) | 2001-11-30 | 2001-11-30 | Lane boundary judgment device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001367133A JP3748811B2 (en) | 2001-11-30 | 2001-11-30 | Lane boundary judgment device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003168123A true JP2003168123A (en) | 2003-06-13 |
| JP3748811B2 JP3748811B2 (en) | 2006-02-22 |
Family
ID=19176924
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001367133A Expired - Lifetime JP3748811B2 (en) | 2001-11-30 | 2001-11-30 | Lane boundary judgment device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3748811B2 (en) |
Cited By (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005008613A1 (en) * | 2003-07-17 | 2005-01-27 | Seijiro Tomita | Information communication system |
| EP1577834A2 (en) | 2004-03-12 | 2005-09-21 | Toyota Jidosha Kabushiki Kaisha | Lane boundary detector |
| JP2005339152A (en) * | 2004-05-26 | 2005-12-08 | Clarion Co Ltd | Moving body detector |
| WO2007018145A1 (en) * | 2005-08-05 | 2007-02-15 | Aisin Aw Co., Ltd. | Pavement marking recognition system |
| JP2007141052A (en) * | 2005-11-21 | 2007-06-07 | Toyota Motor Corp | Road marking line detection device |
| JP2007153031A (en) * | 2005-12-01 | 2007-06-21 | Aisin Aw Co Ltd | Vehicle position calculation method and onboard device |
| JP2007264955A (en) * | 2006-03-28 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane position detector |
| JP2007264712A (en) * | 2006-03-27 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane detection device |
| JP2010146470A (en) * | 2008-12-22 | 2010-07-01 | Denso Corp | Traveling-lane detector and traveling-lane detection program |
| US20100292895A1 (en) * | 2007-04-27 | 2010-11-18 | Aisin Aw Co. Ltd | Driving support device |
| US7860652B2 (en) | 2006-11-14 | 2010-12-28 | Toyota Jidosha Kabushiki Kaisha | Lane detecting apparatus |
| JP2011198276A (en) * | 2010-03-23 | 2011-10-06 | Nippon Soken Inc | On-vehicle white line recognition apparatus |
| JP2012168884A (en) * | 2011-02-16 | 2012-09-06 | Nissan Motor Co Ltd | Traffic lane boundary detection device and traffic lane boundary detection method |
| JP2013012044A (en) * | 2011-06-29 | 2013-01-17 | Nippon Soken Inc | On-vehicle white line recognition apparatus |
| JP2015090584A (en) * | 2013-11-06 | 2015-05-11 | 富士重工業株式会社 | Lane recognition device |
| JP7048832B1 (en) * | 2020-12-28 | 2022-04-05 | 本田技研工業株式会社 | Vehicle control devices, vehicle control methods, and programs |
| WO2023120823A1 (en) * | 2021-12-21 | 2023-06-29 | 주식회사 넥스트칩 | Method for image processing for controlling vehicle and electronic device for performing same method |
-
2001
- 2001-11-30 JP JP2001367133A patent/JP3748811B2/en not_active Expired - Lifetime
Cited By (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005008613A1 (en) * | 2003-07-17 | 2005-01-27 | Seijiro Tomita | Information communication system |
| EP1577834A3 (en) * | 2004-03-12 | 2010-09-15 | Toyota Jidosha Kabushiki Kaisha | Lane boundary detector |
| EP1577834A2 (en) | 2004-03-12 | 2005-09-21 | Toyota Jidosha Kabushiki Kaisha | Lane boundary detector |
| US7937196B2 (en) | 2004-03-12 | 2011-05-03 | Toyota Jidosha Kabushiki Kaisha | Lane boundary detector |
| JP2005339152A (en) * | 2004-05-26 | 2005-12-08 | Clarion Co Ltd | Moving body detector |
| WO2007018145A1 (en) * | 2005-08-05 | 2007-02-15 | Aisin Aw Co., Ltd. | Pavement marking recognition system |
| JP2007066305A (en) * | 2005-08-05 | 2007-03-15 | Aisin Aw Co Ltd | Road marking recognition system |
| US8600655B2 (en) | 2005-08-05 | 2013-12-03 | Aisin Aw Co., Ltd. | Road marking recognition system |
| CN100595811C (en) * | 2005-08-05 | 2010-03-24 | 爱信艾达株式会社 | Road Marking Recognition System |
| JP2007141052A (en) * | 2005-11-21 | 2007-06-07 | Toyota Motor Corp | Road marking line detection device |
| JP2007153031A (en) * | 2005-12-01 | 2007-06-21 | Aisin Aw Co Ltd | Vehicle position calculation method and onboard device |
| JP2007264712A (en) * | 2006-03-27 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane detection device |
| JP2007264955A (en) * | 2006-03-28 | 2007-10-11 | Fuji Heavy Ind Ltd | Lane position detector |
| US7860652B2 (en) | 2006-11-14 | 2010-12-28 | Toyota Jidosha Kabushiki Kaisha | Lane detecting apparatus |
| US20100292895A1 (en) * | 2007-04-27 | 2010-11-18 | Aisin Aw Co. Ltd | Driving support device |
| JP2010146470A (en) * | 2008-12-22 | 2010-07-01 | Denso Corp | Traveling-lane detector and traveling-lane detection program |
| JP2011198276A (en) * | 2010-03-23 | 2011-10-06 | Nippon Soken Inc | On-vehicle white line recognition apparatus |
| JP2012168884A (en) * | 2011-02-16 | 2012-09-06 | Nissan Motor Co Ltd | Traffic lane boundary detection device and traffic lane boundary detection method |
| JP2013012044A (en) * | 2011-06-29 | 2013-01-17 | Nippon Soken Inc | On-vehicle white line recognition apparatus |
| JP2015090584A (en) * | 2013-11-06 | 2015-05-11 | 富士重工業株式会社 | Lane recognition device |
| JP7048832B1 (en) * | 2020-12-28 | 2022-04-05 | 本田技研工業株式会社 | Vehicle control devices, vehicle control methods, and programs |
| WO2022144956A1 (en) * | 2020-12-28 | 2022-07-07 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
| US11958493B2 (en) | 2020-12-28 | 2024-04-16 | Honda Motor Co., Ltd. | Vehicle control device and vehicle control method |
| WO2023120823A1 (en) * | 2021-12-21 | 2023-06-29 | 주식회사 넥스트칩 | Method for image processing for controlling vehicle and electronic device for performing same method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3748811B2 (en) | 2006-02-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP3748811B2 (en) | Lane boundary judgment device | |
| JP3169483B2 (en) | Road environment recognition device | |
| EP1906339B1 (en) | Method for recognizing an object in an image and image recognition device | |
| Vacek et al. | Road-marking Analysis for Autonomous Vehicle Guidance. | |
| JP4157620B2 (en) | Moving object detection apparatus and method | |
| US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
| CN110348332B (en) | Method for extracting multi-target real-time trajectories of non-human machines in traffic video scene | |
| JP2003228711A (en) | Lane mark recognition method | |
| US8730325B2 (en) | Traveling lane detector | |
| CN110458050B (en) | Vehicle cut-in detection method and device based on vehicle-mounted video | |
| JP2002197444A (en) | Vehicle travel path recognition device | |
| JP6817804B2 (en) | Bound line recognition device | |
| JP3200950B2 (en) | Object recognition device | |
| JP2005182303A (en) | Lane recognition image processing device | |
| JP2003084064A (en) | Device and method for recognizing vehicle in front side | |
| JP5123812B2 (en) | Road marking recognition system | |
| JPH08261756A (en) | Driving lane recognition device | |
| WO2019065945A1 (en) | Lane marking recognition device | |
| JP3589293B2 (en) | Road white line detection method | |
| JP3700625B2 (en) | Road white line recognition device | |
| Takahashi et al. | A robust lane detection using real-time voting processor | |
| JP3807651B2 (en) | White line recognition device | |
| CN115761659B (en) | Recognition model construction method, vehicle type recognition method, electronic device, and storage medium | |
| JP6608664B2 (en) | Own vehicle position recognition device | |
| EP1796042B1 (en) | Detection apparatus and method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050418 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050426 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050621 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051129 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051129 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3748811 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091209 Year of fee payment: 4 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101209 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101209 Year of fee payment: 5 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111209 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111209 Year of fee payment: 6 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121209 Year of fee payment: 7 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121209 Year of fee payment: 7 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121209 Year of fee payment: 7 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121209 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131209 Year of fee payment: 8 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| EXPY | Cancellation because of completion of term |