JP2001180510A - Tandem supporting device - Google Patents
Tandem supporting deviceInfo
- Publication number
- JP2001180510A JP2001180510A JP36745699A JP36745699A JP2001180510A JP 2001180510 A JP2001180510 A JP 2001180510A JP 36745699 A JP36745699 A JP 36745699A JP 36745699 A JP36745699 A JP 36745699A JP 2001180510 A JP2001180510 A JP 2001180510A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- steering
- target point
- parallel parking
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 75
- 238000000034 method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 238000013459 approach Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 2
- 101100316860 Autographa californica nuclear polyhedrosis virus DA18 gene Proteins 0.000 description 1
- 240000001973 Ficus microcarpa Species 0.000 description 1
- 101100340530 Homo sapiens MTIF3 gene Proteins 0.000 description 1
- 102100039649 Translation initiation factor IF-3, mitochondrial Human genes 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Traffic Control Systems (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、縦列駐車支援装
置に係り、特に画像処理により目標となる駐車枠を認識
する装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a parallel parking support device, and more particularly to a device for recognizing a target parking frame by image processing.
【0002】[0002]
【従来の技術】従来、車両の後進時に運転者が車両の死
角により目標とする場所が見えなくなった場合に、モニ
タに車両の後方視界を写し出すようにした装置が提案さ
れている。例えば、特公平2−36417号公報には、
車両後方を撮影するテレビカメラと、このテレビカメラ
のとらえた映像を写し出すモニタテレビと、タイヤ操舵
角に係る情報信号を出力するセンサと、このセンサから
の情報信号に応じてマーカー信号を発生し、テレビ画面
上にマーカーを重畳表示させる回路とからなる車両の後
方監視モニタ装置が開示されている。この装置では、タ
イヤの操舵角データとその操舵角に対応する車両の後進
方向に沿ったマーカー位置データがROMに蓄積されて
おり、そのときの操舵角に応じた車両の予想後進軌跡が
マーカーの列としてテレビ画面上にテレビカメラで撮影
された映像に重畳して表示される。2. Description of the Related Art Conventionally, there has been proposed an apparatus for displaying a rear view of a vehicle on a monitor when a driver cannot see a target place due to a blind spot of the vehicle when the vehicle moves backward. For example, in Japanese Patent Publication No. 2-36417,
A television camera for photographing the rear of the vehicle, a monitor television for projecting an image captured by the television camera, a sensor for outputting an information signal related to a tire steering angle, and a marker signal generated in accordance with the information signal from the sensor; A rear monitor monitoring device for a vehicle, comprising a circuit for superimposing a marker on a television screen, is disclosed. In this device, tire steering angle data and marker position data along the reverse direction of the vehicle corresponding to the steering angle are stored in the ROM, and the estimated reverse trajectory of the vehicle according to the steering angle at that time is stored in the ROM. The image is displayed as a column on the television screen so as to be superimposed on the video taken by the television camera.
【0003】このような装置によれば、車両の後進時に
後方の道路の状況等の視界と共に操舵角に応じた車両の
予想後進軌跡がモニタテレビの画面上に表示されるた
め、運転者は、後方を振り向くことなくテレビ画面を見
たままでハンドルを操作して車両を後退させることがで
きる。[0003] According to such a device, when the vehicle is traveling in reverse, the expected backward trajectory of the vehicle in accordance with the steering angle is displayed on the screen of the monitor television together with the visibility of the conditions of the road behind and the like. The vehicle can be moved backward by operating the steering wheel while looking at the television screen without turning around.
【0004】[0004]
【発明が解決しようとする課題】縦列駐車する場合に
は、例えば道路と平行に車両を後退させ、適当な位置で
ハンドルを切って駐車スペースへ進入し、さらにハンド
ルを逆方向へ切り返して目標とする駐車位置へ車両を誘
導する必要がある。しかしながら、従来の後方監視モニ
タ装置では、運転者はテレビ画面上で後方の視界と車両
の予想後進軌跡とを見ただけでは、どこでハンドルを切
り始めたり、切り返せばよいのか、また操舵量をどの程
度にすればよいのか判断し難く、縦列駐車の十分な支援
を行うことができないという問題点があった。この発明
はこのような問題点を解消するためになされたもので、
運転者が縦列駐車する際の操舵のタイミングと操舵量と
を容易に把握することができる縦列駐車支援装置を提供
することを目的とする。In the case of parallel parking, for example, the vehicle is moved backward in parallel with the road, the steering wheel is turned at an appropriate position to enter the parking space, and the steering wheel is turned back in the opposite direction to reach the target. It is necessary to guide the vehicle to the parking position where the vehicle is parked. However, with the conventional rear monitoring monitor device, the driver only needs to look at the rear field of view and the expected reverse trajectory of the vehicle on the television screen to determine where the steering wheel should be turned or turned back, and the amount of steering. There is a problem that it is difficult to determine how much to do, and sufficient support for parallel parking cannot be provided. The present invention has been made to solve such problems.
It is an object of the present invention to provide a parallel parking assist device that allows a driver to easily grasp a steering timing and a steering amount when parking in parallel.
【0005】[0005]
【課題を解決するための手段】この発明の請求項1に係
る縦列駐車支援装置は、車両の後方を撮影するカメラ
と、車両の運転席に配置され且つ車両の後退時にカメラ
による映像を表示するモニタと、ハンドルの操舵角を検
出するステアリングセンサと、縦列駐車時に車両の運転
を支援するためのガイド表示をモニタの画面上に重畳表
示するスーパーインポーズ部と、カメラによる映像を画
像処理して駐車のための目標点を認識すると共に目標点
とガイド表示との位置関係に基づいて縦列駐車するため
に必要な操舵のタイミングと操舵量とを出力する画像処
理部とを備えたものである。According to a first aspect of the present invention, there is provided a parallel parking assist system, wherein a camera for photographing a rear side of a vehicle, and a camera disposed at a driver's seat of the vehicle and displaying an image by the camera when the vehicle retreats. A monitor, a steering sensor for detecting a steering angle of a steering wheel, a superimposing unit for superimposing and displaying a guide display for assisting driving of the vehicle at the time of parallel parking on a screen of the monitor; An image processing unit is provided for recognizing a target point for parking and outputting a steering timing and a steering amount necessary for parallel parking based on the positional relationship between the target point and the guide display.
【0006】請求項2に係る縦列駐車支援装置は、請求
項1の装置において、画像処理部が、カメラによる映像
から駐車枠に含まれる2本の直線を認識してそれらの交
点を目標点とし、車両の後退に伴う映像の移動に応じて
目標点を追跡するものである。請求項3に係る縦列駐車
支援装置は、請求項2の装置において、画像処理部が、
車両の後退に伴う目標点の動きが大きくずれた場合に目
標点の位置を予測して修正するものである。According to a second aspect of the present invention, there is provided the parallel parking assisting apparatus according to the first aspect, wherein the image processing unit recognizes two straight lines included in the parking frame from an image captured by the camera and sets an intersection of the two straight lines as a target point. The target point is tracked in accordance with the movement of the image accompanying the backward movement of the vehicle. The parallel parking assist device according to claim 3 is the device according to claim 2, wherein the image processing unit includes:
This is to predict and correct the position of the target point when the movement of the target point due to the retreat of the vehicle is greatly shifted.
【0007】請求項4に係る縦列駐車支援装置は、請求
項1〜3のいずれか一項の装置において、画像処理部か
ら出力された操舵のタイミングと操舵量とに対応した音
声を発して運転者に操舵の案内を行う音声選択部をさら
に備えたものである。請求項5に係る縦列駐車支援装置
は、請求項4の装置において、画像処理部が、操舵のタ
イミングと操舵量を音声選択部と共にスーパーインポー
ズ部にも出力して操舵の案内に対応した表示をモニタの
画面上に行わせるものである。請求項6に係る縦列駐車
支援装置は、請求項1〜5のいずれか一項の装置におい
て、車両の運転席に配置された縦列駐車モードスイッチ
をさらに備え、縦列駐車モードスイッチを投入したとき
にスーパーインポーズ部によりモニタの画面上にガイド
表示が表示されるものである。According to a fourth aspect of the present invention, there is provided the parallel parking assist apparatus according to any one of the first to third aspects, which operates by emitting sounds corresponding to the steering timing and the steering amount output from the image processing unit. And a voice selecting unit for guiding the steering to the user. According to a fifth aspect of the present invention, there is provided the parallel parking assistance device according to the fourth aspect, wherein the image processing unit outputs the steering timing and the steering amount to the superimpose unit together with the voice selection unit and displays the steering guidance. Is performed on the screen of the monitor. The parallel parking assist device according to claim 6 is the device according to any one of claims 1 to 5, further comprising a parallel parking mode switch disposed in a driver's seat of the vehicle, and when the parallel parking mode switch is turned on. The guide display is displayed on the screen of the monitor by the superimposing unit.
【0008】請求項1に記載の縦列駐車支援装置では、
画像処理部がカメラによる映像を画像処理することによ
り駐車のための目標点を認識し、この目標点とスーパー
インポーズ部によってモニタの画面上に重畳表示された
ガイド表示との位置関係に基づいて縦列駐車に必要な操
舵のタイミングと操舵量とを出力する。請求項2に記載
の縦列駐車支援装置では、請求項1の装置において、画
像処理部が、駐車枠に含まれる2本の直線の交点を目標
点として求め、車両の後退に伴ってこの目標点を追跡す
る。請求項3に記載の縦列駐車支援装置では、請求項2
の装置において、画像処理部が、目標点の動きが大きく
ずれたときに目標点の位置を予測して修正する。請求項
4に記載の縦列駐車支援装置では、請求項1〜3のいず
れか一項の装置において、音声選択部が画像処理部から
出力された操舵のタイミングと操舵量とに対応した音声
を発して操舵の案内を行う。請求項5に記載の縦列駐車
支援装置では、請求項4の装置において、画像処理部
が、操舵のタイミングと操舵量をスーパーインポーズ部
にも出力して操舵の案内に対応した表示をモニタの画面
上に行わせる。請求項6に記載の縦列駐車支援装置で
は、請求項1〜5のいずれか一項の装置において、縦列
駐車モードスイッチを投入したときにモニタの画面上に
ガイド表示が表示される。[0008] In the parallel parking assist device according to the first aspect,
The image processing unit recognizes a target point for parking by performing image processing on the image by the camera, and based on a positional relationship between the target point and a guide display superimposed on the monitor screen by the superimposing unit. It outputs the timing and amount of steering required for parallel parking. According to a second aspect of the present invention, in the parallel parking assist device, the image processing unit obtains, as a target point, an intersection of two straight lines included in the parking frame, and the target point is determined as the vehicle retreats. To track. In the parallel parking assist device according to the third aspect, the second aspect is the second aspect.
In the above device, the image processing unit predicts and corrects the position of the target point when the movement of the target point is greatly shifted. In the parallel parking assist device according to the fourth aspect, in the device according to any one of the first to third aspects, the voice selecting unit emits a voice corresponding to the steering timing and the steering amount output from the image processing unit. To provide steering guidance. In the parallel parking assist device according to the fifth aspect, in the device according to the fourth aspect, the image processing unit outputs the steering timing and the steering amount to the superimposing unit and displays the display corresponding to the steering guidance on the monitor. On the screen. According to a sixth aspect of the present invention, the guide display is displayed on the monitor screen when the parallel parking mode switch is turned on in the device of any one of the first to fifth aspects.
【0009】[0009]
【発明の実施の形態】以下、この発明の実施の形態を添
付図面に基づいて説明する。 実施の形態1.図1に示されるように、車両1の後部に
車両1の後方の視界を撮影するカメラ2が取り付けられ
ている。カメラ2の視界範囲の近接側端部に車両1の後
部バンパー3が入っている。車両1の運転席にはカラー
タイプの液晶ディスプレイからなるモニタ4が配置され
ており、通常はナビゲーション装置の表示装置として使
用され、運転席に設けられたシフトレバー5がR(後退
位置)に操作されるとカメラ2による映像が表示される
ようになっている。操舵輪としての前輪6はハンドル7
の操作により操舵される。Embodiments of the present invention will be described below with reference to the accompanying drawings. Embodiment 1 FIG. As shown in FIG. 1, a camera 2 that captures a field of view behind the vehicle 1 is attached to a rear portion of the vehicle 1. The rear bumper 3 of the vehicle 1 is located at the near-side end of the view range of the camera 2. A monitor 4 composed of a liquid crystal display of a color type is arranged in a driver's seat of the vehicle 1 and is usually used as a display device of a navigation device, and a shift lever 5 provided in the driver's seat is operated to R (reverse position). Then, an image from the camera 2 is displayed. The front wheel 6 as a steering wheel is a steering wheel 7
Is steered by the operation of.
【0010】図2にモニタ4上の描画の形態を示す。車
両1は路側8と平行に停車させる。縦列ガイドライン9
はハンドル操作を開始する位置を案内し、これと目標点
TPが重なる様に車両1を真直ぐ後退させる。縦列ガイ
ドライン9と目標点TPが重なったら停止し、ハンドル
7の操舵量に応じて縦列ガイドライン9上を移動するハ
ンドルマーク10と目標点TPが重なるまでハンドル7
を操作する。ハンドルマーク10と目標点TPが重なっ
たらそのままの位置でハンドル7を保持し、アイマーク
11と目標点TPが一致するまで後退する。アイマーク
11と目標点TPが一致したら、ハンドル7を反対方向
にいっぱい切って後退する。後方に注意しながら後退
し、車両1が路側8と平行になったところで縦列駐車が
完了する。FIG. 2 shows a form of drawing on the monitor 4. The vehicle 1 is stopped parallel to the roadside 8. Column Guideline 9
Guides the start position of the steering wheel operation and makes the vehicle 1 recede straight so that the target position TP overlaps with the start position. When the tandem guideline 9 and the target point TP overlap, the vehicle stops when the handle mark 10 moves on the tandem guideline 9 in accordance with the steering amount of the handlebar 7 and the handle 7 until the target point TP overlaps.
Operate. When the handle mark 10 and the target point TP overlap with each other, the handle 7 is held at the same position, and the handle 7 is retracted until the eye mark 11 matches the target point TP. When the eye mark 11 coincides with the target point TP, the steering wheel 7 is fully turned in the opposite direction to retreat. When the vehicle 1 retreats while paying attention to the rear, the parallel parking is completed when the vehicle 1 becomes parallel to the roadside 8.
【0011】図3にこの発明の実施の形態1に係る縦列
駐車支援装置の構成を示す。カメラ2によって撮影され
た後方映像は外部入力処理部12から画像処理部13と
スーパーインポーズ部14へと出力される。スーパーイ
ンポーズ部14では図2に示すようなガイド表示をスー
パーインポーズし、後方映像と共にモニタ4に出力す
る。また、外部入力処理部12はシフトスイッチ15か
らシフトポジションに対応した信号を受け取り、R(後
退位置)であればスーパーインポーズ部14に後方映像
の表示を指示すると共に画像処理部13に画像処理を行
うように信号を出力する。R以外になった時は、これら
を停止するように信号を出力する。ステアリングセンサ
16はハンドル7を操作した時にパルスを出力する。外
部入力処理部12ではこれを受けてカウントし、画像処
理部13の操舵角算出部17に出力する。FIG. 3 shows a configuration of the parallel parking assist device according to the first embodiment of the present invention. The rear image captured by the camera 2 is output from the external input processing unit 12 to the image processing unit 13 and the superimposing unit 14. The superimposing section 14 superimposes the guide display as shown in FIG. 2 and outputs it to the monitor 4 together with the rear image. Further, the external input processing unit 12 receives a signal corresponding to the shift position from the shift switch 15, and instructs the superimposing unit 14 to display the rear image and the image processing unit 13 if the signal is R (reverse position). To output a signal. When it becomes other than R, a signal is output to stop these. The steering sensor 16 outputs a pulse when the steering wheel 7 is operated. The external input processing unit 12 receives this and counts it, and outputs it to the steering angle calculation unit 17 of the image processing unit 13.
【0012】車両1が路側8と平行に駐車した状態から
スタートする。停車画像処理部13では、まず、二値化
・エッジ検出部18で後方画像を二値化し、エッジの検
出を行う。図4に示すように、ほぼ台形状の駐車枠19
の縦方向の白線20が縦に横切る位置にヒストグラム領
域21を設定し、ヒストグラムを求める。図5に示され
るように、得られたヒストグラムの最大濃度レベル側か
らp%の画素数を初めて超える濃度レベルを二値化の閾
値Thとする。二値化は、図6に示されるように、駐車
枠19の手前の横方向のラインを含まない、指定された
処理領域22のみで行う。二値化された画像から、縦・
横方向それぞれのエッジを求め、それらを合成してエッ
ジ画像を得る。図6に示すように限定された処理領域2
2のみで処理を行うため、画像全体を処理するのに比べ
て処理が軽くなる。この処理領域22は、縦列駐車を開
始する際に駐車枠19が画面の上部に位置することか
ら、図6に示すように画面の上部に設定することができ
る。また、図7のように、処理領域22を少なくとも駐
車枠19の隅Aが含まれる小さな領域とすることもでき
る。ただし、車両1の前後位置に拘わらず、横方向の直
線の傾きはほぼ一定であるものとする。The operation is started from a state in which the vehicle 1 is parked parallel to the roadside 8. In the stop image processing unit 13, first, the binarization / edge detection unit 18 binarizes the rear image, and detects an edge. As shown in FIG. 4, a substantially trapezoidal parking frame 19 is provided.
The histogram area 21 is set at the position where the vertical white line 20 crosses vertically, and a histogram is obtained. As shown in FIG. 5, a density level that exceeds the number of pixels of p% from the maximum density level side of the obtained histogram for the first time is set as a threshold value Th for binarization. As shown in FIG. 6, the binarization is performed only in the designated processing area 22 that does not include the horizontal line in front of the parking frame 19. From the binarized image,
The respective edges in the horizontal direction are obtained, and they are combined to obtain an edge image. Processing area 2 limited as shown in FIG.
Since the processing is performed by using only 2, the processing is lighter than processing the entire image. This processing area 22 can be set at the top of the screen as shown in FIG. 6 because the parking frame 19 is located at the top of the screen when parallel parking is started. Further, as shown in FIG. 7, the processing area 22 may be a small area including at least the corner A of the parking frame 19. However, irrespective of the front-back position of the vehicle 1, the inclination of the horizontal straight line is assumed to be substantially constant.
【0013】切替部23ではエッジ画像の出力先の切替
えを行う。処理開始から、例えば第1フレームから第1
0フレームまでは形状認識部24へ出力し、それ以後は
近似直線抽出部25へ出力する。形状認識部24は、処
理開始時にできるだけ確実に目標点TPの検出を行うた
めのものであり、駐車枠19の形状を認識して目標点T
Pを検出する。図8の点P1〜P4の処理領域22内で
の位置は、路側8からの車両1の距離によって異なる。
そこで、予め複数の状態を学習させておき、処理画像が
どの状態に近いかを判断することで目標点TPの検出を
行なう。The switching section 23 switches the output destination of the edge image. From the start of processing, for example, from the first frame to the first frame
The data is output to the shape recognizing unit 24 up to the 0th frame, and thereafter is output to the approximate straight line extracting unit 25. The shape recognizing unit 24 is for detecting the target point TP as securely as possible at the start of the processing.
Detect P. The positions of points P1 to P4 in FIG. 8 in the processing area 22 differ depending on the distance of the vehicle 1 from the roadside 8.
Therefore, the target point TP is detected by learning a plurality of states in advance and determining which state the processed image is close to.
【0014】次に、具体的な処理について説明する。処
理画像は図8に黒線で示されているエッジ部分が白、そ
の他の部分が黒の二値画像である。まず、点P1及びP
2を探索する。処理領域22の原点Oから右方向に白画
素を探索し、最初に見つけたところを点P1とする。同
様に、原点Oから上方向に白画素を探索し、点P2を見
つける。路側8からの車両1の距離により、予め点P1
及びP2の位置並びに点P1とP3を結んだ直線の傾き
m1、点P2とP4を結んだ直線の傾きm2、これら傾
きm1とm2の平均mcを求めて例えば図9のように形
状No.1〜3として学習させておく。そして、検出さ
れた点P1及びP2の位置からどの形状に近いかを判断
する。ここでは仮にNo.2の形状とする。Next, specific processing will be described. The processed image is a binary image in which an edge portion indicated by a black line in FIG. 8 is white and other portions are black. First, the points P1 and P
Search for 2. A white pixel is searched rightward from the origin O of the processing area 22, and the first place found is a point P1. Similarly, a white pixel is searched upward from the origin O to find a point P2. Depending on the distance of the vehicle 1 from the roadside 8, the point P1
9, the slope m1 of the straight line connecting the points P1 and P3, the slope m2 of the straight line connecting the points P2 and P4, and the average mc of these slopes m1 and m2 are obtained, for example, as shown in FIG. Learn as 1-3. Then, it is determined which shape is closer to the position of the detected points P1 and P2. Here, suppose that no. 2 shape.
【0015】次に、点P3及びP4を探索する。まず、
点P1と原点Oとの中点をPcとし、そこから傾きM2
cの方向に白画素を探していく。白画素を発見したら、
その点Pc’のy座標を記憶しておく。点P1から左へ
画素数sだけずれた点をP1’とし、そこから傾きM2
1の方向に白画素を探索して点P3’を求める。同様
に、点P2から右へ画素数tだけずれた点P2’から傾
きM22の方向に白画素を探索し、点P4’を求める。
このとき、点P3’及びP4’のy座標と点Pc’のy
座標との差が大きい場合は、何らかのノイズがあったと
判断して再び探索を始める。そして、点P3’から右へ
画素数sだけずれた点をP3、点P4’から左へ画素数
tだけずれた点をP4とする。この処理を10フレーム
分繰返す。図10に形状認識部24と結果判断部26の
フローチャートを示す。ここで、検出が正常に行われた
場合は、各点の座標と、点P1とP3を結ぶ直線の傾き
m1、点P3とP4を結ぶ直線の傾きをデータとして出
力する。10フレーム分の全ての処理において各点P1
〜P4、P1’〜P4’、Pc及びPc’のうち検出で
きないものがあった場合は、結果判断部26がエラーと
してその旨を音声で案内するための信号を音声選択部2
7へ出力し、スピーカ28から音声を発する。Next, points P3 and P4 are searched. First,
The middle point between the point P1 and the origin O is defined as Pc, from which the slope M2 is calculated.
Search for white pixels in the direction of c. If you find a white pixel,
The y coordinate of the point Pc 'is stored. A point shifted from the point P1 to the left by the number of pixels s is defined as P1 ', and the slope M2
A point P3 'is obtained by searching for white pixels in the direction of 1. Similarly, a white pixel is searched for in the direction of the slope M22 from the point P2 'shifted to the right by the number of pixels t from the point P2, and a point P4' is obtained.
At this time, the y coordinates of the points P3 ′ and P4 ′ and the y coordinate of the point Pc ′
If the difference from the coordinates is large, it is determined that there is some noise, and the search is started again. A point shifted from the point P3 'to the right by the number of pixels s is defined as P3, and a point shifted from the point P4' to the left by the number of pixels t is defined as P4. This process is repeated for 10 frames. FIG. 10 shows a flowchart of the shape recognition unit 24 and the result determination unit 26. Here, when the detection is normally performed, the coordinates of each point, the slope m1 of the straight line connecting the points P1 and P3, and the slope of the straight line connecting the points P3 and P4 are output as data. Each point P1 in all processing for 10 frames
, P1 ′ to P4 ′, Pc and Pc ′, if there is any undetectable one, the result determination unit 26 outputs a signal for guiding the fact as an error to the voice selection unit 2 as an error.
7 and a sound is emitted from the speaker 28.
【0016】次に、近似直線抽出部25は、形状認識部
24による形状認識処理が全て終了した後、すなわち第
11フレーム目以降の画像に対して図11にそのフロー
チャートを示すような近似直線抽出処理を行う。ここで
は、点P1とP3を結ぶ直線L0及び点P3とP4を結
ぶ直線L1の近似直線が抽出される。まず、入力された
エッジ画像から輪郭線の抽出を行う。図12に示すよう
に輪郭線の始点SPとなる白画素(例えば濃度レベル2
55)をスキャンして探索する。始点SPを発見した
ら、横方向に輪郭線を辿っていく。このとき輪郭線は濃
度レベル255以外の値でラベリングされ、輪郭線上の
各点に対して、矢印で示されるようにその点より下方に
位置する白画素(濃度レベル255)を消去していく。
横方向が終わったら、同様に縦方向の輪郭線も濃度レベ
ル255以外の値でラベリングし、輪郭線の右側に位置
する白画素を消去する。次に、抽出した輪郭線に対し
て、処理領域22内の座標系でHough(ハフ)変換
により、その輪郭線の近似直線を求める。この後、いま
求めた始点SPの位置から再び始点SPの探索を開始す
るが、輪郭線は濃度レベル255以外の値でラベリング
され、その輪郭線の下及び右側の白画素は消去されてい
るため、このエッジ上の点が始点SPとして検出される
ことはない。この処理を始点SPの探索位置が処理領域
22の右下の隅に来るまで続ける。Next, the approximate straight line extracting unit 25 performs an approximate straight line extracting process as shown in the flowchart of FIG. 11 after the shape recognizing process by the shape recognizing unit 24 is completed, that is, for the images after the eleventh frame. Perform processing. Here, an approximate straight line of the straight line L0 connecting the points P1 and P3 and the straight line L1 connecting the points P3 and P4 is extracted. First, a contour line is extracted from the input edge image. As shown in FIG. 12, a white pixel (for example, a density level 2
55) is scanned and searched. When the start point SP is found, the contour is traced in the horizontal direction. At this time, the outline is labeled with a value other than the density level 255, and for each point on the outline, white pixels (density level 255) located below the point are erased as indicated by arrows.
After the end of the horizontal direction, the vertical outline is similarly labeled with a value other than the density level 255, and white pixels located on the right side of the outline are erased. Next, an approximate straight line of the extracted contour is obtained by a Hough transformation in a coordinate system within the processing area 22. After that, the search for the start point SP is started again from the position of the start point SP just obtained. However, the outline is labeled with a value other than the density level 255, and the white pixels below and on the right side of the outline have been deleted. This point on the edge is not detected as the starting point SP. This process is continued until the search position of the start point SP comes to the lower right corner of the processing area 22.
【0017】続いて、Hough変換について説明す
る。一つの直線は原点からの距離rとx軸からの傾きθ
を用いて r=x・sinθ+y・cosθ (1) で表される。ある直線上の複数の点についてこの(1)
式を用いて(r、θ)空間へ写像すると、(r、θ)空
間での曲線は一点で交わる。この交点(r、θ)はその
直線の傾きと原点からの距離を表す。この性質を用い
て、輪郭線上の点を(r、θ)空間へ写像し、(r、
θ)空間での曲線の交点を求めることで輪郭線の近似直
線のパラメータを求めることができる。Next, the Hough transform will be described. One straight line is the distance r from the origin and the inclination θ from the x-axis.
R = x · sin θ + y · cos θ (1) For a plurality of points on a straight line, this (1)
When mapping to the (r, θ) space using the equation, the curves in the (r, θ) space intersect at one point. The intersection (r, θ) indicates the inclination of the straight line and the distance from the origin. Using this property, points on the contour are mapped to the (r, θ) space, and (r,
By determining the intersection of the curves in the θ) space, the parameters of the approximate straight line of the contour can be determined.
【0018】実際には、θとrに対応する二次元配列を
用意する。これが(r、θ)空間になる。予め、すべて
の(r、θ)の位置に例えば「0」を入れておき、
(1)式でθを変え、そのときのrを求め、その(r、
θ)の位置に例えば「1」を加えてカウントしていく。
輪郭線上の点全てに対してこの処理を行うと、交点とな
る(r、θ)の位置のカウント値が他よりも大きくなる
ため、この点を直線のパラメータとして抽出すればよ
い。このとき、データ更新部29から前回の近似直線抽
出処理において得られた角度を基準角度として受け取
り、その角度から前後数度の範囲内で交点を求める。つ
まり、カウント値が最大となる(r、θ)がその角度範
囲内にある時のみ直線のパラメータを抽出する。このよ
うにすることにより、白線の傾きに近いものだけが抽出
される。In practice, a two-dimensional array corresponding to θ and r is prepared. This becomes the (r, θ) space. In advance, for example, “0” is put in all (r, θ) positions,
By changing θ in the equation (1), r at that time is obtained, and (r,
For example, “1” is added to the position of θ) and counting is performed.
When this process is performed for all points on the contour, the count value at the position of the intersection (r, θ) becomes larger than the others, so that this point may be extracted as a straight line parameter. At this time, the angle obtained in the previous approximate straight line extraction process is received from the data updating unit 29 as a reference angle, and an intersection is obtained within a range of several degrees before and after the angle. That is, a straight-line parameter is extracted only when (r, θ) at which the count value becomes maximum is within the angle range. By doing so, only those close to the slope of the white line are extracted.
【0019】2本の近似直線L0及びL1が抽出される
と、交点算出部30では、これら近似直線の交点P(図
2の点Aに対応)を算出する。ここでは処理領域22の
座標系であるため、全画像の座標系に変換する必要があ
る。処理領域22の座標系を(x、y)、全画像の座標
系を(X、Y)とすると、図13から、関係式 X=spx+x Y=spy+y R=X・sinθ+Y・cosθ r=x・sinθ+y・cosθ を用いて、交点や直線のパラメータをそれぞれの座標系
に変換することができる。交点と直線のデータは目標点
算出部31に出力される。もし近似直線が抽出できず、
交点が得られなかった場合は、その情報を目標点算出部
31に出力する。When the two approximate straight lines L0 and L1 are extracted, the intersection calculating unit 30 calculates the intersection P (corresponding to the point A in FIG. 2) of these approximate straight lines. Here, since it is the coordinate system of the processing area 22, it is necessary to convert to the coordinate system of all images. Assuming that the coordinate system of the processing area 22 is (x, y) and the coordinate system of all images is (X, Y), from FIG. 13, the relational expression X = sp x + x Y = sp y + y R = X · sin θ + Y · cos θ Using r = x · sin θ + y · cos θ, the parameters of the intersections and the straight lines can be converted into the respective coordinate systems. The data of the intersection and the straight line are output to the target point calculator 31. If the approximate line cannot be extracted,
If no intersection is obtained, the information is output to the target point calculation unit 31.
【0020】目標点算出部31では、得られた交点Pか
ら図2に示される目標点TPを算出する。図14(a)
に示すように、交点Pから縦方向の近似直線L0上の点
POLを求め、これらの点P及びPOLを図14(b)
のように路面上に座標変換する。路面上では、点Pか
ら、点Pと点POLとを結ぶ直線に対して直角の方向に
駐車枠19の幅Wだけ並行移動した点を目標点TPとし
て求める。路面上の目標点TPを再び座標変換して図1
4(a)のように画面上の目標点TPを求める。この処
理において、目標点TPが図2の縦列ガイドライン9に
重なるまでは点POLは求めずに、交点Pだけを利用し
て目標点TPを求める。これは、この部分では車両1は
路側8と平行であるため、図14(b)の角φが0とな
るからである。目標点TPが算出されたら、その座標デ
ータをガイドとの一致判断部32へ出力する。さらに、
近似直線L0及びL1のパラメータと共にデータ更新部
29へも出力される。もし、交点算出部30から交点な
しの情報を受けている場合はその情報をデータ更新部2
9へ出力する。The target point calculator 31 calculates a target point TP shown in FIG. 2 from the obtained intersection point P. FIG. 14 (a)
As shown in FIG. 14, a point POL on the approximate line L0 in the vertical direction is obtained from the intersection P, and these points P and POL are determined as shown in FIG.
The coordinates are transformed on the road surface as in. On the road surface, a point translated from the point P by a width W of the parking frame 19 in a direction perpendicular to a straight line connecting the point P and the point POL is determined as the target point TP. The target point TP on the road surface is coordinate-transformed again, and FIG.
A target point TP on the screen is obtained as shown in FIG. In this process, until the target point TP overlaps the column guideline 9 in FIG. 2, the point POL is not determined, and the target point TP is determined using only the intersection P. This is because the vehicle 1 is parallel to the roadside 8 in this portion, and the angle φ in FIG. When the target point TP is calculated, the coordinate data is output to the guide coincidence determination unit 32. further,
It is also output to the data updating unit 29 together with the parameters of the approximate straight lines L0 and L1. If information without an intersection is received from the intersection calculation unit 30, the information is transmitted to the data update unit 2.
9 is output.
【0021】データ更新部29は、過去のデータを記憶
しており、交点Pの移動量にしたがって処理領域22の
位置とサイズを変更し、二値化・エッジ検出部18に出
力する。また、データ更新部29は、近似直線の傾きを
近似直線抽出部25に出力する。これは次の直線抽出処
理における基準角度となる。目標点算出部31から交点
Pが検出されなかった旨の情報を受け取ったときは、各
データは更新されずに引き続き使用される。形状認識処
理の結果判断部26からは図7の点P1、P3、P4の
座標を受け取り、点P1とP3を結ぶ直線の傾き及び点
P3とP4を結ぶ直線の傾きを求める。これらの平均値
を求めて、近似直線抽出時の基準角度の初期値とする。The data updating section 29 stores past data, changes the position and size of the processing area 22 in accordance with the amount of movement of the intersection P, and outputs it to the binarization / edge detecting section 18. Further, the data updating unit 29 outputs the inclination of the approximate straight line to the approximate straight line extracting unit 25. This becomes a reference angle in the next straight line extraction processing. When the information indicating that the intersection point P has not been detected is received from the target point calculation unit 31, each data is continuously used without being updated. The coordinates of the points P1, P3, and P4 in FIG. 7 are received from the shape recognition result determination unit 26, and the slope of the straight line connecting the points P1 and P3 and the slope of the straight line connecting the points P3 and P4 are obtained. The average value is obtained and used as the initial value of the reference angle at the time of approximation straight line extraction.
【0022】ガイドとの一致判断部32は、算出された
目標点TPと各種ガイドとの距離を求めることにより、
目標点TPの各種ガイドへの接近及び一致を判断する。
このとき、外部入力処理部12からのカウント値に基づ
いて操舵角算出部17が操舵角を算出し、ガイドとの一
致判断部32は操舵角算出部17から入力した操舵角を
用いてハンドルマークの位置を計算する。ハンドル7を
操作するとハンドルマーク10が縦列ガイドライン9上
を動いて目標点TPに近づいていく。縦列ガイドライン
9、アイマーク11については、図15に示されるよう
に、目標点TPがそれぞれに近づいていく。目標点TP
と各種ガイドとの距離に応じて音声選択部27に信号を
送り、音声選択部27がスピーカ28から対応した音声
を出力する。The guide coincidence judging unit 32 obtains the distance between the calculated target point TP and various guides,
The approach and coincidence of the target point TP with various guides are determined.
At this time, the steering angle calculation unit 17 calculates the steering angle based on the count value from the external input processing unit 12, and the coincidence with the guide determination unit 32 uses the steering angle input from the steering angle calculation unit 17 to handle the steering wheel mark. Calculate the position of. When the handle 7 is operated, the handle mark 10 moves on the column guide line 9 and approaches the target point TP. As for the tandem guideline 9 and the eye mark 11, the target point TP approaches each as shown in FIG. Target point TP
A signal is sent to the voice selection unit 27 in accordance with the distance between the voice and various guides, and the voice selection unit 27 outputs a corresponding voice from the speaker 28.
【0023】図16に音声ガイドの出力タイミングを示
す。(a)は目標点TPが縦列ガイドライン9に重なる
までの状態で、S1、S2、S3の順に目標点TPが縦
列ガイドライン9に近づいていき、順次「ポ〜ンポ〜
ン」(音1とする)、「ポンポン」(音2とする)、
「ポーン」(音3とする)のように、音の高さ及び/ま
たは長さを変えて接近の度合いがわかるように出力す
る。S3では音声ガイドとして「ハンドルマーク(例え
ば赤色のマーク)が目標点と一致するまでハンドルを回
してください」のように、次の操作を案内する音声を出
力する。(b)はハンドルマーク10を目標点TPに合
わせるまでの状態であり、(a)の場合と同様、S4、
S5、S6の順にハンドルマーク10が目標点TPに近
づくと、その距離に応じて音1、音2、音3を出力す
る。S6では「アイマーク(例えば黄色のマーク)が目
標点と一致するまで後退して下さい」のように次の操作
を案内する音声を出力する。(c)は目標点TPがアイ
マーク11と一致するまでの状態であり、S7、S8、
S9の順にアイマーク11が目標点TPに近づくと、そ
の距離に応じて音1、音2、音3を出力する。S9では
「ハンドルを反対方向にいっぱい切ってください」のよ
うな案内音声を出力する。(d)ではハンドルを反対方
向にある角度以上切ったときに「後方に注意しながら後
退して下さい」のような案内音声を出力する。この後、
駐車枠19の白線が画面から消えたら「後方車両に注意
して車を停止させてください」のような案内音声を出力
する。FIG. 16 shows the output timing of the voice guide. (A) is a state until the target point TP overlaps the column guideline 9, and the target point TP approaches the column guideline 9 in the order of S1, S2, and S3, and sequentially “Po-npo-”.
"" (Sound 1), "Pom" (sound 2),
Like “pawn” (sound 3), the pitch and / or length of the sound are changed so that the degree of approach can be recognized. In S3, a voice for guiding the next operation is output as a voice guide such as "Please turn the handle until the handle mark (for example, red mark) matches the target point". (B) shows a state until the handle mark 10 is aligned with the target point TP. As in (a), S4,
When the handle mark 10 approaches the target point TP in the order of S5 and S6, sound 1, sound 2, and sound 3 are output according to the distance. In S6, a voice for guiding the next operation is output, such as "Please retreat until the eye mark (for example, a yellow mark) matches the target point". (C) is a state until the target point TP coincides with the eye mark 11, and S7, S8,
When the eye mark 11 approaches the target point TP in the order of S9, sound 1, sound 2, and sound 3 are output according to the distance. In S9, a guidance voice such as "Please turn the steering wheel fully in the opposite direction" is output. In (d), when the steering wheel is turned in the opposite direction by a certain angle or more, a guidance sound such as "Please move backward while paying attention to the rear" is output. After this,
When the white line of the parking frame 19 disappears from the screen, a guidance sound such as "Please stop the car paying attention to the vehicle behind" is output.
【0024】実施の形態2.この実施の形態2は、例え
ば縦列ガイドライン9からアイマーク11までの間で、
目標点TPを見失ったとしても、ある程度は追跡を続け
られるように目標点TPの予測方式を導入したものであ
る。図17に実施の形態2に係る縦列駐車支援装置の構
成を示す。この装置は、図3に示した実施の形態1の装
置において、画像処理部13に代わりに画像処理部33
を外部入力処理部12に接続したものであり、それ以外
は実施の形態1の装置と同じである。この画像処理部3
3は、図3の画像処理部13の交点算出部30と目標点
算出部31の代わりに目標点予測部34を設けたもので
ある。図18に目標点予測部33のフローチャートを示
す。目標点TPが縦列ガイドライン8と重なり、ハンド
ルマーク10が目標点TPと一致するまでの処理を前半
処理とし、その後、目標点TPがアイマーク11と重な
るまでの処理を後半処理とする。前半処理では実施の形
態1の装置と同様に交点算出及び目標点算出を行う。後
半処理に入ったら、目標点予測に切り替える。Embodiment 2 FIG. In the second embodiment, for example, between the column guideline 9 and the eye mark 11,
Even if the target point TP is lost, a prediction method of the target point TP is introduced so that tracking can be continued to some extent. FIG. 17 shows a configuration of a parallel parking assistance device according to the second embodiment. This apparatus is different from the apparatus according to the first embodiment shown in FIG.
Are connected to the external input processing unit 12, and the rest is the same as the device of the first embodiment. This image processing unit 3
Numeral 3 is provided with a target point predicting unit 34 instead of the intersection calculating unit 30 and the target point calculating unit 31 of the image processing unit 13 in FIG. FIG. 18 shows a flowchart of the target point prediction section 33. The processing until the target point TP overlaps the column guideline 8 and the handle mark 10 matches the target point TP is defined as the first half processing, and then the processing until the target point TP overlaps the eye mark 11 is defined as the second half processing. In the first half processing, the intersection point calculation and the target point calculation are performed in the same manner as in the apparatus of the first embodiment. In the latter half of the process, switch to target point prediction.
【0025】次に、目標点予測の原理について説明す
る。図19において、車両1の旋回中心Cはハンドル7
の切れ角によって決まる。点P、目標点TP、縦方向の
直線上の点POLは、車両1から見た場合に中心Cの回
りを回転運動する。最終的に、目標点TPはアイマーク
EMに、点Pは仮想アイマークVEMに重なる。これら
の点P、TP、POLの回転半径は、それぞれRVEM、
REM、RPOLである。図20に点Pの修正と推定方法を
示す。路面上で点Pは回転運動をするが、画像から検出
された点Pを路面上に変換すると必ずしも円周上には乗
らない。(a)では、検出された点Pが円周上から大き
く外れた場合の修正法を示している。点Piと中心Cと
の距離を求め、REMとの差が大きくなったときは、点P
iと中心Cとの距離がREMとなるように修正する。この
とき、x軸と線分PiCとの角度θiと角度変化φiを
求める。(b)では、点Pが検出されなかった場合の推
定方法を示している。過去数回の処理から角度変化の平
均値φを求めておく。点Pが検出されなかった場合、角
度θ=θi+φ、半径REMで点Pを求める。φは次の角
度変化平均を求めるために利用する。点TP及び点PO
Lの角度変化は点Pと同じであるため、点Pを検出・推
定した結果得られる角度変化を用いて点TP及び点PO
Lを求める。このとき半径はRVEM及びRPOLである。Next, the principle of target point prediction will be described. In FIG. 19, the turning center C of the vehicle 1 is
Determined by the angle of cut. The point P, the target point TP, and the point POL on the vertical straight line rotate around the center C when viewed from the vehicle 1. Finally, the target point TP overlaps the eye mark EM, and the point P overlaps the virtual eye mark VEM. The turning radii of these points P, TP, POL are R VEM ,
R EM and R POL . FIG. 20 shows a method of correcting and estimating the point P. Although the point P makes a rotational movement on the road surface, when the point P detected from the image is converted to the road surface, the point P does not necessarily ride on the circumference. (A) shows a correction method when the detected point P deviates significantly from the circumference. Obtains distances between the point P i and the center C, when the difference between R EM becomes large, the point P
Correct so that the distance between i and the center C becomes REM . At this time, the angle θi and the angle change φi between the x-axis and the line segment P i C are obtained. (B) shows an estimation method when the point P is not detected. The average value φ of the angle change is obtained from the past several processes. If the point P is not detected, the angle θ = θi + φ, obtain the point P at a radius R EM. φ is used to obtain the next average of the angle change. Points TP and PO
Since the angle change of L is the same as that of the point P, the points TP and PO are changed using the angle change obtained as a result of detecting and estimating the point P.
Find L. At this time, the radii are R VEM and R POL .
【0026】点Pを修正しない場合は、点POLを修正
する必要がある。図21に示すように、点Pの中心Cか
らの距離DPCは半径REMより大きいが修正しない場合、
点Bの位置にある点POLを修正しないと、点Pと点P
OLとを結ぶ白線L1の傾きに誤差を生じてしまう。そ
こで、点Pと中心Cとの間の距離DPCの半径REMに対す
る比率をRPOLに掛けて点POLを修正する。すなわ
ち、△ABCを相似変換する。このようにすることによ
って、点Pと点POLとを結ぶ直線L2の傾きを点Aと
点Bとを結ぶ直線L3の傾きに等しくすることができ
る。また、図22に示すように、処理を進めていくと、
算出された直線Li-1と白線の傾きがずれていく場合が
ある。これを吸収するため、ほぼ一定間隔でRVEM、R
POLと角度データを更新する。点Piが検出されたら点P
OLiを算出し、半径をRVEMi、RPOLiに更新する。こ
のとき、x軸からの角度も更新する。If the point P is not corrected, it is necessary to correct the point POL. As shown in FIG. 21, when the distance D PC from the center C of the point P is larger than the radius R EM but is not corrected,
If the point POL at the position of the point B is not corrected, the points P and P
An error occurs in the inclination of the white line L1 connecting the line OL. Therefore, the point POL is corrected by multiplying R POL by the ratio of the distance D PC between the point P and the center C to the radius R EM . That is, △ ABC is similarly converted. By doing so, the inclination of the straight line L2 connecting the points P and POL can be made equal to the inclination of the straight line L3 connecting the points A and B. Further, as shown in FIG. 22, when the processing is advanced,
The calculated straight line Li-1 and the slope of the white line may be shifted. In order to absorb this, R VEM , R
Update POL and angle data. If point P i is detected, point P
OL i is calculated, and the radius is updated to R VEMi and R POLi . At this time, the angle from the x axis is also updated.
【0027】図23に目標点予測のフローチャートを示
す。後半処理が始まったら、ハンドルの切れ角から旋回
中心C、アイマークの回転半径REMを算出する。続いて
点POLを算出し、半径RVEM、RPOL、x軸からの角度
を初期値として求める。点Pが検出されており且つデー
タの更新タイミングであれば、点POLの算出、回転半
径RVEM、RPOLの算出及びx軸からの角度データの更新
を行う。その後、点Pが検出されていれば、点Pの修正
を行い、角度データ(角度変化、x軸からの角度)を更
新し、目標点TP及び点POLを算出する。点Pが検出
されていないときは、点Pを推定し、角度データ(角度
変化は平均の角度変化を採用)を更新し、目標点TP及
び点POLを推定する。算出された各点をモニタ4の画
面上に変換し、傾きデータを求める。この傾きは直線抽
出に利用される。この後、次の点Pの検出処理を行う。
図24(a)は点Pの修正のフローチャートであり、修
正をしない場合は回転半径の比rateを求め、点PO
Lの修正に利用する。図24(b)は目標点TP及び点
POLの算出のフローチャート、図24(c)は点Pの
推定のフローチャートである。FIG. 23 shows a flowchart of the target point prediction. When the latter half process is started, the turning center C and the turning radius REM of the eye mark are calculated from the turning angle of the steering wheel. Subsequently, the point POL is calculated, and the radii R VEM , R POL , and the angle from the x axis are obtained as initial values. If the point P is detected and the data is updated, the calculation of the point POL, the calculation of the turning radii R VEM and R POL , and the update of the angle data from the x-axis are performed. Thereafter, if the point P is detected, the point P is corrected, the angle data (angle change, angle from the x-axis) is updated, and the target point TP and the point POL are calculated. When the point P is not detected, the point P is estimated, the angle data (the angle change adopts an average angle change) is updated, and the target point TP and the point POL are estimated. The calculated points are converted on the screen of the monitor 4 to obtain inclination data. This inclination is used for straight line extraction. Thereafter, a process of detecting the next point P is performed.
FIG. 24A is a flowchart of the correction of the point P. When the correction is not performed, the rotation radius ratio rate is obtained, and the point PO is corrected.
Used to modify L. FIG. 24B is a flowchart for calculating the target point TP and the point POL, and FIG. 24C is a flowchart for estimating the point P.
【0028】実施の形態3.図25に実施の形態3に係
る縦列駐車支援装置の構成を示す。この装置は、図3に
示した実施の形態1の装置において、縦列モードスイッ
チ35を付加的に運転席に設けると共に外部入力処理部
12に接続したものである。縦列駐車をする時に運転者
が縦列モードスイッチ35を投入して縦列モードに入れ
る。シフトレバー5をR(後退位置)に操作して縦列モ
ードスイッチ35を投入した時に初めてモニタ4の画面
上に縦列ガイドライン9が表示され、画像処理が行われ
る。すなわち、必要な時に必要なもののみ表示するよう
にする。また、縦列モードに入ったことを知らせるため
に、画像処理部13は「縦列駐車モードです」というモ
ード案内音声と、「目標点が青色の線と一致するまで後
退して下さい」という操作案内音声を音声選択部27を
介してスピーカ28から出力させる。なお、実施の形態
2の装置に縦列モードスイッチ35を接続するようにし
てもよい。Embodiment 3 FIG. 25 shows a configuration of a parallel parking assistance device according to the third embodiment. This device differs from the device of the first embodiment shown in FIG. 3 in that a cascade mode switch 35 is additionally provided in the driver's seat and connected to the external input processing unit 12. When performing parallel parking, the driver turns on the vertical mode switch 35 to enter the vertical mode. Only when the shift lever 5 is operated to R (retreat position) to turn on the column mode switch 35, the column guideline 9 is displayed on the screen of the monitor 4 and image processing is performed. That is, only necessary items are displayed when necessary. In addition, in order to inform that the vehicle has entered the parallel mode, the image processing unit 13 outputs a mode guidance voice saying “it is in the parallel parking mode” and an operation guidance voice saying “Please go backward until the target point matches the blue line”. Is output from the speaker 28 via the audio selection unit 27. Note that the cascade mode switch 35 may be connected to the device of the second embodiment.
【0029】図26に実施の形態4に係る縦列駐車支援
装置の構成を示す。この装置は、図3に示した実施の形
態1の装置において、画像処理部13がスーパーインポ
ーズ部14に接続されたものである。画像処理部13の
ガイドとの一致判断部32から目標点TPと各種ガイド
の接近情報をスーパーインポーズ部14に送り、音声選
択部27で選択される音声と対応した表示がモニタ4の
画面上に行われる。例えば、図27に示されるように、
場面の下部に接近表示部36を設け、接近に従って音声
が順次音1、音2、音3と変わっていくのに対応して青、
黄、赤のように色を順次変えて接近表示部36に表示さ
せる。また、これから運転者がするべき操作ステップを
文字表示することもできる。例えば、接近表示部36に
重ねて「ガイドライン」、「ハンドルマーク」、「アイ
マーク」のように、注目しなくてはならないガイドの名
前を表示する。なお、実施の形態2の装置の画像処理部
33をスーパーインポーズ部14に接続して、同様に音
声と対応した表示をモニタ4の画面上に行うようにして
もよい。FIG. 26 shows the configuration of a parallel parking assist system according to the fourth embodiment. This device has a configuration in which the image processing unit 13 is connected to the superimposing unit 14 in the device of the first embodiment shown in FIG. The guide information matching unit 32 of the image processing unit 13 sends the approach information of the target point TP and the various guides to the superimposing unit 14, and the display corresponding to the voice selected by the voice selecting unit 27 is displayed on the screen of the monitor 4. Done in For example, as shown in FIG.
An approach indicator 36 is provided at the bottom of the scene, and as the sound changes sequentially to sound 1, sound 2, and sound 3 according to the approach, blue,
The colors are sequentially changed, such as yellow and red, and displayed on the approach display section 36. Further, the operation steps to be performed by the driver can be displayed in characters. For example, the names of guides that need to be noted, such as “guideline”, “handle mark”, and “eye mark”, are displayed on the approach display section 36. Note that the image processing unit 33 of the apparatus according to the second embodiment may be connected to the superimposing unit 14 so that the display corresponding to the sound is similarly displayed on the screen of the monitor 4.
【0030】[0030]
【発明の効果】以上説明したように、請求項1に記載の
縦列駐車支援装置によれば、画像処理部が画像処理によ
り駐車のための目標点を認識すると共に目標点とガイド
表示との位置関係に基づいて縦列駐車に必要な操舵のタ
イミングと操舵量とを出力するので、運転者は極めて容
易に車両の縦列駐車操作を行うことができる。請求項2
に記載の縦列駐車支援装置によれば、請求項1の装置に
おいて、画像処理部が、車両の後退に伴って駐車枠に含
まれる2本の直線の交点からなる目標点を追跡するの
で、運転者は車両の後退に従って車両が目標点に至るま
での状況を段階的に把握することができる。請求項3に
記載の縦列駐車支援装置によれば、請求項2の装置にお
いて、画像処理部が、目標点の動きが大きくずれたとき
に目標点の位置を予測して修正するので、目標点を一旦
見失ったとしても、ある程度は運転操作の支援を続ける
ことができる。請求項4に記載の縦列駐車支援装置によ
れば、請求項1〜3のいずれか一項の装置において、画
像処理部から出力された操舵のタイミングと操舵量とに
対応した音声を発して操舵の案内を行うので、運転者は
モニタを注視する必要がなく、周囲の安全を確認しなが
ら容易に駐車を行うことができる。請求項5に記載の縦
列駐車支援装置によれば、請求項4の装置において、操
舵の案内に対応した表示をモニタの画面上に行わせるの
で、運転者は目で接近状態を確認することができ、ま
た、文字表示により音声を聞き漏らした場合でも現在の
操作ステップを目で確認することができる。請求項6に
記載の縦列駐車支援装置によれば、請求項1〜5のいず
れか一項の装置において、縦列駐車モードスイッチを投
入したときにモニタの画面上にガイド表示が表示される
ようにしたので、意識的に縦列駐車とその他の後退運転
とを区別することができると共に必要な描画のみを表示
でき、画面が見やすくなる。As described above, according to the parallel parking assist apparatus of the first aspect, the image processing unit recognizes the target point for parking by image processing and the position of the target point and the guide display. Since the steering timing and the steering amount required for parallel parking are output based on the relationship, the driver can very easily perform the parallel parking operation of the vehicle. Claim 2
According to the parallel parking assist device described in the item (1), in the device according to the item (1), the image processing unit tracks the target point formed by the intersection of two straight lines included in the parking frame as the vehicle retreats. A person can gradually grasp the situation until the vehicle reaches the target point as the vehicle retreats. According to the parallel parking assist device of the third aspect, in the device of the second aspect, the image processing unit predicts and corrects the position of the target point when the movement of the target point is greatly displaced. Even if the driver once loses sight of the vehicle, it is possible to continue supporting the driving operation to some extent. According to the parallel parking assist device of the fourth aspect, in the device of any one of the first to third aspects, a sound corresponding to the steering timing and the steering amount output from the image processing unit is emitted to perform steering. The driver does not need to look closely at the monitor, and can easily park while confirming the surrounding safety. According to the parallel parking assist device of the fifth aspect, in the device of the fourth aspect, the display corresponding to the steering guidance is performed on the monitor screen, so that the driver can visually confirm the approaching state. It is also possible to visually confirm the current operation step even if a voice is missed by character display. According to the parallel parking assist device described in claim 6, in the device according to any one of claims 1 to 5, the guide display is displayed on the monitor screen when the parallel parking mode switch is turned on. Therefore, it is possible to consciously distinguish between parallel parking and other reverse driving, and only necessary drawings can be displayed, so that the screen is easy to see.
【図1】 この発明の実施の形態1に係る縦列駐車支援
装置を搭載した車両を示す側面図である。FIG. 1 is a side view showing a vehicle equipped with a parallel parking assist device according to Embodiment 1 of the present invention.
【図2】 モニタ上の描画の形態を示す図である。FIG. 2 is a diagram showing a form of drawing on a monitor.
【図3】 実施の形態1に係る縦列駐車支援装置の構成
を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of a parallel parking assistance device according to the first embodiment.
【図4】 ヒストグラム領域が表されたモニタ画面を示
す図である。FIG. 4 is a diagram showing a monitor screen on which a histogram area is displayed.
【図5】 画像の濃度レベルと画素数との関係を示すグ
ラフである。FIG. 5 is a graph showing the relationship between the density level of an image and the number of pixels.
【図6】 処理領域が表されたモニタ画面を示す図であ
る。FIG. 6 is a diagram showing a monitor screen on which a processing area is shown.
【図7】 他の処理領域が表されたモニタ画面を示す図
である。FIG. 7 is a diagram showing a monitor screen on which another processing area is shown.
【図8】 目標点検出時の処理領域内の様子を示す図で
ある。FIG. 8 is a diagram showing a state in a processing area when a target point is detected.
【図9】 処理領域内の処理画像の複数の形状と各点の
位置及び直線の傾きとの関係を示す図である。FIG. 9 is a diagram showing a relationship between a plurality of shapes of a processed image in a processing area, positions of respective points, and inclinations of straight lines.
【図10】 形状認識部と結果判断部の動作を示すフロ
ーチャートである。FIG. 10 is a flowchart illustrating operations of a shape recognition unit and a result determination unit.
【図11】 近似直線抽出処理を示すフローチャートで
ある。FIG. 11 is a flowchart illustrating an approximate straight line extraction process.
【図12】 輪郭線の抽出方法を示す図である。FIG. 12 is a diagram showing a method of extracting a contour line.
【図13】 座標変換の方法を示す図である。FIG. 13 is a diagram showing a coordinate conversion method.
【図14】 目標点の算出方法を示す図で、(a)はモ
ニタ画面、(b)は路面を示す。14A and 14B are diagrams illustrating a method of calculating a target point, wherein FIG. 14A illustrates a monitor screen, and FIG. 14B illustrates a road surface.
【図15】 モニタ画面上の目標点の動きを示す図であ
る。FIG. 15 is a diagram showing a movement of a target point on a monitor screen.
【図16】 音声ガイドの出力タイミングを段階的に示
す図である。FIG. 16 is a diagram showing the output timing of the audio guide in a stepwise manner.
【図17】 実施の形態2に係る縦列駐車支援装置の構
成を示すブロック図である。FIG. 17 is a block diagram illustrating a configuration of a parallel parking assist device according to a second embodiment.
【図18】 目標点予測部の動作を示すフローチャート
である。FIG. 18 is a flowchart illustrating the operation of a target point prediction unit.
【図19】 目標点予測の原理を示す図である。FIG. 19 is a diagram illustrating the principle of target point prediction.
【図20】 点Pの修正方法と推定方法を示す図であ
る。FIG. 20 is a diagram showing a method of correcting and estimating a point P.
【図21】 点POLの修正方法を示す図である。FIG. 21 is a diagram illustrating a method of correcting a point POL.
【図22】 データの更新方法を示す図である。FIG. 22 is a diagram showing a data update method.
【図23】 目標点予測処理を示すフローチャートであ
る。FIG. 23 is a flowchart showing a target point prediction process.
【図24】 (a)は点Pの修正方法、(b)は目標点
及び点POLの算出方法、(c)は点Pの推定方法をそ
れぞれ示すフローチャートである。24A is a flowchart illustrating a method of correcting a point P, FIG. 24B is a flowchart illustrating a method of calculating a target point and a point POL, and FIG.
【図25】 実施の形態3に係る縦列駐車支援装置の構
成を示すブロック図である。FIG. 25 is a block diagram illustrating a configuration of a parallel parking assist device according to a third embodiment.
【図26】 実施の形態4に係る縦列駐車支援装置の構
成を示すブロック図である。FIG. 26 is a block diagram illustrating a configuration of a parallel parking assistance device according to a fourth embodiment.
【図27】 実施の形態4におけるモニタ画面を示す図
である。FIG. 27 is a diagram showing a monitor screen according to the fourth embodiment.
1 車両、2 カメラ、3 後部バンパー、4 モニ
タ、5 シフトレバー、6 前輪、7 ハンドル、8
路側、9 縦列ガイドライン、10 ハンドルマーク、
11 アイマーク、12 外部入力処理部、13,33
画像処理部、14 スーパーインポーズ部、15 シ
フトスイッチ、16 ステアリングセンサ、17 操舵
角算出部、18 二値化・エッジ検出部、19 駐車
枠、20 白線、21 ヒストグラム領域、22 処理
領域、23 切替部、24 形状認識部、25 近似直
線抽出部、26 結果判断部、27 音声選択部、28
スピーカ、29 データ更新部、30 交点算出部、
31 目標点算出部、32 ガイドとの一致判断部、3
4 目標点予測部、35 縦列モードスイッチ、36接
近表示部。1 vehicle, 2 cameras, 3 rear bumpers, 4 monitors, 5 shift levers, 6 front wheels, 7 handles, 8
Roadside, 9 tandem guidelines, 10 handle marks,
11 eye mark, 12 external input processing unit, 13, 33
Image processing unit, 14 superimpose unit, 15 shift switch, 16 steering sensor, 17 steering angle calculation unit, 18 binarization / edge detection unit, 19 parking frame, 20 white line, 21 histogram area, 22 processing area, 23 switching Unit, 24 shape recognition unit, 25 approximate line extraction unit, 26 result determination unit, 27 voice selection unit, 28
Speaker, 29 data update unit, 30 intersection calculation unit,
31 Target point calculation unit, 32 Guide coincidence determination unit, 3
4 Target point prediction unit, 35 tandem mode switch, 36 approach display unit.
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B62D 137:00 G06F 15/62 380 Fターム(参考) 3D032 CC01 DA03 DA81 DA84 DA91 DA95 DB03 DB07 DC38 DD02 EA10 EB30 EC40 GG01 5B057 AA20 BA01 CA08 CB08 CC03 DA07 DA16 DB09 DC01 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) B62D 137: 00 G06F 15/62 380 F-term (Reference) 3D032 CC01 DA03 DA81 DA84 DA91 DA95 DB03 DB07 DC38 DD02 EA10 EB30 EC40 GG01 5B057 AA20 BA01 CA08 CB08 CC03 DA07 DA16 DB09 DC01
Claims (6)
による映像を表示するモニタと、 ハンドルの操舵角を検出するステアリングセンサと、 縦列駐車時に車両の運転を支援するためのガイド表示を
前記モニタの画面上に重畳表示するスーパーインポーズ
部と、 前記カメラによる映像を画像処理して駐車のための目標
点を認識すると共に目標点とガイド表示との位置関係に
基づいて縦列駐車するために必要な操舵のタイミングと
操舵量とを出力する画像処理部とを備えたことを特徴と
する縦列駐車支援装置。1. A camera for photographing the rear of a vehicle, a monitor arranged at a driver's seat of the vehicle and displaying an image by the camera when the vehicle retreats, a steering sensor for detecting a steering angle of a steering wheel, A superimposing unit for superimposing and displaying a guide display for assisting driving of the vehicle on the screen of the monitor; and performing image processing of an image from the camera to recognize a target point for parking and displaying the target point and the guide. A parallel parking assist device comprising: an image processing unit that outputs a steering timing and a steering amount necessary for parallel parking based on a positional relationship between the vehicle and the parallel parking.
像から駐車枠に含まれる2本の直線を認識してそれらの
交点を目標点とし、車両の後退に伴う映像の移動に応じ
て目標点を追跡する請求項1に記載の縦列駐車支援装
置。2. The image processing unit recognizes two straight lines included in a parking frame from an image captured by the camera, sets an intersection thereof as a target point, and sets the target point according to the movement of the image accompanying the retreat of the vehicle. The parallel parking assist device according to claim 1, wherein the parallel parking assist device tracks the vehicle.
標点の動きが大きくずれた場合に目標点の位置を予測し
て修正する請求項2に記載の縦列駐車支援装置。3. The parallel parking assist device according to claim 2, wherein the image processing unit predicts and corrects the position of the target point when the movement of the target point accompanying the retreat of the vehicle is significantly shifted.
イミングと操舵量とに対応した音声を発して運転者に操
舵の案内を行う音声選択部をさらに備えた請求項1〜3
のいずれか一項に記載の縦列駐車支援装置。4. The apparatus according to claim 1, further comprising: a voice selection unit that generates a voice corresponding to a steering timing and a steering amount output from the image processing unit and guides a driver to steering.
The parallel parking assist device according to any one of the above.
操舵量を前記音声選択部と共に前記スーパーインポーズ
部にも出力して操舵の案内に対応した表示を前記モニタ
の画面上に行わせる請求項4に記載の縦列駐車支援装
置。5. The image processing unit outputs a steering timing and a steering amount to the superimposing unit together with the voice selecting unit to cause a display corresponding to a steering guide to be displayed on a screen of the monitor. Item 5. A parallel parking support device according to item 4.
ドスイッチをさらに備え、縦列駐車モードスイッチを投
入したときに前記スーパーインポーズ部により前記モニ
タの画面上にガイド表示が表示される請求項1〜5のい
ずれか一項に記載の縦列駐車支援装置。6. The vehicle according to claim 1, further comprising a parallel parking mode switch disposed in a driver's seat of the vehicle, wherein a guide display is displayed on a screen of the monitor by the superimposing unit when the parallel parking mode switch is turned on. The parallel parking assist device according to any one of claims 1 to 5.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP36745699A JP3624768B2 (en) | 1999-12-24 | 1999-12-24 | Parallel parking assistance device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP36745699A JP3624768B2 (en) | 1999-12-24 | 1999-12-24 | Parallel parking assistance device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2001180510A true JP2001180510A (en) | 2001-07-03 |
| JP3624768B2 JP3624768B2 (en) | 2005-03-02 |
Family
ID=18489352
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP36745699A Expired - Fee Related JP3624768B2 (en) | 1999-12-24 | 1999-12-24 | Parallel parking assistance device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP3624768B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003244688A (en) * | 2001-12-12 | 2003-08-29 | Equos Research Co Ltd | Vehicle image processing device |
| JP2005341153A (en) * | 2004-05-26 | 2005-12-08 | Clarion Co Ltd | Stop position sensor |
| JP2012201301A (en) * | 2011-03-28 | 2012-10-22 | Honda Access Corp | Method and device for determining hand, and operating device for in-vehicle equipment of automobile |
| JP2016148883A (en) * | 2015-02-10 | 2016-08-18 | オムロン株式会社 | Image processing apparatus, vehicle specification calculation method, and vehicle specification calculation program |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01173300A (en) * | 1987-12-28 | 1989-07-07 | Daihatsu Motor Co Ltd | Parking advising device |
| JPH0612597A (en) * | 1993-02-17 | 1994-01-21 | Honda Motor Co Ltd | Parking guidance device indicator |
| JPH11157404A (en) * | 1997-11-26 | 1999-06-15 | Toyota Motor Corp | Parking assistance device |
| JPH11339194A (en) * | 1998-05-28 | 1999-12-10 | Aisin Seiki Co Ltd | Parking assistance device |
-
1999
- 1999-12-24 JP JP36745699A patent/JP3624768B2/en not_active Expired - Fee Related
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH01173300A (en) * | 1987-12-28 | 1989-07-07 | Daihatsu Motor Co Ltd | Parking advising device |
| JPH0612597A (en) * | 1993-02-17 | 1994-01-21 | Honda Motor Co Ltd | Parking guidance device indicator |
| JPH11157404A (en) * | 1997-11-26 | 1999-06-15 | Toyota Motor Corp | Parking assistance device |
| JPH11339194A (en) * | 1998-05-28 | 1999-12-10 | Aisin Seiki Co Ltd | Parking assistance device |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003244688A (en) * | 2001-12-12 | 2003-08-29 | Equos Research Co Ltd | Vehicle image processing device |
| JP2005341153A (en) * | 2004-05-26 | 2005-12-08 | Clarion Co Ltd | Stop position sensor |
| JP2012201301A (en) * | 2011-03-28 | 2012-10-22 | Honda Access Corp | Method and device for determining hand, and operating device for in-vehicle equipment of automobile |
| JP2016148883A (en) * | 2015-02-10 | 2016-08-18 | オムロン株式会社 | Image processing apparatus, vehicle specification calculation method, and vehicle specification calculation program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP3624768B2 (en) | 2005-03-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6587760B2 (en) | Motor vehicle parking support unit and method thereof | |
| JP6511728B2 (en) | Parking support device and parking support method | |
| JP5212748B2 (en) | Parking assistance device | |
| US8232893B2 (en) | Parking assist apparatus and method | |
| JP3575364B2 (en) | Steering support device | |
| US10179608B2 (en) | Parking assist device | |
| JP2003063336A (en) | Parking supporting device | |
| JP2003063340A (en) | Drive auxiliary device | |
| JP5446139B2 (en) | Parking assistance device and parking assistance method | |
| JP2012176656A (en) | Parking support device | |
| US8237795B2 (en) | Driving assistance device | |
| JP6376354B2 (en) | Parking assistance system | |
| JP2004147083A (en) | Driving support device | |
| JP5617396B2 (en) | Driving assistance device | |
| JP3624768B2 (en) | Parallel parking assistance device | |
| JP2010019752A (en) | Apparatus for estimating width of vehicle | |
| JP2010012838A (en) | Parking assisting device and parking assisting method | |
| KR20150028492A (en) | Method for controlling steering wheel and System therefor | |
| JP4595902B2 (en) | Vehicle periphery image display system and vehicle periphery image display method | |
| JP2005343417A (en) | Parking assist device | |
| JP2008037320A (en) | Parking assistance device, parking assistance method, and parking assistance program | |
| JP4769631B2 (en) | Vehicle driving support device and vehicle driving support method | |
| JP6252346B2 (en) | Parking assistance device and parking assistance method | |
| JP3630053B2 (en) | Steering assist device for parking | |
| JP5573266B2 (en) | Vehicle object image recognition apparatus, vehicle object image recognition method, and computer program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040803 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041004 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041109 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041122 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111210 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111210 Year of fee payment: 7 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121210 Year of fee payment: 8 |
|
| LAPS | Cancellation because of no payment of annual fees |