[go: up one dir, main page]

JP2006238131A - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP2006238131A
JP2006238131A JP2005050726A JP2005050726A JP2006238131A JP 2006238131 A JP2006238131 A JP 2006238131A JP 2005050726 A JP2005050726 A JP 2005050726A JP 2005050726 A JP2005050726 A JP 2005050726A JP 2006238131 A JP2006238131 A JP 2006238131A
Authority
JP
Japan
Prior art keywords
vehicle
image
camera
display
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005050726A
Other languages
Japanese (ja)
Inventor
Kazuya Watanabe
一矢 渡邊
Hideyuki Aikyo
秀幸 相京
Norihiko Yoshinaga
敬彦 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2005050726A priority Critical patent/JP2006238131A/en
Publication of JP2006238131A publication Critical patent/JP2006238131A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】車両の死角領域と車両との位置関係が判り、所定の駐車スペースに正確に車両を納めることはできるような車両の死角領域の情報を把握できる車両周辺監視装置を提供する。
【解決手段】車両の周辺を撮像するカメラC1およびカメラC2と、カメラC1およびカメラC2により撮像された撮像画像を背景画像として表示する表示装置12とを備え、カメラC1およびカメラC2によって車両の周辺監視を行う車両周辺監視装置において、表示装置12には背景画像にあわせて、車両が透けた状態で表示する。
【選択図】図2
There is provided a vehicle periphery monitoring device capable of knowing the positional relationship between a blind spot area of a vehicle and the vehicle and grasping information of the blind spot area of the vehicle so that the vehicle can be accurately placed in a predetermined parking space.
A camera C1 and a camera C2 that capture the periphery of the vehicle, and a display device 12 that displays a captured image captured by the camera C1 and the camera C2 as a background image, and the periphery of the vehicle by the camera C1 and the camera C2. In the vehicle periphery monitoring device that performs monitoring, the display device 12 displays the vehicle in a transparent state in accordance with the background image.
[Selection] Figure 2

Description

本発明は、車両周辺監視装置に関するものである。   The present invention relates to a vehicle periphery monitoring device.

特許文献1の画像変換システムでは、図5に示すように車両の各位置に複数のカメラ(C1〜C6)が取り付けられている。例えば、左前カメラC1は車両の前端の左隅に取り付けられている。そして、車内のモニター画面の上半分にカメラの撮像画像を配置することともに、画面の右下部分に撮像しているカメラの車両における取り付け位置を対応させて表示している。図6では、一例として左前カメラC1の撮像画像を表示したときの様子を示している。
特開2004−056683(第0033段落、第0039段落、第0049段落、第7図)
In the image conversion system of Patent Document 1, a plurality of cameras (C1 to C6) are attached to each position of the vehicle as shown in FIG. For example, the left front camera C1 is attached to the left corner of the front end of the vehicle. The captured image of the camera is arranged in the upper half of the monitor screen in the vehicle, and the mounting position of the camera being captured in the vehicle is displayed in the lower right part of the screen in association with the image. FIG. 6 shows a state when a captured image of the left front camera C1 is displayed as an example.
JP 2004-056883 (paragraph 0033, paragraph 0039, paragraph 0049, FIG. 7)

しかしながら、特許文献1の画像変換システムにおいては、図6に示すように、表示領域1においてはカメラ画像を表示し、表示領域2においてはカメラ画像を写して出しているカメラの位置を車両の上面図に対応させて表示している。しかし、このような表示では車両の死角領域における車両の位置を把握できない。   However, in the image conversion system of Patent Document 1, as shown in FIG. 6, the camera image is displayed in the display area 1, and the position of the camera that is capturing the camera image is displayed in the display area 2. It is displayed corresponding to the figure. However, such a display cannot grasp the position of the vehicle in the blind spot area of the vehicle.

また、例えば、駐車場にて車両が前進しながら所定の駐車スペースに車両を納めようとする場合には、運転者は通常フロントウインドウから直接前方の様子を確認しながら、あるいは車両前方に配置されるカメラの画像が表示されるモニターなどで前方の様子を確認しながら車両を前進させていくことが考えられる。そして、輪止めがある駐車スペースに向かって車両を前進させていくと、前進動作の当初には運転者は、通常フロントウインドウから直接あるいは車両前方に配置されるカメラの画像が表示されるモニターにより輪止めの位置を確認することができる。しかし、車両の前進が進むうちに、いわゆる車両の死角領域に輪止めが位置することになるので、輪止めがフロントウインドウの視界から外れて見えなくなったり、車両前方に配置されるカメラの撮像領域から外れて輪止めが撮像されなくなる。従って、運転者は車両の死角領域に位置する輪止めと車両の現在の位置関係を把握することができなくなる。このとき、仮に輪止めの位置に対する車両の位置が車両の車幅方向に大きくズレている場合には、このまま前進させても車両のタイヤが輪止めで止まらなくなるので、車両を正確に駐車スペースに納めることができなくなってしまう。一方、輪止めの位置に対する車両の位置が車両の側面方向に大きくズレていない場合には、このまま前進させれば車両のタイヤが輪止めで止まることがなるが、運転者は、あとどのくらいで車両のタイヤが輪止めで止まるのかが判らなくなるので、不安を抱えながら車両を前進させなければならない。   Also, for example, when the vehicle is moving forward in a parking lot and trying to place the vehicle in a predetermined parking space, the driver is usually placed directly in front of the vehicle while confirming the state directly in front of the front window. It may be possible to move the vehicle forward while confirming the state of the front on a monitor that displays the image of the camera. Then, when the vehicle is advanced toward the parking space where the wheel stops, at the beginning of the forward movement, the driver usually uses a monitor on which an image of a camera arranged directly in front of the vehicle or on the front of the vehicle is displayed. The position of the ring stopper can be confirmed. However, as the vehicle advances, the wheel stopper is located in the so-called blind spot area of the vehicle, so that the wheel stopper becomes out of view from the front window view, or the imaging area of the camera arranged in front of the vehicle. The wheel stopper will not be imaged. Accordingly, the driver cannot grasp the current positional relationship between the wheel stop located in the blind spot area of the vehicle and the vehicle. At this time, if the position of the vehicle with respect to the position of the wheel stopper is greatly shifted in the vehicle width direction, the vehicle tire will not stop at the wheel stopper even if the vehicle is advanced as it is, so that the vehicle can be accurately placed in the parking space. It becomes impossible to pay. On the other hand, if the position of the vehicle with respect to the position of the wheel stopper is not greatly shifted in the lateral direction of the vehicle, if the vehicle is advanced as it is, the tire of the vehicle will stop at the wheel stopper. You will not be able to tell if the tires will stop at the wheel, so you have to move the vehicle forward with anxiety.

このように駐車スペースに輪止めがある場合は車両が車幅方向に大きくズレない限りは車両のタイヤが輪止めに止まることになるので、所定の駐車スペースに車両を納めることができる。しかし、仮に輪止めがなく駐車スペースを単に白線で区画しているだけの場合には、運転者の視界やカメラの撮像領域から外れた、いわゆる車両の死角領域に位置する白線は確認することができなくなるので、運転者には経験的な判断に頼り認識できる範囲の情報をもとに駐車スペースに車両を納めることが必要になる。従って、運転者の判断に狂いが生じた場合には、所定の駐車スペースに正確に車両を納めることはできなくなってしまう。   In this way, when the parking space has a wheel stop, the vehicle tire stops at the wheel stop unless the vehicle is greatly displaced in the vehicle width direction, so that the vehicle can be stored in a predetermined parking space. However, if there is no wheel stop and the parking space is simply divided by a white line, the white line located in the so-called blind spot area of the vehicle, which is out of the driver's field of view or the imaging area of the camera, can be confirmed. Since it is impossible to do so, it is necessary for the driver to place the vehicle in the parking space based on information that can be recognized by relying on empirical judgment. Therefore, if the driver's judgment is inaccurate, the vehicle cannot be accurately placed in the predetermined parking space.

本発明は以上のような課題を解決するためになされたものであり、車両の死角領域おける車両の位置を把握でき、運転者が安心して車両を正確に駐車スペースに納めることができる車両周辺監視装置を提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and can detect the position of the vehicle in the blind spot area of the vehicle and can monitor the vehicle periphery so that the driver can safely place the vehicle in the parking space. An object is to provide an apparatus.

前記目的を達成するために、本発明は以下のような特徴を有する。
(1)本発明は、車両の周辺を撮像する撮像手段と、該撮像手段により撮像された撮像画像を背景画像として表示する表示手段とを備え、該表示手段によって車両の周辺監視を行う車両周辺監視装置において、表示手段には背景画像にあわせて、車両が透けた状態で表示されることを特徴とする。
In order to achieve the above object, the present invention has the following features.
(1) The present invention includes an image pickup means for picking up an image of the periphery of the vehicle, and a display means for displaying the picked-up image picked up by the image pickup means as a background image. In the monitoring apparatus, the display means displays the vehicle in a transparent state in accordance with the background image.

(2)本発明は、(1)に記載する車両周辺監視装置において、撮像画像を保存する画像保存手段を備え、背景画像は、撮像手段により撮像された現在画像と画像保存手段に保存された過去画像を合成して作成されることを特徴とする。 (2) According to the present invention, in the vehicle periphery monitoring device described in (1), an image storage unit that stores a captured image is provided, and a background image is stored in the current image captured by the imaging unit and the image storage unit. It is created by synthesizing past images.

(3)本発明は、(2)に記載する車両周辺監視装置において、表示手段に背景画像を表示する際、撮像画像の座標から表示手段の表示画面の座標に対応が成され、撮像画像を表示画面上のどの位置に表示するかの表示割り当てを行なう座標変換処理手段を備えることを特徴とする。 (3) According to the present invention, in the vehicle periphery monitoring device described in (2), when a background image is displayed on the display means, correspondence is made from the coordinates of the captured image to the coordinates of the display screen of the display means, and the captured image is displayed. It is characterized by comprising coordinate conversion processing means for assigning a display on which position on the display screen to display.

(4)本発明は、(1)乃至(3)に記載のいずれか一つに記載の車両周辺監視装置において、撮像手段は車両の周囲に設けられた複数のカメラであり、表示画面上での表示割り当ては、カメラ位置より決定されることを特徴とする。 (4) The present invention is the vehicle periphery monitoring device according to any one of (1) to (3), wherein the imaging means is a plurality of cameras provided around the vehicle, and is on a display screen. The display assignment is determined from the camera position.

このような特徴を有する本発明は、以下のような作用・効果が得られる。
(1)本発明は、車両の周辺を撮像する撮像手段と、該撮像手段により撮像された撮像画像を背景画像として表示する表示手段とを備え、該表示手段によって車両の周辺監視を行う車両周辺監視装置において、表示手段には背景画像にあわせて、車両が透けた状態で表示されるので、車両の死角領域(例えば、車両の下方等)における車両の位置を把握でき、運転者は安心して車両を正確に駐車スペースに納めることができる効果が得られる。
The present invention having such characteristics can provide the following operations and effects.
(1) The present invention includes an image pickup means for picking up an image of the periphery of the vehicle, and a display means for displaying the picked-up image picked up by the image pickup means as a background image. In the monitoring device, since the vehicle is displayed in a transparent state on the display means in accordance with the background image, the position of the vehicle in the blind spot area of the vehicle (for example, below the vehicle) can be grasped, and the driver can feel at ease. The effect that the vehicle can be accurately stored in the parking space is obtained.

(2)本発明は、(1)に記載する車両周辺監視装置において、撮像画像を保存する画像保存手段を備え、背景画像は、撮像手段により撮像された現在画像と画像保存手段に保存された過去画像を合成して作成されるので、(1)に記載する効果に加えて、合成画像の現在画像と過去画像とから、車両が進行したとしても車両の死角領域における車両の位置を把握でき、運転者は安心して車両を正確に駐車スペースに納めることができる効果が得られる。 (2) According to the present invention, in the vehicle periphery monitoring device described in (1), an image storage unit that stores a captured image is provided, and a background image is stored in the current image captured by the imaging unit and the image storage unit. Since it is created by combining past images, in addition to the effect described in (1), the position of the vehicle in the blind spot area of the vehicle can be grasped from the current image of the composite image and the past image even if the vehicle travels. The driver can safely place the vehicle in the parking space with peace of mind.

(3)本発明は、(2)に記載する車両周辺監視装置において、表示手段に背景画像を表示する際、撮像画像の座標から表示手段の表示画面の座標に対応が成され、該表示画面上での表示割り当てを行なう座標変換処理手段を備えるので、(2)に記載する効果よりも確実に車両の死角領域おける車両の位置を把握することができ、運転者は安心して車両を正確に駐車スペースに納めることができる効果が得られる。 (3) According to the present invention, in the vehicle periphery monitoring device described in (2), when a background image is displayed on the display means, the coordinates of the display screen of the display means are corresponded from the coordinates of the captured image, and the display screen Since the coordinate conversion processing means for assigning the display above is provided, the position of the vehicle in the blind spot area of the vehicle can be grasped more reliably than the effect described in (2), and the driver can accurately and accurately identify the vehicle. The effect which can be stored in a parking space is acquired.

(4)本発明は、(1)乃至(3)に記載のいずれか一つに記載の車両周辺監視装置において、撮像手段は車両の周囲に設けられた複数のカメラであり、表示画面上での表示割り当ては、カメラ位置より決定されるので、(1)乃至(3)に記載する効果よりも確実に車両の死角領域おける車両の位置を把握することができ、運転者は安心して車両を正確に駐車スペースに納めることができる効果が得られる。 (4) The present invention is the vehicle periphery monitoring device according to any one of (1) to (3), wherein the imaging means is a plurality of cameras provided around the vehicle, and is on a display screen. Since the display assignment is determined from the camera position, the position of the vehicle in the blind spot area of the vehicle can be grasped more reliably than the effects described in (1) to (3), and the driver can safely The effect that it can be accurately stored in the parking space is obtained.

以下、本発明の実施例について説明する。
まず、本発明の車両周辺監視装置の構成と処理の流れについて図1をもとに説明する。図1に示すように、本発明の車両周辺監視装置は、撮像装置1、撮像装置2、切替処理手段3、画像入力手段4、キャプチャバッファ5、キャプチャバッファ6、座標変換処理手段7、座標変換テーブル8、表示バッファ9、描画処理手段11、表示装置12、車速センサ13、ヨーレートセンサ14、移動量推定処理手段15、座標変換テーブル作成処理手段16などから構成されている。図1にも示すように、切替処理手段3、画像入力手段4、キャプチャバッファ5、キャプチャバッファ6、座標変換処理手段7、座標変換テーブル8、表示バッファ9、描画処理手段11、移動量推定処理手段15、座標変換テーブル作成処理手段16により構成される部分が画像処理装置に該当する。
Examples of the present invention will be described below.
First, the configuration and processing flow of the vehicle periphery monitoring device of the present invention will be described with reference to FIG. As shown in FIG. 1, the vehicle periphery monitoring device of the present invention includes an imaging device 1, an imaging device 2, a switching processing unit 3, an image input unit 4, a capture buffer 5, a capture buffer 6, a coordinate conversion processing unit 7, and a coordinate conversion. The table 8, display buffer 9, drawing processing means 11, display device 12, vehicle speed sensor 13, yaw rate sensor 14, movement amount estimation processing means 15, coordinate conversion table creation processing means 16, etc. As shown also in FIG. 1, switching processing means 3, image input means 4, capture buffer 5, capture buffer 6, coordinate conversion processing means 7, coordinate conversion table 8, display buffer 9, drawing processing means 11, movement amount estimation processing The part constituted by the means 15 and the coordinate conversion table creation processing means 16 corresponds to the image processing apparatus.

そして、これらの構成による処理の流れとしては、以下のとおりである。まず、切替処理手段3にて、撮像装置1および撮像装置2にて撮像する画像を所定の時間毎に切替ながら、画像データとしてキャプチャバッファ5およびキャプチャバッファ6に入力する。この時、入力される画像データはキャプチャバッファ5およびキャプチャバッファ6に順次保存させておく。キャプチャバッファ5は撮像装置1により撮像された画像データを時系列で記憶する。また、キャプチャバッファ6は撮像装置2により撮像された画像データを時系列で記憶する。   And the flow of the process by these structures is as follows. First, the switching processing means 3 inputs the image captured by the imaging device 1 and the imaging device 2 to the capture buffer 5 and the capture buffer 6 as image data while switching the image every predetermined time. At this time, the input image data is sequentially stored in the capture buffer 5 and the capture buffer 6. The capture buffer 5 stores image data picked up by the image pickup apparatus 1 in time series. Further, the capture buffer 6 stores image data captured by the imaging device 2 in time series.

座標変換テーブル8には、表示装置12に車両の周辺の画像を背景画像として表示する際に表示画像(座標:u,v)上で、どの領域(例えば、図3および図4に示す一点鎖線で示される領域)に撮像装置1および撮像装置2からの(現在の)画像データ(カメラ座標:x、yで示される)を持ってくるのかを定義した座標が設定されている情報が予め作成されている一方で、キャプチャバッファ5およびキャプチャバッファ6に保存している表示装置12に画像を表示する際に表示画像上でどの領域に撮像装置1および撮像装置2からの(過去の)画像データ(カメラ座標:x、yで示される)を持ってくるのかを定義した座標が設定されている情報(以下、過去画像座標情報という)が入力されている。そして、この過去画像座標情報は、車速およびヨーレートからの検出データをもとに作成している。以上の内容を具体的な処理の流れで説明すると、以下のとおりである。まず、車速センサ13やヨーレートセンサ14からの検出データをもとに、移動量推定処理手段15により車両の進行方向と移動量を公知の幾何学的な演算によって推定する。次に、この推定した車両の進行方向と移動量に応じて、座標変換テーブル作成処理手段16により上記の過去画像座標情報を作成する。そして、予め現在の撮像画像を使用する座標を定義するための情報が作成されている座標変換テーブル8に、この過去画像座標情報が順次入力される。   In the coordinate conversion table 8, when displaying an image around the vehicle as a background image on the display device 12, which region (for example, one-dot chain line shown in FIGS. 3 and 4) on the display image (coordinates: u, v). Information in which coordinates defining whether (current) image data (camera coordinates: indicated by x, y) from the imaging device 1 and the imaging device 2 are to be brought into the area) are created in advance. On the other hand, when displaying an image on the display device 12 stored in the capture buffer 5 and the capture buffer 6, the image data from the image pickup device 1 and the image pickup device 2 to which region on the display image is displayed. Information (hereinafter referred to as past image coordinate information) in which coordinates defining whether to bring (camera coordinates: indicated by x, y) is set is input. The past image coordinate information is created based on detection data from the vehicle speed and the yaw rate. The above contents will be described in the specific process flow as follows. First, based on detection data from the vehicle speed sensor 13 and the yaw rate sensor 14, the travel amount estimation processing means 15 estimates the traveling direction and the travel amount of the vehicle by a known geometric calculation. Next, the past image coordinate information is created by the coordinate conversion table creation processing means 16 in accordance with the estimated traveling direction and movement amount of the vehicle. Then, the past image coordinate information is sequentially input to the coordinate conversion table 8 in which information for defining coordinates using the current captured image is created in advance.

座標変換処理手段7では、座標変換テーブル8の情報に従い、現在の撮像画像およびキャプチャバッファ5およびキャプチャバッファ6に保存される現在および過去の画像データをもとに合成画像を車両周辺の背景画像として作成する。作成した合成画像は表示バッファ9へ入力され、描画処理手段11にて描画の処理(車両の軌跡などを画像上に加える処理など)を行った後に表示装置12に出力される。   The coordinate conversion processing means 7 uses the composite image as a background image around the vehicle based on the current captured image and the current and past image data stored in the capture buffer 5 and the capture buffer 6 according to the information in the coordinate conversion table 8. create. The created composite image is input to the display buffer 9 and is output to the display device 12 after the drawing processing means 11 performs drawing processing (processing such as adding a vehicle trajectory or the like on the image).

そこで、実施例のより具体的な説明をする。本実施例の車両周辺監視装置1は、図2に示すように左側のドアミラーの位置に撮像装置1としてカメラC1を、車両前方のバンパーの左側のフロントフェンダー先端部の位置に撮像装置2としてカメラC2を設置している。さらに詳細には、カメラC1はドアミラー下部にて前方斜め下向き、カメラC2はフロントフェンダー先端部にて前方斜め下向きに設置している。そして、カメラC1とカメラC2により撮像した画像は車内に設置されるモニター(表示装置12)に表示される。運転者はこのモニター画像を見ることで車両の周辺について確認することができる。なお、運転者が確認しやすいように、モニター画像としては、カメラC1およびカメラC2の撮像画像に基づいて画像処理により作成した車両の上面から見た上面視図の画像とする。   Therefore, a more specific description of the embodiment will be given. As shown in FIG. 2, the vehicle periphery monitoring device 1 of the present embodiment has a camera C1 as the imaging device 1 at the position of the left door mirror, and a camera as the imaging device 2 at the position of the front fender tip on the left side of the bumper in front of the vehicle. C2 is installed. More specifically, the camera C1 is installed diagonally forward and downward at the lower part of the door mirror, and the camera C2 is installed diagonally forward and downward at the front fender tip. And the image imaged with the camera C1 and the camera C2 is displayed on the monitor (display apparatus 12) installed in the vehicle. The driver can check the periphery of the vehicle by looking at the monitor image. In order to make it easy for the driver to confirm, the monitor image is an image of a top view as seen from the top surface of the vehicle created by image processing based on the captured images of the cameras C1 and C2.

次に、実際の場面の一例として、車両を駐車レーンに納める場合を説明する。図2に示すように、車両の前方には白線により仕切られた駐車レーンがあり、レーン内部には輪止めWが設置してある。そこで、まず運転者は車両を駐車レーンに進入させる際に、車内に設置される死角領域確認スイッチ17をONにする。すると、カメラC1およびカメラC2の撮像画像が画像データとして画像処理装置に保存される。   Next, as an example of an actual scene, a case where a vehicle is placed in a parking lane will be described. As shown in FIG. 2, there is a parking lane partitioned by a white line in front of the vehicle, and a wheel stopper W is installed inside the lane. Therefore, the driver first turns on the blind spot area confirmation switch 17 installed in the vehicle when the vehicle enters the parking lane. Then, the captured images of the cameras C1 and C2 are stored in the image processing apparatus as image data.

ここで、車両を駐車レーンへの進入を開始した当初は、カメラC1およびカメラC2の撮像領域に輪止めWが存在するので輪止めWが撮像されて、モニター上に表示される。しかし、図2の状態から車両を徐々に駐車レーン内に進めていくと、ある時点で輪止めWが車両の下部の死角領域に入ってしまい、輪止めWがカメラC1およびカメラC2の撮像領域から外れてしまう。   Here, when the vehicle starts to enter the parking lane, since the wheel stopper W exists in the imaging area of the camera C1 and the camera C2, the wheel stopper W is imaged and displayed on the monitor. However, when the vehicle is gradually advanced into the parking lane from the state shown in FIG. 2, the wheel stopper W enters the blind spot area at the lower part of the vehicle at a certain point in time, and the wheel stopper W becomes the imaging area of the camera C1 and the camera C2. It will come off.

しかしながら、本発明では、上記のようにカメラC1およびカメラC2の撮像画像が車両の進行に合わせて過去の撮像画像として画像処理装置に保存されている。そこで、画像処理装置のキャプチャバッファ5,6に保存しておいたカメラC1およびカメラC2の過去の撮像画像とカメラC1、カメラC2の現在の撮像画像とを合成する。具体的には図3、図4に示すように合成画像には、モニター画像の上方左側の画像領域A1にカメラC1の現在の撮像画像を、モニター画像の上方右側の画像領域A2にカメラC2の現在の撮像画像を、そして、現在の車両位置では運転者にとって死角領域となるモニター画像で車両に隠れる画像領域A3にカメラC1およびカメラC2の過去の撮像画像を配置する。カメラC1およびカメラC2の過去の撮像画像には輪止めWの画像も撮像されていることから、合成画像上には輪止めWの画像も配置されることになる。   However, in the present invention, as described above, the captured images of the cameras C1 and C2 are stored in the image processing apparatus as past captured images as the vehicle travels. Therefore, the past captured images of the cameras C1 and C2 stored in the capture buffers 5 and 6 of the image processing apparatus are combined with the current captured images of the cameras C1 and C2. Specifically, as shown in FIGS. 3 and 4, the composite image includes the current captured image of the camera C1 in the upper left image area A1 of the monitor image and the camera C2 in the upper right image area A2 of the monitor image. The current captured image and the past captured images of the cameras C1 and C2 are arranged in an image area A3 that is hidden in the vehicle by a monitor image that is a blind spot area for the driver at the current vehicle position. Since the images of the wheel stopper W are also captured in the past captured images of the cameras C1 and C2, the image of the wheel stopper W is also arranged on the composite image.

さらに、合成画像の上にスーパーインポーズにより実際の車両形状に合わせた車両の画像を加える。車両の画像としては、図3のようにその車両の輪郭のみを表示してもよい。このように、車両の輪郭のみを表示した場合には、死角領域が車両の輪郭に対して鮮明に表示されるので、死角領域における細かい情報を運転者は認識することができる長所がある。一方、図4のように車両の部分を半透明(車両の位置する領域において車両下方に存在するものが透けて見える状態)にしても良い。この半透明の画像は、1画素ごとに過去の撮像画像と車両の外観の画像を交互に配置することや、画像のブレンディング処理により作成される。このように、半透明の画像を表示した場合には、死角領域における車両の位置が瞬時に正確に運転者は認識できる長所がある。以上のような車両の画像を加えた合成画像をモニターに表示することにより、運転者は車両の死角領域における輪止めWと車両との位置関係の把握が容易となり、安心して所定の駐車スペースに正確に車両を納めることができる。本実施例では、輪止めWが存在する場合を説明したが、輪止めWが存在せず、ただ白線を頼りに所定の駐車レーン内に車両を納める必要がある場合にも、運転者は車両の死角領域における白線と車両の位置関係の把握が容易となるので、安心して所定の駐車スペースに正確に車両を納めることができる。   Further, a vehicle image that matches the actual vehicle shape is added on the composite image by superimposing. As a vehicle image, only the outline of the vehicle may be displayed as shown in FIG. Thus, when only the outline of the vehicle is displayed, the blind spot area is clearly displayed with respect to the outline of the vehicle, so that the driver can recognize detailed information in the blind spot area. On the other hand, as shown in FIG. 4, the vehicle portion may be made translucent (a state where a vehicle existing in a region where the vehicle is located can be seen through). This translucent image is created by alternately arranging past captured images and images of the appearance of the vehicle for each pixel or by blending the images. Thus, when a translucent image is displayed, there is an advantage that the driver can instantly and accurately recognize the position of the vehicle in the blind spot area. By displaying a composite image with the vehicle image as described above on the monitor, the driver can easily grasp the positional relationship between the wheel stopper W and the vehicle in the blind spot area of the vehicle, and can safely put it in a predetermined parking space. The vehicle can be delivered accurately. In the present embodiment, the case where the wheel stopper W exists has been described. However, the driver can also use the vehicle even when the wheel stopper W does not exist and the vehicle needs to be placed in a predetermined parking lane relying on the white line. Since it is easy to grasp the positional relationship between the white line and the vehicle in the blind spot area, the vehicle can be accurately placed in a predetermined parking space.

また本発明では、上記のように、移動量推定処理手段15および座標変換テーブル作成処理手段16を有することから、車速センサより得られる車速とヨーレートセンサにより得られるヨーレートに対応する車両の死角領域の画像がモニター表示される。そのため、車速やヨーレートが変化した場合であっても、運転者は確実に車両の死角領域における輪止めW(白線)と車両の位置関係の把握が容易となるので、モニター表示で確認しつつ所定の駐車スペースに正確に車両を納めることができる。   In addition, as described above, the present invention includes the movement amount estimation processing unit 15 and the coordinate conversion table creation processing unit 16, so that the vehicle blind spot region corresponding to the vehicle speed obtained from the vehicle speed sensor and the yaw rate obtained from the yaw rate sensor can be obtained. The image is displayed on the monitor. Therefore, even when the vehicle speed or the yaw rate changes, the driver can easily grasp the positional relationship between the wheel stopper W (white line) and the vehicle in the blind spot area of the vehicle, so that the predetermined display while confirming on the monitor display is possible. The vehicle can be accurately placed in the parking space.

以上のような実施例により以下のような効果が得られる。
(1)本発明は、車両の周辺を撮像するカメラC1およびカメラC2と、カメラC1およびカメラC2により撮像された撮像画像を背景画像として表示する表示装置12とを備え、カメラC1およびカメラC2によって車両の周辺監視を行う車両周辺監視装置において、表示装置12には背景画像にあわせて、車両が透けた状態で表示されるので、車両の死角領域(例えば、車両の下方等)における車両の位置を把握でき、運転者は安心して車両を正確に駐車スペースに納めることができる効果が得られる。
The following effects are obtained by the embodiment as described above.
(1) The present invention includes a camera C1 and a camera C2 that capture the periphery of a vehicle, and a display device 12 that displays a captured image captured by the camera C1 and the camera C2 as a background image. The camera C1 and the camera C2 In the vehicle periphery monitoring device that performs vehicle periphery monitoring, the display device 12 displays the vehicle in a transparent state in accordance with the background image. Therefore, the position of the vehicle in the blind spot region of the vehicle (for example, below the vehicle). Thus, the driver can feel safe and accurately place the vehicle in the parking space.

(2)本発明は、(1)に記載する車両周辺監視装置において、撮像画像を保存するキャプチャバッファ5およびキャプチャバッファ6を備え、背景画像は、カメラC1およびカメラC2により撮像された現在画像とキャプチャバッファ5およびキャプチャバッファ6に保存された過去画像を合成して作成されるので、(1)に記載する効果に加えて、合成画像の現在画像と過去画像とから、車両が進行したとしても車両の死角領域における車両の位置を把握でき、運転者は安心して車両を正確に駐車スペースに納めることができる効果が得られる。 (2) The present invention includes the capture buffer 5 and the capture buffer 6 that store the captured image in the vehicle periphery monitoring device described in (1), and the background image is the current image captured by the camera C1 and the camera C2. Since the past images stored in the capture buffer 5 and the capture buffer 6 are combined and created, in addition to the effect described in (1), even if the vehicle progresses from the current image and the past image of the composite image The position of the vehicle in the blind spot area of the vehicle can be grasped, and the driver can obtain the effect that the vehicle can be accurately placed in the parking space with peace of mind.

(3)本発明は、(2)に記載する車両周辺監視装置において、表示装置12に背景画像を表示する際、撮像画像の座標から表示装置12の表示画面の座標に対応が成され、撮像画像を表示画面上のどの位置に表示するかの表示割り当てを行なう座標変換処理手段を備えるので、(2)に記載する効果よりも確実に車両の死角領域おける車両の位置を把握することができ、運転者は安心して車両を正確に駐車スペースに納めることができる効果が得られる。 (3) According to the present invention, in the vehicle periphery monitoring device described in (2), when a background image is displayed on the display device 12, the coordinates of the display screen of the display device 12 are made to correspond to the coordinates of the captured image. Since coordinate conversion processing means for assigning the display of an image to be displayed on the display screen is provided, the position of the vehicle in the blind spot area of the vehicle can be grasped more reliably than the effect described in (2). The driver can safely place the vehicle in the parking space with peace of mind.

(4)本発明は、(1)乃至(3)に記載のいずれか一つに記載の車両周辺監視装置において、撮像手段は車両の周囲に設けられた複数のカメラであり、表示画面上での表示割り当ては、カメラ位置より決定されるので、(1)乃至(3)に記載する効果よりも確実に車両の死角領域おける車両の位置を把握することができ、運転者は安心して車両を正確に駐車スペースに納めることができる効果が得られる。 (4) The present invention is the vehicle periphery monitoring device according to any one of (1) to (3), wherein the imaging means is a plurality of cameras provided around the vehicle, and is on a display screen. Since the display assignment is determined from the camera position, the position of the vehicle in the blind spot area of the vehicle can be grasped more reliably than the effects described in (1) to (3), and the driver can safely The effect that it can be accurately stored in the parking space is obtained.

尚、本発明は前記実施形態に限定されるものではなく、その趣旨を逸脱しない範囲で様
々な変更が可能である。
In addition, this invention is not limited to the said embodiment, A various change is possible in the range which does not deviate from the meaning.

本発明のシステム構成と処理の流れを示す図である。It is a figure which shows the system configuration | structure of this invention, and the flow of a process. 駐車レーンへ車両を進入させる様子を示す図である。It is a figure which shows a mode that a vehicle is approached to a parking lane. 車両の死角領域の画像に車両の輪郭画像を合成させた図である。It is the figure which synthesize | combined the outline image of the vehicle with the image of the blind spot area | region of the vehicle. 車両の死角領域の画像に車両の半透明画像を合成させた図である。It is the figure which combined the semi-transparent image of the vehicle with the image of the blind spot area of the vehicle. 特許文献1のカメラの配置を示す概要図である。It is a schematic diagram which shows arrangement | positioning of the camera of patent document 1. FIG. 特許文献1の表示画面の概要図である。10 is a schematic diagram of a display screen of Patent Document 1. FIG.

符号の説明Explanation of symbols

3 切替処理手段
4 画像入力手段
5 キャプチャバッファ
6 キャプチャバッファ
7 座標変換処理手段
8 座標変換テーブル
9 表示バッファ
11 描画処理手段
12 表示装置
13 車速センサ
14 ヨーレートセンサ
15 移動量推定処理手段
16 座標変換テーブル作成処理手段
17 死角領域確認スイッチ
C1 カメラ
C2 カメラ
3 switching processing means 4 image input means 5 capture buffer 6 capture buffer 7 coordinate conversion processing means 8 coordinate conversion table 9 display buffer 11 drawing processing means 12 display device 13 vehicle speed sensor 14 yaw rate sensor 15 movement amount estimation processing means 16 coordinate conversion table creation Processing means 17 Blind spot area confirmation switch C1 camera C2 camera

Claims (4)

車両の周辺を撮像する撮像手段と、該撮像手段により撮像された撮像画像を背景画像として表示する表示手段とを備え、該表示手段によって車両の周辺監視を行う車両周辺監視装置において、
前記表示手段には背景画像にあわせて、前記車両が透けた状態で表示されることを特徴とする車両周辺装置。
In a vehicle periphery monitoring apparatus that includes an imaging unit that captures the periphery of a vehicle and a display unit that displays a captured image captured by the imaging unit as a background image.
The vehicle peripheral device, wherein the display means displays the vehicle in a transparent state in accordance with a background image.
前記撮像画像を保存する画像保存手段を備え、
前記背景画像は、前記撮像手段により撮像された現在画像と前記画像保存手段に保存された過去画像を合成して作成されることを特徴とする請求項1に記載の車両周辺監視装置。
Image storage means for storing the captured image;
2. The vehicle periphery monitoring device according to claim 1, wherein the background image is created by synthesizing a current image captured by the imaging unit and a past image stored in the image storage unit.
前記表示手段に背景画像を表示する際、前記撮像画像の座標から前記表示手段の表示画面の座標に対応が成され、前記撮像画像を前記表示画面上のどの位置に表示するかの表示割り当てを行なう座標変換処理手段を備えることを特徴とする請求項2に記載の車両周辺監視装置。   When displaying the background image on the display means, the coordinates of the captured image correspond to the coordinates of the display screen of the display means, and the display assignment as to which position on the display screen the captured image is to be displayed. The vehicle periphery monitoring device according to claim 2, further comprising coordinate conversion processing means for performing the operation. 前記撮像手段は前記車両の周囲に設けられた複数のカメラであり、表示画面上での表示割り当ては、カメラ位置より決定されることを特徴とする請求項1乃至請求項3のいずれか一つに記載の車両周辺監視装置。
The image pickup means is a plurality of cameras provided around the vehicle, and display assignment on the display screen is determined from a camera position. The vehicle periphery monitoring device described in 1.
JP2005050726A 2005-02-25 2005-02-25 Vehicle periphery monitoring device Pending JP2006238131A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005050726A JP2006238131A (en) 2005-02-25 2005-02-25 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005050726A JP2006238131A (en) 2005-02-25 2005-02-25 Vehicle periphery monitoring device

Publications (1)

Publication Number Publication Date
JP2006238131A true JP2006238131A (en) 2006-09-07

Family

ID=37045284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005050726A Pending JP2006238131A (en) 2005-02-25 2005-02-25 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP2006238131A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008046398A1 (en) 2007-09-10 2009-04-30 Toyota Jidosha Kabushiki Kaisha, Toyota Apparatus for generating a composite image and computer-readable medium for storing a program to cause a computer to function as a composite image-producing apparatus
JP2013541915A (en) * 2010-12-30 2013-11-14 ワイズ オートモーティブ コーポレーション Blind Spot Zone Display Device and Method
JP2014116756A (en) * 2012-12-07 2014-06-26 Toyota Motor Corp Periphery monitoring system
WO2014156220A1 (en) * 2013-03-28 2014-10-02 アイシン精機株式会社 Periphery monitoring device and program
DE102014204872A1 (en) * 2014-03-17 2015-09-17 Volkswagen Aktiengesellschaft Viewing environmental information in a vehicle
US9450371B2 (en) 1998-11-25 2016-09-20 Imra America, Inc. Mode-locked multi-mode fiber laser pulse source
JP2016213708A (en) * 2015-05-11 2016-12-15 トヨタ自動車株式会社 Vehicle display device
US9659223B2 (en) 2012-11-16 2017-05-23 Denso Corporation Driving assistance apparatus and driving assistance method
WO2019026246A1 (en) * 2017-08-03 2019-02-07 三菱電機株式会社 Vehicle periphery image display device and vehicle periphery image display method
DE102016226299B4 (en) 2016-12-29 2025-01-02 Robert Bosch Gmbh Method and device for displaying an environment of a vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354467A (en) * 2001-05-25 2002-12-06 Nissan Motor Co Ltd Vehicle surrounding information display device
JP2003199093A (en) * 2001-12-28 2003-07-11 Matsushita Electric Ind Co Ltd Driving support device, image output device, and rod with camera
JP2003204547A (en) * 2001-10-15 2003-07-18 Matsushita Electric Ind Co Ltd Vehicle periphery monitoring device and adjustment method thereof
JP2003306105A (en) * 2002-04-11 2003-10-28 Mitsubishi Motors Corp Start support device
JP2004336613A (en) * 2003-05-12 2004-11-25 Denso Corp Vehicle surroundings display device and vehicle surroundings display program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354467A (en) * 2001-05-25 2002-12-06 Nissan Motor Co Ltd Vehicle surrounding information display device
JP2003204547A (en) * 2001-10-15 2003-07-18 Matsushita Electric Ind Co Ltd Vehicle periphery monitoring device and adjustment method thereof
JP2003199093A (en) * 2001-12-28 2003-07-11 Matsushita Electric Ind Co Ltd Driving support device, image output device, and rod with camera
JP2003306105A (en) * 2002-04-11 2003-10-28 Mitsubishi Motors Corp Start support device
JP2004336613A (en) * 2003-05-12 2004-11-25 Denso Corp Vehicle surroundings display device and vehicle surroundings display program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9450371B2 (en) 1998-11-25 2016-09-20 Imra America, Inc. Mode-locked multi-mode fiber laser pulse source
US8094170B2 (en) 2007-09-10 2012-01-10 Toyota Jidosha Kabushiki Kaisha Composite image-generating device and computer-readable medium storing program for causing computer to function as composite image-generating device
DE102008046398A1 (en) 2007-09-10 2009-04-30 Toyota Jidosha Kabushiki Kaisha, Toyota Apparatus for generating a composite image and computer-readable medium for storing a program to cause a computer to function as a composite image-producing apparatus
JP2013541915A (en) * 2010-12-30 2013-11-14 ワイズ オートモーティブ コーポレーション Blind Spot Zone Display Device and Method
US9659223B2 (en) 2012-11-16 2017-05-23 Denso Corporation Driving assistance apparatus and driving assistance method
JP2014116756A (en) * 2012-12-07 2014-06-26 Toyota Motor Corp Periphery monitoring system
US9956913B2 (en) 2013-03-28 2018-05-01 Aisin Seiki Kabushiki Kaisha Surroundings-monitoring device and computer program product
WO2014156220A1 (en) * 2013-03-28 2014-10-02 アイシン精機株式会社 Periphery monitoring device and program
CN105009574A (en) * 2013-03-28 2015-10-28 爱信精机株式会社 Periphery monitoring device and program
EP2981077A4 (en) * 2013-03-28 2016-04-06 Aisin Seiki DEVICE AND PROGRAM FOR PERIPHERAL SURVEILLANCE
US10710504B2 (en) 2013-03-28 2020-07-14 Aisin Seiki Kabushiki Kaisha Surroundings-monitoring device and computer program product
CN105009574B (en) * 2013-03-28 2018-07-17 爱信精机株式会社 Periphery monitoring apparatus and environment monitoring method, recording medium
DE102014204872A1 (en) * 2014-03-17 2015-09-17 Volkswagen Aktiengesellschaft Viewing environmental information in a vehicle
DE102014204872B4 (en) * 2014-03-17 2018-03-22 Volkswagen Aktiengesellschaft A method and display system for displaying environmental information of a vehicle
JP2016213708A (en) * 2015-05-11 2016-12-15 トヨタ自動車株式会社 Vehicle display device
DE102016226299B4 (en) 2016-12-29 2025-01-02 Robert Bosch Gmbh Method and device for displaying an environment of a vehicle
WO2019026246A1 (en) * 2017-08-03 2019-02-07 三菱電機株式会社 Vehicle periphery image display device and vehicle periphery image display method
JPWO2019026246A1 (en) * 2017-08-03 2019-11-07 三菱電機株式会社 Vehicle periphery image display device and vehicle periphery image display method
CN110945866A (en) * 2017-08-03 2020-03-31 三菱电机株式会社 Vehicle surrounding image display device and vehicle surrounding image display method
US20200215977A1 (en) * 2017-08-03 2020-07-09 Mitsubishi Electric Corporation Vehicle periphery image display device and vehicle periphery image display method
US10960820B2 (en) 2017-08-03 2021-03-30 Mitsubishi Electric Corporation Vehicle periphery image display device and vehicle periphery image display method
CN110945866B (en) * 2017-08-03 2021-07-27 三菱电机株式会社 Vehicle surrounding image display device and vehicle surrounding image display method

Similar Documents

Publication Publication Date Title
JP4815993B2 (en) Parking support method and parking support device
JP5143235B2 (en) Control device and vehicle surrounding monitoring device
JP3945467B2 (en) Vehicle retraction support apparatus and method
JP4412380B2 (en) Driving support device, driving support method, and computer program
CN103108796B (en) The method of assisting vehicle shut-down operation, driver assistance system and power actuated vehicle
JP6642906B2 (en) Parking position detection system and automatic parking system using the same
US9683861B2 (en) Estimated route presentation apparatus and estimated route presentation method
WO2007015446A1 (en) Device for monitoring around vehicle and method for monitoring around vehicle
JP2008284969A (en) Parking assistance device
JP6375633B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2020068515A (en) Image processing device
JP2010028432A (en) Parking support system and image display method
JP2012176656A (en) Parking support device
JP2012136206A (en) System and method for parking control
TW201526638A (en) Obstacle detection and display system for vehicle
JP4687411B2 (en) Vehicle peripheral image processing apparatus and program
JP2006238131A (en) Vehicle periphery monitoring device
JP4092479B2 (en) Vehicle driving support device
JP5510900B2 (en) Parking assistance device
JP2010218058A (en) Device and method for supporting driving
JP2016213708A (en) Vehicle display device
JP2005343417A (en) Parking assist device
JP2012166689A (en) Driving assistance apparatus
JP5943207B2 (en) Video display device for vehicle parking operation support
JP2008294616A (en) Driving support system and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100923

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110526

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110615

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20110930