[go: up one dir, main page]

JP2012004693A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2012004693A
JP2012004693A JP2010135706A JP2010135706A JP2012004693A JP 2012004693 A JP2012004693 A JP 2012004693A JP 2010135706 A JP2010135706 A JP 2010135706A JP 2010135706 A JP2010135706 A JP 2010135706A JP 2012004693 A JP2012004693 A JP 2012004693A
Authority
JP
Japan
Prior art keywords
distance
image
image data
obstacle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010135706A
Other languages
Japanese (ja)
Inventor
Nobuyuki Ichino
信幸 市野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2010135706A priority Critical patent/JP2012004693A/en
Publication of JP2012004693A publication Critical patent/JP2012004693A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving support device allowing easier recognition of a distance from a vehicle to obstacles.SOLUTION: The driving support device comprises: an extraction unit 5 for extracting pixel columns corresponding to positions, at which distance markers L1 and L2 are overwritten, from images taken by on-board cameras 1a and 1b; a creation unit 6 that determines whether or not any obstacle is imaged at the pixel columns or not, and creates a third image data indicating a portion X1' of an obstacle X1 when the obstacle X1 is imaged; a composition unit 7 for creating composite image data, indicating a composite image in which the portion X1' of the obstacle X1 is additionally written over the distance markers that are written over the images taken, when the creation unit 6 creates the third image data; and a display 3 for displaying the created composite image.

Description

本発明は、車載カメラにより撮像された車両周辺の撮像画像を車室内に設けられた表示画面に表示する運転支援装置に関する発明である。   The present invention relates to a driving support device that displays a captured image of a periphery of a vehicle captured by an in-vehicle camera on a display screen provided in a vehicle interior.

従来、縦列駐車や車庫入れ等の運転を支援するための装置として、車載カメラにより路面を含む車両周辺を撮像し、この撮像画像に、車両からの距離を示す複数の距離線(距離マーカ)を車幅方向に延びるように重畳表示して、車室内の表示画面に表示する運転支援装置が知られている(例えば、特許文献1)。   Conventionally, as an apparatus for assisting driving such as parallel parking and garage parking, a vehicle periphery including a road surface is imaged by an in-vehicle camera, and a plurality of distance lines (distance markers) indicating the distance from the vehicle are displayed on the captured image There has been known a driving support device that displays a superimposed display so as to extend in the vehicle width direction and displays it on a display screen in a vehicle interior (for example, Patent Document 1).

特開平11−334470号公報JP-A-11-334470

しかしながら、車載カメラが路面を含むように車両周辺を撮像すると、障害物(立体物)は撮像画像の奥行き方向(車両から離れる方向)の路面と重なるように写るため、上述した特許文献1に提案されている運転支援装置によれば、例えば車両からの距離が0.4mの位置に障害物が存在する場合であっても、撮像画像中では車両からの距離が0.5mであることを示す距離マーカがこの障害物に重畳表示されることがある。   However, when the vehicle-mounted camera images the vehicle periphery so as to include the road surface, the obstacle (three-dimensional object) appears to overlap the road surface in the depth direction of the captured image (the direction away from the vehicle). According to the driving assistance apparatus being used, for example, even when there is an obstacle at a distance of 0.4 m from the vehicle, the distance from the vehicle is 0.5 m in the captured image. A distance marker may be superimposed on the obstacle.

そして、このように車両から障害物までの距離よりも長い距離を示す距離マーカが、この障害物に重畳表示されることにより、運転者は、距離マーカが示す距離(0.5m)よりも奥行き方向の遠い位置に障害物が存在しているように誤認(錯覚)してしまう虞があった。   And the distance marker which shows the distance longer than the distance from a vehicle to an obstacle in this way is superimposed on this obstacle, and a driver | operator is deeper than the distance (0.5m) which a distance marker shows. There is a risk of misperception (illusion) that an obstacle exists at a far position in the direction.

本発明は上記事情に鑑みなされたものであり、車両から障害物までの距離感を把握しやすくすることのできる運転支援装置を提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a driving support device capable of easily grasping a sense of distance from a vehicle to an obstacle.

本発明に係る運転支援装置は、撮像画像のうち距離マーカが上書きされる位置に対応する画素列に障害物が写っているか否かを判定し、障害物が写っている場合には、この障害物の部分を表す画像を距離マーカに上書きして、距離マーカが消されたような合成画像を表示するものである。   The driving support device according to the present invention determines whether or not an obstacle appears in the pixel row corresponding to the position where the distance marker is overwritten in the captured image. An image representing a part of an object is overwritten on the distance marker, and a composite image in which the distance marker is erased is displayed.

すなわち、本発明に係る運転支援装置は、車両周辺を撮像する車載カメラと、前記車載カメラにより撮像された撮像画像を表す第1画像データを記憶する第1記憶部と、前記撮像画像に上書きされるように設定された、前記車両からの距離を示す距離マーカを表す第2画像データを記憶する第2記憶部と、前記撮像画像のうち前記距離マーカが上書きされる位置に対応する画素列を抽出する抽出部と、前記画素列に障害物が写っているか否かを判定し、前記障害物が写っていると判定した場合には前記画素列に写る障害物の部分を表す第3画像データを生成する生成部と、前記第1画像データおよび前記第2画像データに基づいて前記撮像画像に前記距離マーカを上書きし、前記生成部が前記第3画像データを生成した場合には前記第3画像データに基づいて前記距離マーカに前記障害物の部分をさらに上書きした合成画像を表す合成画像データを生成する合成部と、前記合成画像を表示する表示部と、を有することを特徴とする。   That is, the driving support apparatus according to the present invention overwrites the captured image with the in-vehicle camera that captures the periphery of the vehicle, the first storage unit that stores the first image data representing the captured image captured by the in-vehicle camera. A second storage unit configured to store second image data representing a distance marker indicating a distance from the vehicle, and a pixel row corresponding to a position where the distance marker is overwritten in the captured image. An extraction unit for extracting and determining whether or not an obstacle is reflected in the pixel row, and when it is determined that the obstacle is reflected, third image data representing a portion of the obstacle reflected in the pixel row And a generation unit that overwrites the distance marker on the captured image based on the first image data and the second image data, and the generation unit generates the third image data when the generation unit generates the third image data. image And having a combining unit for generating a composite image data representing a composite image portion was further overwriting of the obstacle on the distance marker based on chromatography data, and a display unit for displaying the composite image.

このように構成された本発明に係る運転支援装置によれば、抽出部が、撮像画像のうち距離マーカが上書きされる位置に対応する画素列を抽出し、生成部が、画素列に障害物が写っているか否かを判定し、障害物が写っていると判定した場合には、この画素列に写る障害物の部分を表す第3画像データを生成し、合成部が、撮像画像に距離マーカを上書きし、生成部が第3画像データを生成した場合には距離マーカに障害物の部分をさらに上書きした合成画像を表す合成画像データを生成するため、あたかも距離マーカが消されたような合成画像が表示され、距離マーカよりも手前に位置する障害物が距離マーカで隠されることがなくなるので車両から障害物までの距離感を把握しやすくすることができる。   According to the driving support apparatus according to the present invention configured as described above, the extraction unit extracts a pixel column corresponding to a position where the distance marker is overwritten in the captured image, and the generation unit includes an obstacle in the pixel column. Is determined, and if it is determined that the obstacle is captured, third image data representing the portion of the obstacle captured in the pixel row is generated, and the combining unit detects the distance to the captured image. When the marker is overwritten and the generation unit generates the third image data, the composite image data representing the composite image in which the obstacle portion is further overwritten on the distance marker is generated, so that the distance marker is erased. Since the composite image is displayed and the obstacle positioned in front of the distance marker is not hidden by the distance marker, the sense of distance from the vehicle to the obstacle can be easily grasped.

本発明に係る運転支援装置によれば、車両から障害物までの距離感を把握しやすくすることができる。   According to the driving support device of the present invention, it is possible to easily grasp the sense of distance from the vehicle to the obstacle.

本実施形態の運転支援装置の構成を示すブロック図である。It is a block diagram which shows the structure of the driving assistance device of this embodiment. 従来の運転支援装置の車載カメラ(リヤカメラ)による撮像状況を示した一例である。It is an example which showed the imaging condition with the vehicle-mounted camera (rear camera) of the conventional driving assistance apparatus. (a)は、図2の車載カメラによる撮像画像を示す図であり、(b)は、(a)の撮像画像に対して従来の運転支援装置による画像処理が行われた後の合成画像を示す図である。(A) is a figure which shows the picked-up image by the vehicle-mounted camera of FIG. 2, (b) is a composite image after the image processing by the conventional driving assistance apparatus is performed with respect to the picked-up image of (a). FIG. 図1の運転支援装置の車載カメラによる撮像状況を示した一例である。It is an example which showed the imaging condition with the vehicle-mounted camera of the driving assistance device of FIG. 図1の運転支援装置による画像処理の流れを説明する図である。It is a figure explaining the flow of the image processing by the driving assistance device of FIG. 図5の波形B,Cの拡大図である。FIG. 6 is an enlarged view of waveforms B and C in FIG. 5. 図1の合成部による合成処理を示す図である。It is a figure which shows the synthetic | combination process by the synthetic | combination part of FIG.

以下、本発明の運転支援装置を実現する実施の形態を、図面に基づいて説明する。   Hereinafter, an embodiment for realizing a driving support device of the present invention will be described with reference to the drawings.

図1は、本実施形態の運転支援装置100の構成を示すブロック図である。図1に示すように、本実施形態の運転支援装置100は、車載カメラ1a,1bと、車載カメラ1a,1bにより撮像された撮像画像に対して画像処理を行う画像処理手段2と、画像処理手段2により画像処理が行われた後の画像(合成画像)を表示するモニタ3(表示部)と、を有する。   FIG. 1 is a block diagram illustrating a configuration of the driving support apparatus 100 of the present embodiment. As shown in FIG. 1, the driving support apparatus 100 according to the present embodiment includes in-vehicle cameras 1a and 1b, image processing means 2 that performs image processing on captured images captured by the in-vehicle cameras 1a and 1b, and image processing. And a monitor 3 (display unit) for displaying an image (composite image) after the image processing is performed by the means 2.

車載カメラ1a,1bは、車載カメラ1aと車載カメラ1bから構成されるステレオカメラである。これら車載カメラ1a,1bは、いずれも光軸を同じ方向に向けて設けられ、路面を含む車両周辺を撮像する。   The in-vehicle cameras 1a and 1b are stereo cameras composed of the in-vehicle camera 1a and the in-vehicle camera 1b. These vehicle-mounted cameras 1a and 1b are both provided with the optical axis directed in the same direction, and image the vehicle periphery including the road surface.

また、画像処理手段2には、図1に示すように、デコーダ4、抽出部5、生成部6、合成部7、エンコーダ8、第1メモリ9(第1記憶部)、第2メモリ10(第2記憶部)および第3メモリ11が設けられている。   As shown in FIG. 1, the image processing means 2 includes a decoder 4, an extraction unit 5, a generation unit 6, a synthesis unit 7, an encoder 8, a first memory 9 (first storage unit), and a second memory 10 ( A second storage unit) and a third memory 11 are provided.

デコーダ4は、車載カメラ1a,1bにより入力された撮像画像の画像データをデコードするものである。また、抽出部5は、車載カメラ1a,1bによるそれぞれの撮像画像について、距離マーカが上書きされる位置に対応する画素列の画像データを抽出するものである。   The decoder 4 decodes the image data of the captured image input by the in-vehicle cameras 1a and 1b. Moreover, the extraction part 5 extracts the image data of the pixel row | line corresponding to the position where a distance marker is overwritten about each picked-up image by vehicle-mounted camera 1a, 1b.

ここで、距離マーカとは、撮像画像に上書きされるように仮想的に設定された、車両からの距離Dを示す車幅方向に延びた複数の距離線をいう(図3(b),図7の距離マーカL1,L2参照)。   Here, the distance marker means a plurality of distance lines that are virtually set to be overwritten on the captured image and that extend in the vehicle width direction indicating the distance D from the vehicle (FIG. 3B, FIG. 3). 7 distance markers L1 and L2).

生成部6は、図1に示すように、抽出部5が抽出した画素列の画像データに基づいて、画素列に写る路面と路面以外との境界位置(エッジ位置)を検知する検知部12と、車載カメラ1a,1bによるステレオ視差に基づいて、車両から、抽出部5により抽出された画素列に写る被写体までの距離Dx(図5参照)を測定する距離測定部13が設けられている。   As illustrated in FIG. 1, the generation unit 6 includes a detection unit 12 that detects a boundary position (edge position) between a road surface and a surface other than the road surface that are reflected in the pixel row based on the image data of the pixel row extracted by the extraction unit 5. A distance measuring unit 13 is provided for measuring a distance Dx (see FIG. 5) from the vehicle to the subject shown in the pixel row extracted by the extracting unit 5 based on the stereo parallax by the in-vehicle cameras 1a and 1b.

さらに、生成部6は、検知部12により検知されたエッジ位置、距離測定部13により測定された車両から被写体までの距離Dxに基づいて、画素列に障害物が写っているか否かを判定し、障害物が写っている場合には、抽出された画素列に写る障害物の部分を表す第3画像データ(図7参照)を生成するように構成されている。   Further, the generation unit 6 determines whether an obstacle is reflected in the pixel row based on the edge position detected by the detection unit 12 and the distance Dx from the vehicle to the subject measured by the distance measurement unit 13. In the case where an obstacle is shown, third image data (see FIG. 7) representing the part of the obstacle shown in the extracted pixel row is generated.

また、第1メモリ9は、デコーダ4から車載カメラ1a,1bのいずれか一方による撮像画像の画像データが出力され(本実施例では、車載カメラ1aによる撮像画像の画像データが出力されることとする)、この出力された画像データ(第1画像データ)を記憶するものである。   The first memory 9 outputs image data of a captured image from either the in-vehicle camera 1a or 1b from the decoder 4 (in this embodiment, output of image data of an image captured by the in-vehicle camera 1a). The output image data (first image data) is stored.

そして、第2メモリ10は、撮像画像に上書きされるように仮想的に設定された複数の距離マーカ(本実施例では、車両からの0.5m離れた位置を示す距離マーカL1および車両から1.0m離れた位置を示す距離マーカL2)を表す第2画像データを記憶するものであり、さらに、第3メモリ11は、生成部6により生成された第3画像データを記憶するものである。   Then, the second memory 10 includes a plurality of distance markers that are virtually set to be overwritten on the captured image (in this embodiment, a distance marker L1 indicating a position 0.5 m away from the vehicle and 1 from the vehicle). The second image data representing the distance marker L2) indicating a position separated by .0 m is stored, and the third memory 11 stores the third image data generated by the generating unit 6.

また、これら第1メモリ9、第2メモリ10および第3メモリ11には、合成部7が接続されている。この合成部7は、第1画像データおよび第2画像データに基づいて撮像画像に距離マーカを上書きし、生成部6が第3画像データを生成した場合には、この第3画像データに基づいて、距離マーカに障害物の部分をさらに上書きした合成画像を表す合成画像データを生成するものである。   The synthesizing unit 7 is connected to the first memory 9, the second memory 10, and the third memory 11. The synthesizing unit 7 overwrites the captured image with a distance marker based on the first image data and the second image data, and when the generating unit 6 generates the third image data, the synthesizing unit 7 is based on the third image data. The composite image data representing the composite image in which the obstacle marker is further overwritten on the distance marker is generated.

さらに、合成部7により生成された合成画像データをエンコードするエンコーダ8が設けられている。このエンコーダ8は、車室内に設けられモニタ3に送信するものであり、モニタ3は合成画像を表示画面に表示するものである。   Furthermore, an encoder 8 that encodes the composite image data generated by the combining unit 7 is provided. The encoder 8 is provided in the vehicle interior and transmits to the monitor 3, and the monitor 3 displays a composite image on the display screen.

次に、運転支援装置100による画像処理について、[従来の運転支援装置による画像処理]、[抽出処理]、[エッジ位置検知処理]、[距離測定処理]、[第3画像データ生成処理]および[画像合成処理]に分けて説明する。   Next, regarding image processing by the driving support device 100, [image processing by a conventional driving support device], [extraction processing], [edge position detection processing], [distance measurement processing], [third image data generation processing] and This will be described separately in [Image composition processing].

[従来の運転支援装置による画像処理]
図2は、従来の運転支援装置の車載カメラによる撮像状況を示した一例であり、図3(a)は、図2の車載カメラ(リヤカメラ)による撮像画像を示す図であり、図3(b)は、図3(a)の撮像画像に対して従来の運転支援装置による画像処理が行われた後の合成画像を示す図である。
[Image processing by conventional driving support devices]
FIG. 2 is an example showing a state of imaging by a vehicle-mounted camera of a conventional driving support device, and FIG. 3A is a diagram showing a captured image by the vehicle-mounted camera (rear camera) of FIG. ) Is a diagram showing a composite image after image processing by the conventional driving support device is performed on the captured image of FIG.

例えば、図2に示すような状況において従来の運転支援装置の車載カメラ(リヤカメラ)が路面を含む車両周辺を撮像すると、図3(a)に示すような撮像画像が得られる。   For example, when the vehicle-mounted camera (rear camera) of the conventional driving support apparatus captures the vehicle periphery including the road surface in the situation as shown in FIG. 2, a captured image as shown in FIG. 3A is obtained.

ここで、図2,3に示す障害物X1,X2はいずれも立体物であって、障害物X1は車両から0.4m離れた位置に存在し、障害物X2は車両から0.9m離れた位置に存在する。   Here, the obstacles X1 and X2 shown in FIGS. 2 and 3 are both solid objects, and the obstacle X1 is present at a position 0.4 m away from the vehicle, and the obstacle X2 is 0.9 m away from the vehicle. Exists in position.

また、路面には、車幅よりもわずかに広い間隔を空けて一対の白線が描かれている。なお、図2および図3(a)に示す破線は、車両から0.5m,1.0m離れた位置を表すための仮想線である。   In addition, a pair of white lines are drawn on the road surface with an interval slightly wider than the vehicle width. The broken lines shown in FIGS. 2 and 3 (a) are imaginary lines for representing positions 0.5 m and 1.0 m away from the vehicle.

そして、図3(a)に示す撮像画像に対して従来の運転支援装置による画像処理が行われると、図3(b)に示すように、撮像画像に距離マーカL1(D=0.5m)及び距離マーカL2(D=1.0m)が重畳表示された合成画像がモニタに表示される。   Then, when image processing by the conventional driving support device is performed on the captured image shown in FIG. 3A, a distance marker L1 (D = 0.5 m) is displayed on the captured image as shown in FIG. 3B. And a composite image on which the distance marker L2 (D = 1.0 m) is superimposed and displayed.

しかし、この合成画像では、障害物X1が距離マーカL1で隠され、また、障害物X2が距離マーカL2で隠される。   However, in this composite image, the obstacle X1 is hidden by the distance marker L1, and the obstacle X2 is hidden by the distance marker L2.

このため、運転者は、車両から0.4m離れた位置に存在する障害物X1が距離マーカL1が示す距離D(=0.5m)よりも奥行き方向の遠い位置に障害物が存在しているように、また、車両から0.9m離れた位置に存在する障害物X2が距離マーカL2が示す距離D(=1.0m)よりも奥行き方向の遠い位置に障害物が存在しているように誤認(錯覚)してしまう虞がある。   For this reason, the driver has an obstacle at a position farther in the depth direction than the distance D (= 0.5 m) indicated by the distance marker L1. In addition, the obstacle X2 present at a position 0.9 m away from the vehicle seems to be present at a position farther in the depth direction than the distance D (= 1.0 m) indicated by the distance marker L2. There is a risk of misunderstanding (illusion).

これに対し、本実施形態の運転支援装置100では、以下のような画像処理を行うことにより、車両から障害物までの距離感を把握しやすくすることができる。   On the other hand, in the driving assistance device 100 of the present embodiment, it is possible to easily grasp the sense of distance from the vehicle to the obstacle by performing the following image processing.

[抽出処理]
図4は、図1の運転支援装置100の車載カメラ1a,1bによる撮像状況を示した一例であり、図5は、図1の運転支援装置100による画像処理の流れを説明する図である。
[Extraction process]
FIG. 4 is an example showing an imaging situation by the in-vehicle cameras 1a and 1b of the driving support apparatus 100 in FIG. 1, and FIG. 5 is a diagram for explaining the flow of image processing by the driving support apparatus 100 in FIG.

図4に示すように、図2に示す状況と同様の状況において運転支援装置100の車載カメラ1a,1bが路面を含む車両周辺を撮像する場合について説明する。   As shown in FIG. 4, a case will be described in which the in-vehicle cameras 1a and 1b of the driving assistance apparatus 100 image the vehicle periphery including the road surface in a situation similar to the situation shown in FIG.

まず、車載カメラ1a,1bは、撮像画像の画像データをデコーダ4に出力する。そして、デコーダ4はこれらの画像データをデコードして抽出部5に出力する。   First, the in-vehicle cameras 1 a and 1 b output image data of captured images to the decoder 4. Then, the decoder 4 decodes these image data and outputs them to the extraction unit 5.

そして、抽出部5には、距離マーカL1,L2が示す車両からの距離D(=0.5m,1.0m)が予め記憶されており、抽出部5は、この距離D(=0.5m,1.0m)に基づいて、車載カメラ1a,1bによるそれぞれの撮像画像について距離マーカL1,L2が上書きされる位置に対応する画素列の画像データ(本実施例では、輝度信号とする)を抽出する。   The extraction unit 5 stores in advance a distance D (= 0.5 m, 1.0 m) from the vehicle indicated by the distance markers L1 and L2, and the extraction unit 5 stores the distance D (= 0.5 m). , 1.0 m), pixel image data (in this embodiment, a luminance signal) corresponding to the position where the distance markers L1, L2 are overwritten for the respective captured images by the in-vehicle cameras 1a, 1b. Extract.

例えば、距離マーカL1が上書きされる位置に対応する画素列の輝度信号とは、図5の波形A1,A2のようなものである。   For example, the luminance signal of the pixel column corresponding to the position where the distance marker L1 is overwritten is like the waveforms A1 and A2 in FIG.

すなわち、車両から0.5m離れた位置を図5の破線(仮想線)で示すと、距離マーカL1が上書きされる位置に対応する画素列には、この仮想線に沿った路面が写ることとなる。   That is, when a position 0.5 m away from the vehicle is indicated by a broken line (virtual line) in FIG. 5, a road surface along the virtual line appears in the pixel row corresponding to the position where the distance marker L1 is overwritten. Become.

しかし、仮想線よりも手前に位置する障害物X1(車両からの距離Dx=0.4m)が存在することにより、障害物X1の一部が仮想線に沿った路面に重なるように、この画素列に写る。ここで、この画素列に写る障害物X1の一部を「障害物X1の部分X1´」という。   However, since there is an obstacle X1 (distance Dx = 0.4 m from the vehicle) located in front of the imaginary line, this pixel is arranged such that a part of the obstacle X1 overlaps the road surface along the imaginary line. It appears in the column. Here, a part of the obstacle X1 reflected in the pixel row is referred to as “part X1 ′ of the obstacle X1”.

そして、路面は通常輝度が低く、障害物X1の部分X1´の方が路面と比較して輝度が高いため、図5の波形A1,A2に示すように、一部の輝度が高くなっている輝度信号が抽出される。   And since the road surface is usually low in luminance and the portion X1 ′ of the obstacle X1 is higher in luminance than the road surface, some of the luminance is high as shown by the waveforms A1 and A2 in FIG. A luminance signal is extracted.

なお、この抽出部5による抽出処理は、処理の迅速化を図り、手前の距離マーカL1についてのみ抽出処理し、そのほかの奥行き方向に離れた距離マーカ(距離マーカL2など)については抽出処理を行わないように構成することも可能である。   The extraction process by the extraction unit 5 is intended to speed up the process, and only the distance marker L1 in the foreground is extracted, and the other distance markers (such as the distance marker L2) that are separated in the depth direction are extracted. It is also possible to configure so that there is no.

[エッジ位置検知処理]
図6は、図5の波形B,Cの拡大図である。抽出部5は、抽出した画素列の輝度信号(例えば、図5の波形A1,A2)を生成部6の検知部12に出力する。そして、検知部12は、画素列に写る路面と路面以外とのエッジ位置の検知を行う。
[Edge position detection processing]
FIG. 6 is an enlarged view of waveforms B and C in FIG. The extraction unit 5 outputs the extracted luminance signal (for example, the waveforms A1 and A2 in FIG. 5) of the pixel column to the detection unit 12 of the generation unit 6. And the detection part 12 detects the edge position of the road surface reflected in a pixel row | line | column, and other than a road surface.

具体的には、まず、検知部12は、画素列の輝度信号(図6の波形B1=図5に示す波形A1)を左方向にずらし(図6の波形B2)、その差分を求める(図6の波形B3)。   Specifically, first, the detection unit 12 shifts the luminance signal of the pixel column (waveform B1 in FIG. 6 = waveform A1 shown in FIG. 5) to the left (waveform B2 in FIG. 6), and obtains the difference (FIG. 6 waveform B3).

次に、検知部12は、画素列の輝度信号(図6の波形B1)を右方向にずらし(図6の波形B4)、その差分を求める(図6の波形B5)。   Next, the detection unit 12 shifts the luminance signal of the pixel column (waveform B1 in FIG. 6) to the right (waveform B4 in FIG. 6), and obtains the difference (waveform B5 in FIG. 6).

そして、検知部12は、これらの差分(波形B3と波形B5)を組み合わせて輝度の差を強調し(図6の波形B6)、この輝度の差が強調された位置をエッジ位置として検知する。   Then, the detection unit 12 combines these differences (waveform B3 and waveform B5) to emphasize the luminance difference (waveform B6 in FIG. 6), and detects the position where the luminance difference is emphasized as an edge position.

この検知部12によるエッジ位置の検知は、車載カメラ1a,1bによるそれぞれの撮像画像について行う。   The detection of the edge position by the detection unit 12 is performed for each captured image by the in-vehicle cameras 1a and 1b.

また、図5、図6に示す波形Cを、図5に示す波形D1,D2のように平滑化処理し、差分が特に大きい部分についてのみエッジ位置として検知するように構成することも可能である。   Further, the waveform C shown in FIGS. 5 and 6 can be smoothed like the waveforms D1 and D2 shown in FIG. 5, and only a portion having a particularly large difference can be detected as an edge position. .

[距離測定処理]
検知部12によりエッジ位置が検知された後、距離測定部13は、検知されたエッジ位置に基づいて、路面以外の被写体(障害物の候補)を特定し、この特定した被写体から車両までの距離Dxを測定する。
[Distance measurement processing]
After the edge position is detected by the detection unit 12, the distance measurement unit 13 specifies a subject (candidate for obstacle) other than the road surface based on the detected edge position, and the distance from the specified subject to the vehicle. Measure Dx.

すなわち、例えば図5に示すように、特定された被写体に対する車載カメラ1a,1bの光軸となす視線角度θ1,θ2(または特定された画素に対する撮像素子における中心位置からの距離d1,d2)と、車載カメラ1a,1bの焦点距離f,fと、車載カメラ1a,1b間の距離Lと、に基づいて被写体から車両までの距離Dxを測定する。   That is, for example, as shown in FIG. 5, the line-of-sight angles θ1 and θ2 (or the distances d1 and d2 from the center position of the image sensor to the specified pixel) with respect to the specified subject and the optical axes of the in-vehicle cameras 1a and 1b. The distance Dx from the subject to the vehicle is measured based on the focal lengths f and f of the in-vehicle cameras 1a and 1b and the distance L between the in-vehicle cameras 1a and 1b.

(平面物と立体物との区別)
ここで、抽出された画素列には、障害物X1,X2のような立体物だけでなく、例えば路面に描かれた白線のように、道路標識(平面物)が写っている場合がある。
(Distinction between flat objects and solid objects)
Here, in the extracted pixel row, not only a three-dimensional object such as the obstacles X1 and X2, but also a road sign (planar object), such as a white line drawn on the road surface, may appear.

そして、このような平面物の画像についても、抽出された画素列の輝度信号において輝度が高くなるため、検知部12によりエッジ位置が検知され、距離測定部13による距離測定処理が行われる。   Further, since the brightness of the image of such a planar object also increases in the extracted luminance signal of the pixel row, the edge position is detected by the detection unit 12 and the distance measurement process by the distance measurement unit 13 is performed.

しかし、この平面物の画像について、立体物の画像と同様に第3画像データとして生成し、距離マーカL1,L2で隠されることのないように距離マーカL1,L2に平面物の画像を上書きすると、運転者により、平面物が距離マーカL1,L2よりも手前に位置する立体物であるように錯覚される虞がある。   However, if this flat object image is generated as third image data in the same manner as the three-dimensional object image and the distance marker L1, L2 is overwritten with the flat object image so as not to be hidden by the distance markers L1, L2, There is a possibility that the driver may have the illusion that the planar object is a three-dimensional object positioned in front of the distance markers L1 and L2.

このため、生成部6は、第3画像データの生成に際して、画素列に写る路面以外の被写体が立体物であるか平面物であるかを区別する。   Therefore, when generating the third image data, the generation unit 6 distinguishes whether the subject other than the road surface shown in the pixel row is a three-dimensional object or a planar object.

具体的には、距離マーカL1が上書きされる位置に対応する画素列に、路面に描かれた白線が写っている場合、距離測定部13が測定した白線から車両までの距離Dxは、距離マーカL1が示す距離Dと等しくなる(Dx=D=0.5m)。   Specifically, when the white line drawn on the road surface is reflected in the pixel row corresponding to the position where the distance marker L1 is overwritten, the distance Dx from the white line measured by the distance measuring unit 13 to the vehicle is the distance marker. It becomes equal to the distance D indicated by L1 (Dx = D = 0.5 m).

このため、生成部6は、距離測定部13が測定した距離Dと距離マーカL1が示す距離Dxとが等しい場合には、この被写体は路面に描かれた白線などの道路標識(平面物)であるとして平面物と立体物とを区別する。   Therefore, when the distance D measured by the distance measuring unit 13 is equal to the distance Dx indicated by the distance marker L1, the generating unit 6 is a road sign (planar object) such as a white line drawn on the road surface. A plane object and a three-dimensional object are distinguished as being.

上記のように、生成部6は、平面物と立体物との区別を行い、抽出された画素列に立体物(障害物)が写っているか否かを判定する。   As described above, the generation unit 6 distinguishes between a planar object and a three-dimensional object, and determines whether a three-dimensional object (obstacle) is reflected in the extracted pixel row.

なお、本実施例における障害物X1,X2は、距離測定部13により測定された距離Dx(=0.4m,0.9m)が、距離マーカL1が示す距離D(=0.5m,1.0m)よりも短いため立体物であると区別され、生成部6は、抽出された画素列にこれら障害物X1,X2が写っていると判定する。   In the present embodiment, the obstacles X1 and X2 have the distance Dx (= 0.4 m, 0.9 m) measured by the distance measuring unit 13 and the distance D (= 0.5 m, 1.. Since it is shorter than 0 m), it is distinguished as a three-dimensional object, and the generation unit 6 determines that these obstacles X1 and X2 are reflected in the extracted pixel row.

[第3画像データ生成処理]
図7は、図1の合成部7による合成処理を示す図である。
[Third image data generation processing]
FIG. 7 is a diagram showing a composition process by the composition unit 7 in FIG.

図7に示すように、第1画像データが表す画像(すなわち、撮像画像)を第1レイヤ、第2画像データが表す画像(すなわち、距離マーカL1,L2の画像)を第2レイヤ、第3画像データが表す画像(すなわち、障害物X1の部分X1´の画像)を第3レイヤとする。   As shown in FIG. 7, the image represented by the first image data (that is, the captured image) is the first layer, and the image represented by the second image data (that is, the images of the distance markers L1 and L2) is the second layer and the third layer. The image represented by the image data (that is, the image of the part X1 ′ of the obstacle X1) is set as the third layer.

上記のように、生成部6は、平面物と立体物との区別を行い、立体物である障害物X1が画素列に写っていると判定した場合には、この障害物X1の部分X1´の画像を表す第3画像データを生成する。   As described above, the generation unit 6 distinguishes between a planar object and a three-dimensional object, and when it is determined that the obstacle X1 that is a three-dimensional object is reflected in the pixel row, the portion X1 ′ of the obstacle X1 The third image data representing the image is generated.

第3画像データの生成に際し、生成部6は、検知されたエッジ位置に基づいて図5に示すような波形Eを求める。この波形Eは、障害物X1の部分X1´の画像を、図7に示す第3画像レイヤとして描画するためのタイミング(障害物X1の部分X1´が写る画素の、撮像画像における位置)を表している。   When generating the third image data, the generation unit 6 obtains a waveform E as shown in FIG. 5 based on the detected edge position. This waveform E represents the timing for drawing the image of the part X1 ′ of the obstacle X1 as the third image layer shown in FIG. 7 (the position in the captured image of the pixel in which the part X1 ′ of the obstacle X1 appears). ing.

そして、生成部6は、波形Eに基づいて、障害物X1の部分X1´の画像を第3画像レイヤとして描画し、その他のタイミングでは撮像画像の描画を行わないことにより、第3画像レイヤ(すなわち、第3画像データ)を生成する。   Then, the generation unit 6 draws the image of the part X1 ′ of the obstacle X1 as the third image layer based on the waveform E, and does not draw the captured image at other timings, so that the third image layer ( That is, the third image data) is generated.

また、生成部6は、生成した第3画像データを第3メモリ11に出力し、第3メモリ11は、この第3画像データを記憶する。   Further, the generation unit 6 outputs the generated third image data to the third memory 11, and the third memory 11 stores the third image data.

[画像合成処理]
図7に示すように、合成部7は、図7に示すように、第1画像データが表す第1画像レイヤおよび第2画像データが表す第2画像レイヤに基づいて撮像画像に距離マーカを上書きした合成画像を表す合成画像データを生成する。
[Image composition processing]
As illustrated in FIG. 7, the combining unit 7 overwrites the captured image with a distance marker based on the first image layer represented by the first image data and the second image layer represented by the second image data, as illustrated in FIG. 7. The synthesized image data representing the synthesized image is generated.

また、生成部6が第3画像データを生成した場合には、この合成部7は、図7に示すように、この第3画像データが表す第3画像レイヤに基づいて距離マーカに障害物の部分をさらに上書きした合成画像を表す合成画像データを生成する。   In addition, when the generation unit 6 generates the third image data, the combining unit 7 displays the obstacle marker on the distance marker based on the third image layer represented by the third image data, as shown in FIG. Composite image data representing a composite image in which the portion is further overwritten is generated.

これにより、距離マーカL1よりも手前に位置する障害物X1、距離マーカL2よりも手前に位置する障害物X2がそれぞれ距離マーカL1,L2で隠されることのない合成画像が、エンコーダ8を介してモニタ3により表示される。   As a result, a composite image in which the obstacle X1 positioned in front of the distance marker L1 and the obstacle X2 positioned in front of the distance marker L2 are not hidden by the distance markers L1 and L2 via the encoder 8 is obtained. Displayed by the monitor 3.

このように構成された本実施形態に係る運転支援装置100によれば、抽出部5が、撮像画像のうち距離マーカL1,L2が上書きされる位置に対応する画素列を抽出し、生成部6が、画素列に障害物が映っているか否かを判定し、障害物が写っていると判定した場合には、この画素列に写る障害物X1の部分X1´を表す第3画像データを生成し、合成部7が、撮像画像に距離マーカを上書きし、生成部6が第3画像データを生成した場合には距離マーカに障害物の部分をさらに上書きした合成画像を表す合成画像データを生成するため、障害物X1が写っている画素についてはあたかも距離マーカL1が消されたような合成画像がモニタ3に表示され、距離マーカL1,L2よりも手前に位置する障害物X1,X2が距離マーカL1,L2で隠されることがなくなり、車両から障害物X1,X2までの距離感を把握しやすくすることができる。   According to the driving support apparatus 100 according to the present embodiment configured as described above, the extraction unit 5 extracts a pixel row corresponding to a position where the distance markers L1 and L2 are overwritten in the captured image, and the generation unit 6 Determines whether or not an obstacle is reflected in the pixel row, and if it is determined that the obstacle is reflected, generates third image data representing the portion X1 ′ of the obstacle X1 reflected in the pixel row. Then, when the synthesizing unit 7 overwrites the distance marker on the captured image and the generating unit 6 generates the third image data, the synthesizing image data representing the synthesized image in which the obstacle marker is further overwritten on the distance marker is generated. Therefore, for the pixel in which the obstacle X1 is shown, a composite image as if the distance marker L1 is erased is displayed on the monitor 3, and the obstacles X1 and X2 positioned in front of the distance markers L1 and L2 are distanced. Markers L1, L In concealed it eliminates, it is possible to easily grasp the sense of distance from the vehicle to the obstacle X1, X2.

さらに、生成部6は、抽出された画素列に写る被写体から車両までの距離Dxを測定する距離測定部13を有し、距離測定部13により測定された距離Dxが、距離マーカL1が示す距離Dよりも短い場合には、被写体が障害物であると判定するため、例えば路面に描かれた白線などの道路標識(平面物)については第3画像データとしては生成せず、道路標識が立体物であるように認識されることを防ぐことができる。   Furthermore, the generation unit 6 includes a distance measurement unit 13 that measures a distance Dx from the subject to the vehicle shown in the extracted pixel row, and the distance Dx measured by the distance measurement unit 13 is the distance indicated by the distance marker L1. If it is shorter than D, it is determined that the subject is an obstacle. For example, a road sign (planar object) such as a white line drawn on the road surface is not generated as the third image data, and the road sign is solid. It can be prevented from being recognized as an object.

そして、生成部6は、抽出された画素列の画像データに基づいて、画素列に写る被写体のうち路面と路面以外との境界位置(エッジ位置)を検知する検知部12を有し、距離測定部13は、検知部12により検知されたエッジ位置に基づいて距離を測定すべき被写体を特定するため、距離測定の対象となる被写体を減らすことができ、演算処理を迅速に行うことができる。   Then, the generation unit 6 includes a detection unit 12 that detects a boundary position (edge position) between the road surface and other than the road surface among the subjects captured in the pixel row based on the extracted image data of the pixel row, and measures the distance. Since the unit 13 identifies the subject whose distance is to be measured based on the edge position detected by the detection unit 12, it is possible to reduce the number of subjects whose distance is to be measured, and to perform the calculation process quickly.

また、検知部12は、画素列の輝度信号に基づいてエッジ位置を検知するため、少ない演算処理量で障害物X1の部分X1´の画像を第3画像レイヤとして描画するためのタイミング(波形E)を求めることができる。   Further, since the detection unit 12 detects the edge position based on the luminance signal of the pixel column, the timing (waveform E) for rendering the image of the part X1 ′ of the obstacle X1 as the third image layer with a small amount of calculation processing. ).

また、合成部7は、第1画像レイヤ、第2画像レイヤ、第3画像レイヤを用いて合成画像(合成画像データ)を生成するするため、撮像画像を表す第1画像データに対して直接信号処理する場合に比べて処理量を少なくすることができる。   Moreover, since the synthesis unit 7 generates a synthesized image (synthesized image data) using the first image layer, the second image layer, and the third image layer, a direct signal is output with respect to the first image data representing the captured image. The amount of processing can be reduced compared with the case of processing.

(変形例1)
上述した実施形態では、検知部12が画素列の輝度信号に基づいてエッジ位置を検知する場合について説明したが、本発明に係る運転支援装置はこのような形態に限定されるものではなく、例えば、検知部12は、画素列の色信号に基づいてエッジ位置を検知する構成としてもよい。
(Modification 1)
In the above-described embodiment, the case where the detection unit 12 detects the edge position based on the luminance signal of the pixel row has been described. However, the driving support device according to the present invention is not limited to such a form, for example, The detection unit 12 may be configured to detect the edge position based on the color signal of the pixel column.

このように構成された運転支援装置によれば、路面との輝度の差が小さい障害物についてもエッジ位置を検知することができる。   According to the driving support apparatus configured as described above, the edge position can be detected even for an obstacle with a small difference in luminance from the road surface.

(変形例2)
また、上述した実施形態では、合成部7が、第1画像レイヤ、第2画像レイヤ、第3画像レイヤを用いて合成画像(合成画像データ)を生成する場合について説明したが、本発明の運転支援装置は、距離マーカよりも手前に位置する障害物が距離マーカで隠されることがないような合成画像がモニタに表示されればよく、例えば、撮像画像に対して直接信号処理を行う構成を採用することも可能である。
(Modification 2)
In the above-described embodiment, the case where the synthesis unit 7 generates a synthesized image (synthesized image data) using the first image layer, the second image layer, and the third image layer has been described. The support device only needs to display a composite image on the monitor so that an obstacle positioned in front of the distance marker is not hidden by the distance marker. For example, the support device has a configuration in which signal processing is performed directly on the captured image. It is also possible to adopt.

1a,1b 車載カメラ
2 画像処理手段
3 モニタ(表示部)
5 抽出部
6 生成部
7 合成部
9 第1メモリ(第1記憶部)
10 第2メモリ(第2記憶部)
11 第3メモリ
100 運転支援装置
1a, 1b Car-mounted camera 2 Image processing means 3 Monitor (display unit)
5 Extracting Unit 6 Generating Unit 7 Combining Unit 9 First Memory (First Storage Unit)
10 Second memory (second storage unit)
11 Third memory 100 Driving support device

Claims (5)

車両周辺を撮像する車載カメラと、前記車載カメラにより撮像された撮像画像を表す第1画像データを記憶する第1記憶部と、前記撮像画像に上書きされるように設定された、前記車両からの距離を示す距離マーカを表す第2画像データを記憶する第2記憶部と、前記撮像画像のうち前記距離マーカが上書きされる位置に対応する画素列を抽出する抽出部と、前記画素列に障害物が写っているか否かを判定し、前記障害物が写っていると判定した場合には前記画素列に写る障害物の部分を表す第3画像データを生成する生成部と、前記第1画像データおよび前記第2画像データに基づいて前記撮像画像に前記距離マーカを上書きし、前記生成部が前記第3画像データを生成した場合には前記第3画像データに基づいて前記距離マーカに前記障害物の部分をさらに上書きした合成画像を表す合成画像データを生成する合成部と、前記合成画像を表示する表示部と、を有することを特徴とする運転支援装置。   An in-vehicle camera that images the periphery of the vehicle, a first storage unit that stores first image data representing a captured image captured by the in-vehicle camera, and the vehicle that is set to be overwritten on the captured image. A second storage unit that stores second image data representing a distance marker indicating a distance; an extraction unit that extracts a pixel column corresponding to a position where the distance marker is overwritten in the captured image; and a failure in the pixel column A generation unit that determines whether or not an object is captured, and that determines that the obstacle is captured; generates a third image data representing a portion of the obstacle captured in the pixel row; and the first image The distance marker is overwritten on the captured image based on the data and the second image data, and when the generation unit generates the third image data, the obstacle marker is added to the distance marker based on the third image data. Driving support apparatus characterized by comprising: a synthesizing unit for generating synthetic image data representing a composite image is overwritten with the portion of the object Additionally, a display unit displaying the composite image. 前記生成部は、前記画素列に写る被写体から車両までの距離を測定する距離測定部を有し、前記距離測定部により測定された距離が、前記距離マーカが示す距離よりも短い場合には、前記被写体が前記障害物であると判定することを特徴とする請求項1に記載の運転支援装置。   The generation unit includes a distance measurement unit that measures a distance from a subject captured in the pixel row to a vehicle, and when the distance measured by the distance measurement unit is shorter than the distance indicated by the distance marker, The driving support device according to claim 1, wherein the subject is determined to be the obstacle. 前記生成部は、前記画素列の画像データに基づいて、前記画素列に写る被写体のうち路面と路面以外との境界位置を検知する検知部を有し、
前記距離測定部は、前記検知部により検知された前記境界位置に基づいて前記距離を測定すべき被写体を特定することを特徴とする請求項2に記載の運転支援装置。
The generation unit includes a detection unit that detects a boundary position between a road surface and a non-road surface among subjects captured in the pixel column based on image data of the pixel column,
The driving assistance device according to claim 2, wherein the distance measurement unit specifies a subject whose distance is to be measured based on the boundary position detected by the detection unit.
前記検知部は、前記画素列の輝度信号に基づいて、前記境界位置を検知することを特徴とする請求項3に記載の運転支援装置。   The driving support device according to claim 3, wherein the detection unit detects the boundary position based on a luminance signal of the pixel row. 前記検知部は、前記画素列の色信号に基づいて、前記境界位置を検知することを特徴とする請求項3に記載の運転支援装置。   The driving support device according to claim 3, wherein the detection unit detects the boundary position based on a color signal of the pixel column.
JP2010135706A 2010-06-15 2010-06-15 Driving support device Pending JP2012004693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010135706A JP2012004693A (en) 2010-06-15 2010-06-15 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010135706A JP2012004693A (en) 2010-06-15 2010-06-15 Driving support device

Publications (1)

Publication Number Publication Date
JP2012004693A true JP2012004693A (en) 2012-01-05

Family

ID=45536219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010135706A Pending JP2012004693A (en) 2010-06-15 2010-06-15 Driving support device

Country Status (1)

Country Link
JP (1) JP2012004693A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2505926A (en) * 2012-09-14 2014-03-19 Sony Corp Display of Depth Information Within a Scene
CN115131992A (en) * 2022-06-29 2022-09-30 福建盛海智能科技有限公司 Vehicle blind area barrier warning method and terminal based on binocular camera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07186833A (en) * 1993-12-24 1995-07-25 Nissan Motor Co Ltd Surrounding condition display device for vehicles
JPH10117340A (en) * 1996-10-11 1998-05-06 Yazaki Corp Vehicle periphery monitoring device, alarm display method used in this device, and medium storing this display method
JP2001224013A (en) * 2000-02-09 2001-08-17 Sony Corp Driving support device and driving support method
JP2005236540A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd In-vehicle camera device
JP2009093332A (en) * 2007-10-05 2009-04-30 Nissan Motor Co Ltd Vehicle periphery image processing apparatus and vehicle periphery state presentation method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07186833A (en) * 1993-12-24 1995-07-25 Nissan Motor Co Ltd Surrounding condition display device for vehicles
JPH10117340A (en) * 1996-10-11 1998-05-06 Yazaki Corp Vehicle periphery monitoring device, alarm display method used in this device, and medium storing this display method
JP2001224013A (en) * 2000-02-09 2001-08-17 Sony Corp Driving support device and driving support method
JP2005236540A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd In-vehicle camera device
JP2009093332A (en) * 2007-10-05 2009-04-30 Nissan Motor Co Ltd Vehicle periphery image processing apparatus and vehicle periphery state presentation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2505926A (en) * 2012-09-14 2014-03-19 Sony Corp Display of Depth Information Within a Scene
CN115131992A (en) * 2022-06-29 2022-09-30 福建盛海智能科技有限公司 Vehicle blind area barrier warning method and terminal based on binocular camera

Similar Documents

Publication Publication Date Title
US8044781B2 (en) System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor
CN103988499B (en) Vehicle periphery monitoring apparatus
CN104723991B (en) Parking assistance system and parking assistance method for vehicle
JP5408198B2 (en) Video display device and video display method
JP6091586B1 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
CN103692973B (en) Video generation device, image display system and image generating method
EP2631696B1 (en) Image generator
JP2006341641A (en) Video display device and video display method
JP5516998B2 (en) Image generation device
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
EP2414776B1 (en) Vehicle handling assistant apparatus
WO2009119110A1 (en) Blind spot display device
WO2012091476A2 (en) Apparatus and method for displaying a blind spot
WO2012169355A1 (en) Image generation device
JP2011188335A (en) Vehicle surroundings monitoring device
JP2012066616A (en) Driving assistance device
CN104204847A (en) Method and device for visualizing the surroundings of a vehicle
CN106031166A (en) Vehicle peripheral image display device and vehicle peripheral image display method
CN108268833A (en) Image processing equipment and image processing method
JPWO2011013813A1 (en) In-vehicle device and image processing program
JPWO2017179206A1 (en) Parking assistance display control apparatus and parking assistance display control method
JP2013152546A (en) Driving support device, driving support method, and program
JP4797877B2 (en) VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD
JP2013062657A (en) Image display system, image display device, image display method, and image display program
JP2012004693A (en) Driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141104