JP2012004693A - Driving support device - Google Patents
Driving support device Download PDFInfo
- Publication number
- JP2012004693A JP2012004693A JP2010135706A JP2010135706A JP2012004693A JP 2012004693 A JP2012004693 A JP 2012004693A JP 2010135706 A JP2010135706 A JP 2010135706A JP 2010135706 A JP2010135706 A JP 2010135706A JP 2012004693 A JP2012004693 A JP 2012004693A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- image
- image data
- obstacle
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002131 composite material Substances 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 239000003550 marker Substances 0.000 claims description 55
- 238000001514 detection method Methods 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 239000000203 mixture Substances 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 6
- 238000000034 method Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004587 chromatography analysis Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車載カメラにより撮像された車両周辺の撮像画像を車室内に設けられた表示画面に表示する運転支援装置に関する発明である。 The present invention relates to a driving support device that displays a captured image of a periphery of a vehicle captured by an in-vehicle camera on a display screen provided in a vehicle interior.
従来、縦列駐車や車庫入れ等の運転を支援するための装置として、車載カメラにより路面を含む車両周辺を撮像し、この撮像画像に、車両からの距離を示す複数の距離線(距離マーカ)を車幅方向に延びるように重畳表示して、車室内の表示画面に表示する運転支援装置が知られている(例えば、特許文献1)。 Conventionally, as an apparatus for assisting driving such as parallel parking and garage parking, a vehicle periphery including a road surface is imaged by an in-vehicle camera, and a plurality of distance lines (distance markers) indicating the distance from the vehicle are displayed on the captured image There has been known a driving support device that displays a superimposed display so as to extend in the vehicle width direction and displays it on a display screen in a vehicle interior (for example, Patent Document 1).
しかしながら、車載カメラが路面を含むように車両周辺を撮像すると、障害物(立体物)は撮像画像の奥行き方向(車両から離れる方向)の路面と重なるように写るため、上述した特許文献1に提案されている運転支援装置によれば、例えば車両からの距離が0.4mの位置に障害物が存在する場合であっても、撮像画像中では車両からの距離が0.5mであることを示す距離マーカがこの障害物に重畳表示されることがある。 However, when the vehicle-mounted camera images the vehicle periphery so as to include the road surface, the obstacle (three-dimensional object) appears to overlap the road surface in the depth direction of the captured image (the direction away from the vehicle). According to the driving assistance apparatus being used, for example, even when there is an obstacle at a distance of 0.4 m from the vehicle, the distance from the vehicle is 0.5 m in the captured image. A distance marker may be superimposed on the obstacle.
そして、このように車両から障害物までの距離よりも長い距離を示す距離マーカが、この障害物に重畳表示されることにより、運転者は、距離マーカが示す距離(0.5m)よりも奥行き方向の遠い位置に障害物が存在しているように誤認(錯覚)してしまう虞があった。 And the distance marker which shows the distance longer than the distance from a vehicle to an obstacle in this way is superimposed on this obstacle, and a driver | operator is deeper than the distance (0.5m) which a distance marker shows. There is a risk of misperception (illusion) that an obstacle exists at a far position in the direction.
本発明は上記事情に鑑みなされたものであり、車両から障害物までの距離感を把握しやすくすることのできる運転支援装置を提供することを目的とするものである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a driving support device capable of easily grasping a sense of distance from a vehicle to an obstacle.
本発明に係る運転支援装置は、撮像画像のうち距離マーカが上書きされる位置に対応する画素列に障害物が写っているか否かを判定し、障害物が写っている場合には、この障害物の部分を表す画像を距離マーカに上書きして、距離マーカが消されたような合成画像を表示するものである。 The driving support device according to the present invention determines whether or not an obstacle appears in the pixel row corresponding to the position where the distance marker is overwritten in the captured image. An image representing a part of an object is overwritten on the distance marker, and a composite image in which the distance marker is erased is displayed.
すなわち、本発明に係る運転支援装置は、車両周辺を撮像する車載カメラと、前記車載カメラにより撮像された撮像画像を表す第1画像データを記憶する第1記憶部と、前記撮像画像に上書きされるように設定された、前記車両からの距離を示す距離マーカを表す第2画像データを記憶する第2記憶部と、前記撮像画像のうち前記距離マーカが上書きされる位置に対応する画素列を抽出する抽出部と、前記画素列に障害物が写っているか否かを判定し、前記障害物が写っていると判定した場合には前記画素列に写る障害物の部分を表す第3画像データを生成する生成部と、前記第1画像データおよび前記第2画像データに基づいて前記撮像画像に前記距離マーカを上書きし、前記生成部が前記第3画像データを生成した場合には前記第3画像データに基づいて前記距離マーカに前記障害物の部分をさらに上書きした合成画像を表す合成画像データを生成する合成部と、前記合成画像を表示する表示部と、を有することを特徴とする。 That is, the driving support apparatus according to the present invention overwrites the captured image with the in-vehicle camera that captures the periphery of the vehicle, the first storage unit that stores the first image data representing the captured image captured by the in-vehicle camera. A second storage unit configured to store second image data representing a distance marker indicating a distance from the vehicle, and a pixel row corresponding to a position where the distance marker is overwritten in the captured image. An extraction unit for extracting and determining whether or not an obstacle is reflected in the pixel row, and when it is determined that the obstacle is reflected, third image data representing a portion of the obstacle reflected in the pixel row And a generation unit that overwrites the distance marker on the captured image based on the first image data and the second image data, and the generation unit generates the third image data when the generation unit generates the third image data. image And having a combining unit for generating a composite image data representing a composite image portion was further overwriting of the obstacle on the distance marker based on chromatography data, and a display unit for displaying the composite image.
このように構成された本発明に係る運転支援装置によれば、抽出部が、撮像画像のうち距離マーカが上書きされる位置に対応する画素列を抽出し、生成部が、画素列に障害物が写っているか否かを判定し、障害物が写っていると判定した場合には、この画素列に写る障害物の部分を表す第3画像データを生成し、合成部が、撮像画像に距離マーカを上書きし、生成部が第3画像データを生成した場合には距離マーカに障害物の部分をさらに上書きした合成画像を表す合成画像データを生成するため、あたかも距離マーカが消されたような合成画像が表示され、距離マーカよりも手前に位置する障害物が距離マーカで隠されることがなくなるので車両から障害物までの距離感を把握しやすくすることができる。 According to the driving support apparatus according to the present invention configured as described above, the extraction unit extracts a pixel column corresponding to a position where the distance marker is overwritten in the captured image, and the generation unit includes an obstacle in the pixel column. Is determined, and if it is determined that the obstacle is captured, third image data representing the portion of the obstacle captured in the pixel row is generated, and the combining unit detects the distance to the captured image. When the marker is overwritten and the generation unit generates the third image data, the composite image data representing the composite image in which the obstacle portion is further overwritten on the distance marker is generated, so that the distance marker is erased. Since the composite image is displayed and the obstacle positioned in front of the distance marker is not hidden by the distance marker, the sense of distance from the vehicle to the obstacle can be easily grasped.
本発明に係る運転支援装置によれば、車両から障害物までの距離感を把握しやすくすることができる。 According to the driving support device of the present invention, it is possible to easily grasp the sense of distance from the vehicle to the obstacle.
以下、本発明の運転支援装置を実現する実施の形態を、図面に基づいて説明する。 Hereinafter, an embodiment for realizing a driving support device of the present invention will be described with reference to the drawings.
図1は、本実施形態の運転支援装置100の構成を示すブロック図である。図1に示すように、本実施形態の運転支援装置100は、車載カメラ1a,1bと、車載カメラ1a,1bにより撮像された撮像画像に対して画像処理を行う画像処理手段2と、画像処理手段2により画像処理が行われた後の画像(合成画像)を表示するモニタ3(表示部)と、を有する。
FIG. 1 is a block diagram illustrating a configuration of the
車載カメラ1a,1bは、車載カメラ1aと車載カメラ1bから構成されるステレオカメラである。これら車載カメラ1a,1bは、いずれも光軸を同じ方向に向けて設けられ、路面を含む車両周辺を撮像する。
The in-
また、画像処理手段2には、図1に示すように、デコーダ4、抽出部5、生成部6、合成部7、エンコーダ8、第1メモリ9(第1記憶部)、第2メモリ10(第2記憶部)および第3メモリ11が設けられている。
As shown in FIG. 1, the image processing means 2 includes a
デコーダ4は、車載カメラ1a,1bにより入力された撮像画像の画像データをデコードするものである。また、抽出部5は、車載カメラ1a,1bによるそれぞれの撮像画像について、距離マーカが上書きされる位置に対応する画素列の画像データを抽出するものである。
The
ここで、距離マーカとは、撮像画像に上書きされるように仮想的に設定された、車両からの距離Dを示す車幅方向に延びた複数の距離線をいう(図3(b),図7の距離マーカL1,L2参照)。 Here, the distance marker means a plurality of distance lines that are virtually set to be overwritten on the captured image and that extend in the vehicle width direction indicating the distance D from the vehicle (FIG. 3B, FIG. 3). 7 distance markers L1 and L2).
生成部6は、図1に示すように、抽出部5が抽出した画素列の画像データに基づいて、画素列に写る路面と路面以外との境界位置(エッジ位置)を検知する検知部12と、車載カメラ1a,1bによるステレオ視差に基づいて、車両から、抽出部5により抽出された画素列に写る被写体までの距離Dx(図5参照)を測定する距離測定部13が設けられている。
As illustrated in FIG. 1, the
さらに、生成部6は、検知部12により検知されたエッジ位置、距離測定部13により測定された車両から被写体までの距離Dxに基づいて、画素列に障害物が写っているか否かを判定し、障害物が写っている場合には、抽出された画素列に写る障害物の部分を表す第3画像データ(図7参照)を生成するように構成されている。
Further, the
また、第1メモリ9は、デコーダ4から車載カメラ1a,1bのいずれか一方による撮像画像の画像データが出力され(本実施例では、車載カメラ1aによる撮像画像の画像データが出力されることとする)、この出力された画像データ(第1画像データ)を記憶するものである。
The
そして、第2メモリ10は、撮像画像に上書きされるように仮想的に設定された複数の距離マーカ(本実施例では、車両からの0.5m離れた位置を示す距離マーカL1および車両から1.0m離れた位置を示す距離マーカL2)を表す第2画像データを記憶するものであり、さらに、第3メモリ11は、生成部6により生成された第3画像データを記憶するものである。
Then, the
また、これら第1メモリ9、第2メモリ10および第3メモリ11には、合成部7が接続されている。この合成部7は、第1画像データおよび第2画像データに基づいて撮像画像に距離マーカを上書きし、生成部6が第3画像データを生成した場合には、この第3画像データに基づいて、距離マーカに障害物の部分をさらに上書きした合成画像を表す合成画像データを生成するものである。
The synthesizing
さらに、合成部7により生成された合成画像データをエンコードするエンコーダ8が設けられている。このエンコーダ8は、車室内に設けられモニタ3に送信するものであり、モニタ3は合成画像を表示画面に表示するものである。
Furthermore, an
次に、運転支援装置100による画像処理について、[従来の運転支援装置による画像処理]、[抽出処理]、[エッジ位置検知処理]、[距離測定処理]、[第3画像データ生成処理]および[画像合成処理]に分けて説明する。
Next, regarding image processing by the
[従来の運転支援装置による画像処理]
図2は、従来の運転支援装置の車載カメラによる撮像状況を示した一例であり、図3(a)は、図2の車載カメラ(リヤカメラ)による撮像画像を示す図であり、図3(b)は、図3(a)の撮像画像に対して従来の運転支援装置による画像処理が行われた後の合成画像を示す図である。
[Image processing by conventional driving support devices]
FIG. 2 is an example showing a state of imaging by a vehicle-mounted camera of a conventional driving support device, and FIG. 3A is a diagram showing a captured image by the vehicle-mounted camera (rear camera) of FIG. ) Is a diagram showing a composite image after image processing by the conventional driving support device is performed on the captured image of FIG.
例えば、図2に示すような状況において従来の運転支援装置の車載カメラ(リヤカメラ)が路面を含む車両周辺を撮像すると、図3(a)に示すような撮像画像が得られる。 For example, when the vehicle-mounted camera (rear camera) of the conventional driving support apparatus captures the vehicle periphery including the road surface in the situation as shown in FIG. 2, a captured image as shown in FIG. 3A is obtained.
ここで、図2,3に示す障害物X1,X2はいずれも立体物であって、障害物X1は車両から0.4m離れた位置に存在し、障害物X2は車両から0.9m離れた位置に存在する。 Here, the obstacles X1 and X2 shown in FIGS. 2 and 3 are both solid objects, and the obstacle X1 is present at a position 0.4 m away from the vehicle, and the obstacle X2 is 0.9 m away from the vehicle. Exists in position.
また、路面には、車幅よりもわずかに広い間隔を空けて一対の白線が描かれている。なお、図2および図3(a)に示す破線は、車両から0.5m,1.0m離れた位置を表すための仮想線である。 In addition, a pair of white lines are drawn on the road surface with an interval slightly wider than the vehicle width. The broken lines shown in FIGS. 2 and 3 (a) are imaginary lines for representing positions 0.5 m and 1.0 m away from the vehicle.
そして、図3(a)に示す撮像画像に対して従来の運転支援装置による画像処理が行われると、図3(b)に示すように、撮像画像に距離マーカL1(D=0.5m)及び距離マーカL2(D=1.0m)が重畳表示された合成画像がモニタに表示される。 Then, when image processing by the conventional driving support device is performed on the captured image shown in FIG. 3A, a distance marker L1 (D = 0.5 m) is displayed on the captured image as shown in FIG. 3B. And a composite image on which the distance marker L2 (D = 1.0 m) is superimposed and displayed.
しかし、この合成画像では、障害物X1が距離マーカL1で隠され、また、障害物X2が距離マーカL2で隠される。 However, in this composite image, the obstacle X1 is hidden by the distance marker L1, and the obstacle X2 is hidden by the distance marker L2.
このため、運転者は、車両から0.4m離れた位置に存在する障害物X1が距離マーカL1が示す距離D(=0.5m)よりも奥行き方向の遠い位置に障害物が存在しているように、また、車両から0.9m離れた位置に存在する障害物X2が距離マーカL2が示す距離D(=1.0m)よりも奥行き方向の遠い位置に障害物が存在しているように誤認(錯覚)してしまう虞がある。 For this reason, the driver has an obstacle at a position farther in the depth direction than the distance D (= 0.5 m) indicated by the distance marker L1. In addition, the obstacle X2 present at a position 0.9 m away from the vehicle seems to be present at a position farther in the depth direction than the distance D (= 1.0 m) indicated by the distance marker L2. There is a risk of misunderstanding (illusion).
これに対し、本実施形態の運転支援装置100では、以下のような画像処理を行うことにより、車両から障害物までの距離感を把握しやすくすることができる。
On the other hand, in the driving
[抽出処理]
図4は、図1の運転支援装置100の車載カメラ1a,1bによる撮像状況を示した一例であり、図5は、図1の運転支援装置100による画像処理の流れを説明する図である。
[Extraction process]
FIG. 4 is an example showing an imaging situation by the in-
図4に示すように、図2に示す状況と同様の状況において運転支援装置100の車載カメラ1a,1bが路面を含む車両周辺を撮像する場合について説明する。
As shown in FIG. 4, a case will be described in which the in-
まず、車載カメラ1a,1bは、撮像画像の画像データをデコーダ4に出力する。そして、デコーダ4はこれらの画像データをデコードして抽出部5に出力する。
First, the in-
そして、抽出部5には、距離マーカL1,L2が示す車両からの距離D(=0.5m,1.0m)が予め記憶されており、抽出部5は、この距離D(=0.5m,1.0m)に基づいて、車載カメラ1a,1bによるそれぞれの撮像画像について距離マーカL1,L2が上書きされる位置に対応する画素列の画像データ(本実施例では、輝度信号とする)を抽出する。
The
例えば、距離マーカL1が上書きされる位置に対応する画素列の輝度信号とは、図5の波形A1,A2のようなものである。 For example, the luminance signal of the pixel column corresponding to the position where the distance marker L1 is overwritten is like the waveforms A1 and A2 in FIG.
すなわち、車両から0.5m離れた位置を図5の破線(仮想線)で示すと、距離マーカL1が上書きされる位置に対応する画素列には、この仮想線に沿った路面が写ることとなる。 That is, when a position 0.5 m away from the vehicle is indicated by a broken line (virtual line) in FIG. 5, a road surface along the virtual line appears in the pixel row corresponding to the position where the distance marker L1 is overwritten. Become.
しかし、仮想線よりも手前に位置する障害物X1(車両からの距離Dx=0.4m)が存在することにより、障害物X1の一部が仮想線に沿った路面に重なるように、この画素列に写る。ここで、この画素列に写る障害物X1の一部を「障害物X1の部分X1´」という。 However, since there is an obstacle X1 (distance Dx = 0.4 m from the vehicle) located in front of the imaginary line, this pixel is arranged such that a part of the obstacle X1 overlaps the road surface along the imaginary line. It appears in the column. Here, a part of the obstacle X1 reflected in the pixel row is referred to as “part X1 ′ of the obstacle X1”.
そして、路面は通常輝度が低く、障害物X1の部分X1´の方が路面と比較して輝度が高いため、図5の波形A1,A2に示すように、一部の輝度が高くなっている輝度信号が抽出される。 And since the road surface is usually low in luminance and the portion X1 ′ of the obstacle X1 is higher in luminance than the road surface, some of the luminance is high as shown by the waveforms A1 and A2 in FIG. A luminance signal is extracted.
なお、この抽出部5による抽出処理は、処理の迅速化を図り、手前の距離マーカL1についてのみ抽出処理し、そのほかの奥行き方向に離れた距離マーカ(距離マーカL2など)については抽出処理を行わないように構成することも可能である。
The extraction process by the
[エッジ位置検知処理]
図6は、図5の波形B,Cの拡大図である。抽出部5は、抽出した画素列の輝度信号(例えば、図5の波形A1,A2)を生成部6の検知部12に出力する。そして、検知部12は、画素列に写る路面と路面以外とのエッジ位置の検知を行う。
[Edge position detection processing]
FIG. 6 is an enlarged view of waveforms B and C in FIG. The
具体的には、まず、検知部12は、画素列の輝度信号(図6の波形B1=図5に示す波形A1)を左方向にずらし(図6の波形B2)、その差分を求める(図6の波形B3)。
Specifically, first, the
次に、検知部12は、画素列の輝度信号(図6の波形B1)を右方向にずらし(図6の波形B4)、その差分を求める(図6の波形B5)。
Next, the
そして、検知部12は、これらの差分(波形B3と波形B5)を組み合わせて輝度の差を強調し(図6の波形B6)、この輝度の差が強調された位置をエッジ位置として検知する。
Then, the
この検知部12によるエッジ位置の検知は、車載カメラ1a,1bによるそれぞれの撮像画像について行う。
The detection of the edge position by the
また、図5、図6に示す波形Cを、図5に示す波形D1,D2のように平滑化処理し、差分が特に大きい部分についてのみエッジ位置として検知するように構成することも可能である。 Further, the waveform C shown in FIGS. 5 and 6 can be smoothed like the waveforms D1 and D2 shown in FIG. 5, and only a portion having a particularly large difference can be detected as an edge position. .
[距離測定処理]
検知部12によりエッジ位置が検知された後、距離測定部13は、検知されたエッジ位置に基づいて、路面以外の被写体(障害物の候補)を特定し、この特定した被写体から車両までの距離Dxを測定する。
[Distance measurement processing]
After the edge position is detected by the
すなわち、例えば図5に示すように、特定された被写体に対する車載カメラ1a,1bの光軸となす視線角度θ1,θ2(または特定された画素に対する撮像素子における中心位置からの距離d1,d2)と、車載カメラ1a,1bの焦点距離f,fと、車載カメラ1a,1b間の距離Lと、に基づいて被写体から車両までの距離Dxを測定する。
That is, for example, as shown in FIG. 5, the line-of-sight angles θ1 and θ2 (or the distances d1 and d2 from the center position of the image sensor to the specified pixel) with respect to the specified subject and the optical axes of the in-
(平面物と立体物との区別)
ここで、抽出された画素列には、障害物X1,X2のような立体物だけでなく、例えば路面に描かれた白線のように、道路標識(平面物)が写っている場合がある。
(Distinction between flat objects and solid objects)
Here, in the extracted pixel row, not only a three-dimensional object such as the obstacles X1 and X2, but also a road sign (planar object), such as a white line drawn on the road surface, may appear.
そして、このような平面物の画像についても、抽出された画素列の輝度信号において輝度が高くなるため、検知部12によりエッジ位置が検知され、距離測定部13による距離測定処理が行われる。
Further, since the brightness of the image of such a planar object also increases in the extracted luminance signal of the pixel row, the edge position is detected by the
しかし、この平面物の画像について、立体物の画像と同様に第3画像データとして生成し、距離マーカL1,L2で隠されることのないように距離マーカL1,L2に平面物の画像を上書きすると、運転者により、平面物が距離マーカL1,L2よりも手前に位置する立体物であるように錯覚される虞がある。 However, if this flat object image is generated as third image data in the same manner as the three-dimensional object image and the distance marker L1, L2 is overwritten with the flat object image so as not to be hidden by the distance markers L1, L2, There is a possibility that the driver may have the illusion that the planar object is a three-dimensional object positioned in front of the distance markers L1 and L2.
このため、生成部6は、第3画像データの生成に際して、画素列に写る路面以外の被写体が立体物であるか平面物であるかを区別する。
Therefore, when generating the third image data, the
具体的には、距離マーカL1が上書きされる位置に対応する画素列に、路面に描かれた白線が写っている場合、距離測定部13が測定した白線から車両までの距離Dxは、距離マーカL1が示す距離Dと等しくなる(Dx=D=0.5m)。
Specifically, when the white line drawn on the road surface is reflected in the pixel row corresponding to the position where the distance marker L1 is overwritten, the distance Dx from the white line measured by the
このため、生成部6は、距離測定部13が測定した距離Dと距離マーカL1が示す距離Dxとが等しい場合には、この被写体は路面に描かれた白線などの道路標識(平面物)であるとして平面物と立体物とを区別する。
Therefore, when the distance D measured by the
上記のように、生成部6は、平面物と立体物との区別を行い、抽出された画素列に立体物(障害物)が写っているか否かを判定する。
As described above, the
なお、本実施例における障害物X1,X2は、距離測定部13により測定された距離Dx(=0.4m,0.9m)が、距離マーカL1が示す距離D(=0.5m,1.0m)よりも短いため立体物であると区別され、生成部6は、抽出された画素列にこれら障害物X1,X2が写っていると判定する。
In the present embodiment, the obstacles X1 and X2 have the distance Dx (= 0.4 m, 0.9 m) measured by the
[第3画像データ生成処理]
図7は、図1の合成部7による合成処理を示す図である。
[Third image data generation processing]
FIG. 7 is a diagram showing a composition process by the
図7に示すように、第1画像データが表す画像(すなわち、撮像画像)を第1レイヤ、第2画像データが表す画像(すなわち、距離マーカL1,L2の画像)を第2レイヤ、第3画像データが表す画像(すなわち、障害物X1の部分X1´の画像)を第3レイヤとする。 As shown in FIG. 7, the image represented by the first image data (that is, the captured image) is the first layer, and the image represented by the second image data (that is, the images of the distance markers L1 and L2) is the second layer and the third layer. The image represented by the image data (that is, the image of the part X1 ′ of the obstacle X1) is set as the third layer.
上記のように、生成部6は、平面物と立体物との区別を行い、立体物である障害物X1が画素列に写っていると判定した場合には、この障害物X1の部分X1´の画像を表す第3画像データを生成する。
As described above, the
第3画像データの生成に際し、生成部6は、検知されたエッジ位置に基づいて図5に示すような波形Eを求める。この波形Eは、障害物X1の部分X1´の画像を、図7に示す第3画像レイヤとして描画するためのタイミング(障害物X1の部分X1´が写る画素の、撮像画像における位置)を表している。
When generating the third image data, the
そして、生成部6は、波形Eに基づいて、障害物X1の部分X1´の画像を第3画像レイヤとして描画し、その他のタイミングでは撮像画像の描画を行わないことにより、第3画像レイヤ(すなわち、第3画像データ)を生成する。
Then, the
また、生成部6は、生成した第3画像データを第3メモリ11に出力し、第3メモリ11は、この第3画像データを記憶する。
Further, the
[画像合成処理]
図7に示すように、合成部7は、図7に示すように、第1画像データが表す第1画像レイヤおよび第2画像データが表す第2画像レイヤに基づいて撮像画像に距離マーカを上書きした合成画像を表す合成画像データを生成する。
[Image composition processing]
As illustrated in FIG. 7, the combining
また、生成部6が第3画像データを生成した場合には、この合成部7は、図7に示すように、この第3画像データが表す第3画像レイヤに基づいて距離マーカに障害物の部分をさらに上書きした合成画像を表す合成画像データを生成する。
In addition, when the
これにより、距離マーカL1よりも手前に位置する障害物X1、距離マーカL2よりも手前に位置する障害物X2がそれぞれ距離マーカL1,L2で隠されることのない合成画像が、エンコーダ8を介してモニタ3により表示される。
As a result, a composite image in which the obstacle X1 positioned in front of the distance marker L1 and the obstacle X2 positioned in front of the distance marker L2 are not hidden by the distance markers L1 and L2 via the
このように構成された本実施形態に係る運転支援装置100によれば、抽出部5が、撮像画像のうち距離マーカL1,L2が上書きされる位置に対応する画素列を抽出し、生成部6が、画素列に障害物が映っているか否かを判定し、障害物が写っていると判定した場合には、この画素列に写る障害物X1の部分X1´を表す第3画像データを生成し、合成部7が、撮像画像に距離マーカを上書きし、生成部6が第3画像データを生成した場合には距離マーカに障害物の部分をさらに上書きした合成画像を表す合成画像データを生成するため、障害物X1が写っている画素についてはあたかも距離マーカL1が消されたような合成画像がモニタ3に表示され、距離マーカL1,L2よりも手前に位置する障害物X1,X2が距離マーカL1,L2で隠されることがなくなり、車両から障害物X1,X2までの距離感を把握しやすくすることができる。
According to the driving
さらに、生成部6は、抽出された画素列に写る被写体から車両までの距離Dxを測定する距離測定部13を有し、距離測定部13により測定された距離Dxが、距離マーカL1が示す距離Dよりも短い場合には、被写体が障害物であると判定するため、例えば路面に描かれた白線などの道路標識(平面物)については第3画像データとしては生成せず、道路標識が立体物であるように認識されることを防ぐことができる。
Furthermore, the
そして、生成部6は、抽出された画素列の画像データに基づいて、画素列に写る被写体のうち路面と路面以外との境界位置(エッジ位置)を検知する検知部12を有し、距離測定部13は、検知部12により検知されたエッジ位置に基づいて距離を測定すべき被写体を特定するため、距離測定の対象となる被写体を減らすことができ、演算処理を迅速に行うことができる。
Then, the
また、検知部12は、画素列の輝度信号に基づいてエッジ位置を検知するため、少ない演算処理量で障害物X1の部分X1´の画像を第3画像レイヤとして描画するためのタイミング(波形E)を求めることができる。
Further, since the
また、合成部7は、第1画像レイヤ、第2画像レイヤ、第3画像レイヤを用いて合成画像(合成画像データ)を生成するするため、撮像画像を表す第1画像データに対して直接信号処理する場合に比べて処理量を少なくすることができる。
Moreover, since the
(変形例1)
上述した実施形態では、検知部12が画素列の輝度信号に基づいてエッジ位置を検知する場合について説明したが、本発明に係る運転支援装置はこのような形態に限定されるものではなく、例えば、検知部12は、画素列の色信号に基づいてエッジ位置を検知する構成としてもよい。
(Modification 1)
In the above-described embodiment, the case where the
このように構成された運転支援装置によれば、路面との輝度の差が小さい障害物についてもエッジ位置を検知することができる。 According to the driving support apparatus configured as described above, the edge position can be detected even for an obstacle with a small difference in luminance from the road surface.
(変形例2)
また、上述した実施形態では、合成部7が、第1画像レイヤ、第2画像レイヤ、第3画像レイヤを用いて合成画像(合成画像データ)を生成する場合について説明したが、本発明の運転支援装置は、距離マーカよりも手前に位置する障害物が距離マーカで隠されることがないような合成画像がモニタに表示されればよく、例えば、撮像画像に対して直接信号処理を行う構成を採用することも可能である。
(Modification 2)
In the above-described embodiment, the case where the
1a,1b 車載カメラ
2 画像処理手段
3 モニタ(表示部)
5 抽出部
6 生成部
7 合成部
9 第1メモリ(第1記憶部)
10 第2メモリ(第2記憶部)
11 第3メモリ
100 運転支援装置
1a, 1b Car-mounted
5 Extracting
10 Second memory (second storage unit)
11
Claims (5)
前記距離測定部は、前記検知部により検知された前記境界位置に基づいて前記距離を測定すべき被写体を特定することを特徴とする請求項2に記載の運転支援装置。 The generation unit includes a detection unit that detects a boundary position between a road surface and a non-road surface among subjects captured in the pixel column based on image data of the pixel column,
The driving assistance device according to claim 2, wherein the distance measurement unit specifies a subject whose distance is to be measured based on the boundary position detected by the detection unit.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010135706A JP2012004693A (en) | 2010-06-15 | 2010-06-15 | Driving support device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2010135706A JP2012004693A (en) | 2010-06-15 | 2010-06-15 | Driving support device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012004693A true JP2012004693A (en) | 2012-01-05 |
Family
ID=45536219
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2010135706A Pending JP2012004693A (en) | 2010-06-15 | 2010-06-15 | Driving support device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012004693A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2505926A (en) * | 2012-09-14 | 2014-03-19 | Sony Corp | Display of Depth Information Within a Scene |
| CN115131992A (en) * | 2022-06-29 | 2022-09-30 | 福建盛海智能科技有限公司 | Vehicle blind area barrier warning method and terminal based on binocular camera |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07186833A (en) * | 1993-12-24 | 1995-07-25 | Nissan Motor Co Ltd | Surrounding condition display device for vehicles |
| JPH10117340A (en) * | 1996-10-11 | 1998-05-06 | Yazaki Corp | Vehicle periphery monitoring device, alarm display method used in this device, and medium storing this display method |
| JP2001224013A (en) * | 2000-02-09 | 2001-08-17 | Sony Corp | Driving support device and driving support method |
| JP2005236540A (en) * | 2004-02-18 | 2005-09-02 | Matsushita Electric Ind Co Ltd | In-vehicle camera device |
| JP2009093332A (en) * | 2007-10-05 | 2009-04-30 | Nissan Motor Co Ltd | Vehicle periphery image processing apparatus and vehicle periphery state presentation method |
-
2010
- 2010-06-15 JP JP2010135706A patent/JP2012004693A/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH07186833A (en) * | 1993-12-24 | 1995-07-25 | Nissan Motor Co Ltd | Surrounding condition display device for vehicles |
| JPH10117340A (en) * | 1996-10-11 | 1998-05-06 | Yazaki Corp | Vehicle periphery monitoring device, alarm display method used in this device, and medium storing this display method |
| JP2001224013A (en) * | 2000-02-09 | 2001-08-17 | Sony Corp | Driving support device and driving support method |
| JP2005236540A (en) * | 2004-02-18 | 2005-09-02 | Matsushita Electric Ind Co Ltd | In-vehicle camera device |
| JP2009093332A (en) * | 2007-10-05 | 2009-04-30 | Nissan Motor Co Ltd | Vehicle periphery image processing apparatus and vehicle periphery state presentation method |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2505926A (en) * | 2012-09-14 | 2014-03-19 | Sony Corp | Display of Depth Information Within a Scene |
| CN115131992A (en) * | 2022-06-29 | 2022-09-30 | 福建盛海智能科技有限公司 | Vehicle blind area barrier warning method and terminal based on binocular camera |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8044781B2 (en) | System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor | |
| CN103988499B (en) | Vehicle periphery monitoring apparatus | |
| CN104723991B (en) | Parking assistance system and parking assistance method for vehicle | |
| JP5408198B2 (en) | Video display device and video display method | |
| JP6091586B1 (en) | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM | |
| CN103692973B (en) | Video generation device, image display system and image generating method | |
| EP2631696B1 (en) | Image generator | |
| JP2006341641A (en) | Video display device and video display method | |
| JP5516998B2 (en) | Image generation device | |
| JP5003395B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
| EP2414776B1 (en) | Vehicle handling assistant apparatus | |
| WO2009119110A1 (en) | Blind spot display device | |
| WO2012091476A2 (en) | Apparatus and method for displaying a blind spot | |
| WO2012169355A1 (en) | Image generation device | |
| JP2011188335A (en) | Vehicle surroundings monitoring device | |
| JP2012066616A (en) | Driving assistance device | |
| CN104204847A (en) | Method and device for visualizing the surroundings of a vehicle | |
| CN106031166A (en) | Vehicle peripheral image display device and vehicle peripheral image display method | |
| CN108268833A (en) | Image processing equipment and image processing method | |
| JPWO2011013813A1 (en) | In-vehicle device and image processing program | |
| JPWO2017179206A1 (en) | Parking assistance display control apparatus and parking assistance display control method | |
| JP2013152546A (en) | Driving support device, driving support method, and program | |
| JP4797877B2 (en) | VEHICLE VIDEO DISPLAY DEVICE AND VEHICLE AROUND VIDEO DISPLAY METHOD | |
| JP2013062657A (en) | Image display system, image display device, image display method, and image display program | |
| JP2012004693A (en) | Driving support device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130613 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140128 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140311 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140421 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20141104 |