JP2012188057A - Display device - Google Patents
Display device Download PDFInfo
- Publication number
- JP2012188057A JP2012188057A JP2011055124A JP2011055124A JP2012188057A JP 2012188057 A JP2012188057 A JP 2012188057A JP 2011055124 A JP2011055124 A JP 2011055124A JP 2011055124 A JP2011055124 A JP 2011055124A JP 2012188057 A JP2012188057 A JP 2012188057A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- approaching object
- processing unit
- graphic
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】センサが三次元的にどの領域で接近物を検知したかをユーザが直感的に判断することができる表示装置を提供することを目的とする。
【解決手段】自車両後方を撮像するカメラ1と、自車両後方の接近物を検知するセンサ4と、このセンサ4から取得した情報に基づいてカメラ1が撮像した撮像画像にグラフィックを重畳する画像処理ユニット2と、この画像処理ユニット2によってグラフィックが重畳された撮像画像を表示する表示部3とを備え、画像処理ユニット2は、センサ4が自車両後方の接近物を検知した場合に、センサ4が接近物を検知可能な領域を三次元形状でカメラ1が撮像した撮像画像に重畳することを特徴とする。
【選択図】図1An object of the present invention is to provide a display device that allows a user to intuitively determine in which region a sensor detects an approaching object in three dimensions.
An image in which a graphic is superimposed on a captured image captured by a camera based on information acquired from the camera, a sensor that detects an approaching object behind the host vehicle, and an information that is acquired from the sensor. The image processing unit 2 includes a processing unit 2 and a display unit 3 that displays a captured image on which a graphic is superimposed by the image processing unit 2, and the image processing unit 2 detects the approaching object behind the host vehicle. 4 is characterized in that a region in which an approaching object can be detected is superimposed on a captured image captured by the camera 1 in a three-dimensional shape.
[Selection] Figure 1
Description
本発明はディスプレイにセンサの検知範囲の表示画像を出力する表示装置に関するものである。 The present invention relates to a display device that outputs a display image of a detection range of a sensor to a display.
従来、車両に設けたセンサによって接近物の接近を検知し、接近距離に応じてディスプレイに表示を行う表示システムが知られている(例えば特許文献1〜3を参照)。 2. Description of the Related Art Conventionally, there is known a display system that detects the approach of an approaching object using a sensor provided in a vehicle and displays on a display according to the approach distance (see, for example, Patent Documents 1 to 3).
しかしながら、従来の表示システムでは、接近物の接近距離は把握できるものの、例えば超音波ソナーのようなセンサが三次元的にどの領域で接近物を検知したかをユーザが直感的に判断することができなかった。 However, in the conventional display system, although the approach distance of the approaching object can be grasped, the user can intuitively determine in which region the approaching object is detected in a three-dimensional manner by a sensor such as an ultrasonic sonar. could not.
本発明は、センサが三次元的にどの領域で接近物を検知したかをユーザが直感的に判断することができる表示装置を提供することを目的とする。 An object of the present invention is to provide a display device that allows a user to intuitively determine in which region a sensor detects an approaching object in three dimensions.
上記目的を達成するため、本発明の画像処理ユニットは、センサが自車両後方の接近物を検知した場合に、センサが接近物を検知可能な領域を三次元形状でカメラが撮像した撮像画像に重畳することを特徴とする。 In order to achieve the above object, the image processing unit according to the present invention, when the sensor detects an approaching object behind the host vehicle, an image that is captured by the camera in a three-dimensional shape in an area where the sensor can detect the approaching object. It is characterized by overlapping.
本発明によれば、センサが三次元的にどの領域で接近物を検知したかをユーザが直感的に判断することができるという効果を奏する。 According to the present invention, there is an effect that the user can intuitively determine in which region the sensor has detected the approaching object in three dimensions.
以下、本発明の実施形態における表示装置について図面を参照しながら説明する。なお、本実施形態では、車両の後退時における表示装置について説明する。 Hereinafter, a display device according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, a display device when the vehicle is moving backward will be described.
図1は本発明の実施形態における表示装置の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of a display device according to an embodiment of the present invention.
図1に示すように、表示装置は、車体後方に取り付けられたカメラ1と、このカメラ1から取得した撮像画像を表示用に画像処理する画像処理ユニット2と、画像処理ユニット2から入力された処理画像を表示する表示部3と、車体に設けられ、車両に対する接近物を検知するセンサ4とを備える。 As shown in FIG. 1, the display device receives a camera 1 attached to the rear of the vehicle body, an image processing unit 2 that performs image processing on a captured image acquired from the camera 1 for display, and an input from the image processing unit 2. The display part 3 which displays a process image, and the sensor 4 which is provided in the vehicle body and detects the approaching object with respect to a vehicle are provided.
カメラ1は車両後方の周囲を撮像し、撮像画像を電気信号に変換して画像処理ユニット2に入力する。 The camera 1 captures the surrounding area behind the vehicle, converts the captured image into an electrical signal, and inputs it to the image processing unit 2.
画像処理ユニット2は、ECU(Electric Control Unit)で構成され、車室内に設けられる。画像処理ユニット2は、カメラ1から入力された撮像画像のレンズ歪みを補正する。画像処理ユニット2は、表示部3への表示画像を見やすくするため、この補正した画像に視点変換を施した視点変換画像を生成してもよい。また、画像処理ユニット2は、この俯瞰画像にガイドラインなどのグラフィックを重畳する。例えば、画像処理ユニット2はセンサ4が接近物を検知可能な範囲を三次元領域で重畳する。なお、グラフィックが重畳された部分の撮像画像を視認可能にするため、画像処理ユニット2は、各グラフィックにαブレンディングを施したうえで撮像画像に重畳することが望ましい。 The image processing unit 2 is configured by an ECU (Electric Control Unit) and is provided in the vehicle interior. The image processing unit 2 corrects lens distortion of a captured image input from the camera 1. The image processing unit 2 may generate a viewpoint conversion image obtained by performing viewpoint conversion on the corrected image in order to make the display image displayed on the display unit 3 easy to see. Further, the image processing unit 2 superimposes a graphic such as a guideline on the overhead image. For example, the image processing unit 2 superimposes a range in which the sensor 4 can detect an approaching object in a three-dimensional region. In order to make the captured image of the portion where the graphic is superimposed visible, it is desirable that the image processing unit 2 performs α blending on each graphic and then superimposes the captured image on the captured image.
表示部3は、ユーザに視認可能な車内に設けられる。例えば、表示部3は、インスツルメントパネル内の設けられたナビゲーション装置のディスプレイと兼用される。表示部3は画像処理ユニット2から取得した映像信号を表示する。例えば、表示部3は、カメラ画像や、このカメラ画像に重畳されたセンサの三次元検出範囲等のグラフィックを表示する。 The display unit 3 is provided in the vehicle that is visible to the user. For example, the display unit 3 is also used as a display of a navigation device provided in the instrument panel. The display unit 3 displays the video signal acquired from the image processing unit 2. For example, the display unit 3 displays a graphic such as a camera image and a three-dimensional detection range of a sensor superimposed on the camera image.
センサ4は、複数の超音波ソナーで構成され、車体の前方、後方、側方、コーナの少なくとも一つに設けられる。望ましくは、車両後方に4つのソナーが設けられる。例えば、車両の右後方のコーナおよび左後方のコーナにそれぞれ1つずつソナーが配置される。そして、これら両コーナの間に等間隔でさらに2つソナーが配置される。また、例えば車体の四隅のコーナにそれぞれソナーが設けられてもよい。センサ4は、超音波を放射し、接近物からの反射信号を取得する。これによってセンサ4は自車両への接近物を検知する。そして、センサ4は、接近物からの反射信号を画像処理ユニット2に入力する。 The sensor 4 includes a plurality of ultrasonic sonars, and is provided at at least one of the front, rear, side, and corner of the vehicle body. Desirably, four sonars are provided at the rear of the vehicle. For example, one sonar is arranged at each of the right rear corner and the left rear corner of the vehicle. Two more sonars are arranged at equal intervals between the two corners. Further, for example, sonar may be provided at corners of the four corners of the vehicle body. The sensor 4 emits ultrasonic waves and acquires a reflection signal from an approaching object. Accordingly, the sensor 4 detects an approaching object to the host vehicle. Then, the sensor 4 inputs the reflection signal from the approaching object to the image processing unit 2.
画像処理ユニット2は、ADコンバータ21と、信号処理部22と、ビデオメモリ23と、不揮発性メモリ24と、CPU25と、DAコンバータ26とを有する。ADコンバータ21は、カメラ1から撮像画像を取得してアナログデジタル変換を行い、この変換した撮像画像を信号処理部22に出力する。信号処理部22は、ADコンバータ21から入力された撮像画像にレンズ歪み補正処理を行ったり、視点変換処理、グラフィックの重畳処理を行う。ビデオメモリ23は、信号処理部22に入力された撮像画像を一時記憶する。不揮発性メモリ24は、レンズ歪み補正処理に必要な補正データテーブル、視点変換処理に必要なマッピングテーブル等のデータテーブルや、センサ4の三次元の検出範囲等のグラフィックデータを格納する。CPU25は、画像処理ユニット2全体の制御を行う。例えば、CPU25は、センサ4から入力された反射信号に基づいて、自車両と接近物との距離を算出する。CPU25は、この算出した距離情報に基づいて信号処理部22にセンサ4の三次元の検出範囲等のグラフィックの重畳処理を命令する。 The image processing unit 2 includes an AD converter 21, a signal processing unit 22, a video memory 23, a nonvolatile memory 24, a CPU 25, and a DA converter 26. The AD converter 21 acquires a captured image from the camera 1, performs analog-digital conversion, and outputs the converted captured image to the signal processing unit 22. The signal processing unit 22 performs lens distortion correction processing, viewpoint conversion processing, and graphic superimposition processing on the captured image input from the AD converter 21. The video memory 23 temporarily stores the captured image input to the signal processing unit 22. The nonvolatile memory 24 stores a data table such as a correction data table necessary for the lens distortion correction process, a mapping table necessary for the viewpoint conversion process, and graphic data such as a three-dimensional detection range of the sensor 4. The CPU 25 controls the entire image processing unit 2. For example, the CPU 25 calculates the distance between the host vehicle and the approaching object based on the reflection signal input from the sensor 4. Based on the calculated distance information, the CPU 25 instructs the signal processing unit 22 to superimpose graphics such as a three-dimensional detection range of the sensor 4.
次に、CPU25によるセンサ検知処理を説明する。図3は、CPU25によるセンサ検知処理を説明するフローチャート図である。 Next, sensor detection processing by the CPU 25 will be described. FIG. 3 is a flowchart for explaining sensor detection processing by the CPU 25.
ステップS1に示すように、CPU25は、センサ4の各ソナーに対して接近物の検知を指示する。例えば、CPU25は、センサ4の各ソナーに対して超音波の出力を指示する。 As shown in step S <b> 1, the CPU 25 instructs each sonar of the sensor 4 to detect an approaching object. For example, the CPU 25 instructs each sonar of the sensor 4 to output an ultrasonic wave.
ステップS2に示すように、CPU25は、センサ4の各ソナーの検出結果に基づいて接近物との距離を算出する。例えば、センサ4のうち1つのソナーが接近物を検出した場合、CPU25は、このソナーから、接近物の音波反射情報を取得する。CPU25は、この音波反射情報に基づいて自車両と接近物との距離を算出する。 As shown in step S <b> 2, the CPU 25 calculates the distance to the approaching object based on the detection result of each sonar of the sensor 4. For example, when one sonar of the sensors 4 detects an approaching object, the CPU 25 acquires sound wave reflection information of the approaching object from the sonar. The CPU 25 calculates the distance between the host vehicle and the approaching object based on the sound wave reflection information.
次に、ステップS3に示すように、CPU25は、センサ4の各ソナーのうち、接近物を検出したソナーについて、信号処理部22に対してソナーのグラフィック重畳処理を指示する。 Next, as shown in step S <b> 3, the CPU 25 instructs the signal processing unit 22 to perform the sonar graphic superimposition processing for the sonar in which the approaching object is detected among the sonars of the sensor 4.
次に、信号処理部22によるグラフィック重畳処理について説明する。 Next, graphic superimposition processing by the signal processing unit 22 will be described.
図3は、信号処理部22によるグラフィック重畳処理を説明するフローチャート図である。 FIG. 3 is a flowchart for explaining graphic superimposition processing by the signal processing unit 22.
ステップS11に示すように、信号処理部22は、ADコンバータ21から入力された撮像画像をビデオメモリ23に一時的に格納する。 As shown in step S <b> 11, the signal processing unit 22 temporarily stores the captured image input from the AD converter 21 in the video memory 23.
ステップS12に示すように、信号処理部22は、ビデオメモリ23からステップS1で一時的に格納した撮像画像を取り出す。信号処理部22は、不揮発性メモリ24に記憶されているデータに基づきこの撮像画像に歪み補正処理を行う。そして、信号処理部22は、この歪み補正処理を行った処理画像から表示部3に出力するための表示映像を作成する。 As shown in step S12, the signal processing unit 22 takes out the captured image temporarily stored in step S1 from the video memory 23. The signal processing unit 22 performs distortion correction processing on the captured image based on data stored in the nonvolatile memory 24. Then, the signal processing unit 22 creates a display video to be output to the display unit 3 from the processed image that has been subjected to the distortion correction processing.
次に、ステップS13に示すように、信号処理部22は、不揮発性メモリ24から読み出したガイドライン等のグラフィックをステップS2の表示映像に重畳する。 Next, as shown in step S13, the signal processing unit 22 superimposes a graphic such as a guideline read from the nonvolatile memory 24 on the display image in step S2.
次に、ステップS14に示すように、信号処理部22は、センサ4の各ソナーのうち接近物を検知したソナーが検知可能な領域を三次元形状のグラフィックでステップS12の表示映像に重畳する。特に、信号処理部22は、接近物を検知したソナーについてのみ接近物を検知可能な領域を三次元形状のグラフィックでステップS12の表示映像に重畳する。 Next, as shown in step S <b> 14, the signal processing unit 22 superimposes a region that can be detected by the sonar that detected the approaching object among the sonars of the sensor 4 on the display image in step S <b> 12 with a three-dimensional graphic. In particular, the signal processing unit 22 superimposes a region where an approaching object can be detected only on the sonar that has detected the approaching object on the display image in step S12 with a three-dimensional graphic.
次に、ステップS15に示すように、信号処理部22は、表示映像にステップS13とステップS14において重畳した結果の重畳映像をDAコンバータ26に出力する。表示部3は、DAコンバータ26から入力されたこの重畳映像を表示する。 Next, as shown in step S <b> 15, the signal processing unit 22 outputs to the DA converter 26 the superimposed video that is the result of superimposing the display video in steps S <b> 13 and S <b> 14. The display unit 3 displays the superimposed video input from the DA converter 26.
次に、ステップS14で重畳されるグラフィックの形状について説明する。 Next, the graphic shape superimposed in step S14 will be described.
図4は、センサ4の検知可能な領域が表示用のグラフィックとして表された状態を説明する図である。図4の左方には、センサ4の各ソナーのうち接近物を検知したソナーが実空間上で検知可能な領域が三次元形状で示されている。この実空間上で検知可能な領域は、図4の右方に示されるように、表示部3で表示可能な三次元形状のグラフィックに変換
されている。ステップS12で撮像画像が表示部3で表示可能な表示映像に変換されると、表示映像の距離や画角が実空間上の距離や画角と異なってくる。この変換にあわせて、ソナーが実空間上で検知可能な領域の三次元形状も表示用のグラフィックに変換されている。この表示用のグラフィックは、予め、不揮発性メモリ24に記憶されている。
FIG. 4 is a diagram for explaining a state in which an area detectable by the sensor 4 is represented as a display graphic. On the left side of FIG. 4, a region where a sonar that detects an approaching object among the sonars of the sensor 4 can be detected in real space is shown in a three-dimensional shape. The area that can be detected in the real space is converted into a three-dimensional graphic that can be displayed on the display unit 3, as shown on the right side of FIG. When the captured image is converted into a display image that can be displayed on the display unit 3 in step S12, the distance and angle of view of the display image become different from the distance and angle of view in real space. Along with this conversion, the three-dimensional shape of the area that the sonar can detect in real space is also converted into a display graphic. This display graphic is stored in advance in the nonvolatile memory 24.
また、センサ4のソナーが接近物を検知したとき、接近物とソナーとの距離に応じて信号処理部22が重畳する表示用のグラフィックについて説明する。図5は、信号処理部22が接近物との距離に応じて重畳する表示用のグラフィックを説明する図である。図5に示すように、センサ4のソナーが接近物を検知したとき、センサ4のソナーが接近物を検知した距離に応じて、信号処理部22は、三次元形状の表示用のグラフィック51、52、53のうちから一のグラフィックを不揮発性メモリ24から読み出す。例えば、接近物が第1の距離指標54と第2の距離指標55の間に位置するとき、信号処理部22は、グラフィック51を不揮発性メモリ24から読み出す。接近物が第2の距離指標55と第3の距離指標56の間に位置するとき、信号処理部22は、グラフィック52を不揮発性メモリ24から読み出す。接近物が第3の距離指標56よりも自車両側に位置するとき、信号処理部22は、グラフィック53を不揮発性メモリ24から読み出す。信号処理部22は、このように接近物とソナーとの距離に応じて複数のグラフィックの中から選択した一のグラフィックを表示映像に重畳する。 Further, a display graphic that the signal processing unit 22 superimposes according to the distance between the approaching object and the sonar when the sonar of the sensor 4 detects the approaching object will be described. FIG. 5 is a diagram illustrating a display graphic that the signal processing unit 22 superimposes according to the distance to the approaching object. As shown in FIG. 5, when the sonar of the sensor 4 detects an approaching object, the signal processing unit 22 displays the three-dimensional display graphic 51 according to the distance detected by the sonar of the sensor 4. One graphic of 52 and 53 is read from the nonvolatile memory 24. For example, when the approaching object is located between the first distance index 54 and the second distance index 55, the signal processing unit 22 reads the graphic 51 from the nonvolatile memory 24. When the approaching object is located between the second distance index 55 and the third distance index 56, the signal processing unit 22 reads the graphic 52 from the nonvolatile memory 24. When the approaching object is located closer to the host vehicle than the third distance index 56, the signal processing unit 22 reads the graphic 53 from the nonvolatile memory 24. The signal processing unit 22 thus superimposes one graphic selected from a plurality of graphics on the display image according to the distance between the approaching object and the sonar.
次に、センサ4が検知可能な領域を信号処理部22が表示映像に重畳した重畳映像について説明する。図6は、表示部3にセンサ4が検知可能な領域を重畳する前の状態を説明する図である。図7は、表示部3にセンサが検知可能な領域を重畳した後の状態を説明する図である。図8は、表示部3にセンサ4が検知可能な領域を表示した一例を示す図である。 Next, a description will be given of the superimposed video in which the signal processing unit 22 superimposes the region that can be detected by the sensor 4 on the display video. FIG. 6 is a diagram for explaining a state before a region that can be detected by the sensor 4 is superimposed on the display unit 3. FIG. 7 is a diagram for explaining a state after an area that can be detected by the sensor is superimposed on the display unit 3. FIG. 8 is a diagram illustrating an example in which an area that can be detected by the sensor 4 is displayed on the display unit 3.
図6に示すように、センサ4の各ソナーがいずれも接近物を検知していない状態で後退しているとき、表示部3には、表示映像とともに、ステップS13で重畳されたガイドライン61が表示される。図7に示すように、センサ4の1つのソナーが接近物72を検知した場合、表示部3には、表示映像、ステップS13で重畳されたガイドライン71とともに、接近物を検知したソナーが検知可能な領域を三次元形状で表したグラフィック73が表示される。また、図8に示すように、表示部3には、接近物を検知したソナーが検知可能な領域を三次元形状で表したグラフィック81が重畳された表示映像82が表示されている。グラフィック81は、距離に応じた第1〜第3の領域81a〜cで構成されている。自車両の後退によってソナーが接近物を検知した位置が変化すると、グラフィック81も変化する。例えば、第1の領域81a内にある接近物が、第2の領域81bに位置するとき、グラフィック81は、第2の領域81b、第3の領域81cによって構成される。第1の領域81a内にある接近物が、第3の領域81c内に位置するとき、グラフィック81は、第3の領域81cによって構成される。このように、信号処理部22が、接近物を検知したソナーが検知可能な領域を三次元形状で表したグラフィック81を表示映像82に重畳した表示データを作成して表示部3に出力することによって、ユーザは、三次元形状の接近物をソナーで検知可能か否かを直感的に判断できる。例えば、三次元形状のグラフィック81の領域内に接近物が位置するが、グラフィック81の領域からはみ出した接近物の部分があるか否かを確認することができる。 As shown in FIG. 6, when each sonar of the sensor 4 is retreating without detecting an approaching object, the display unit 3 displays the guideline 61 superimposed in step S13 together with the display image. Is done. As shown in FIG. 7, when one sonar of the sensor 4 detects the approaching object 72, the display unit 3 can detect the sonar that detected the approaching object together with the display image and the guideline 71 superimposed in step S13. A graphic 73 representing a three-dimensional shape of an area is displayed. As shown in FIG. 8, the display unit 3 displays a display image 82 on which a graphic 81 representing a three-dimensional shape of a region that can be detected by a sonar that has detected an approaching object is superimposed. The graphic 81 includes first to third regions 81a to 81c corresponding to the distance. When the position where the sonar detects the approaching object changes due to the backward movement of the host vehicle, the graphic 81 also changes. For example, when an approaching object in the first area 81a is located in the second area 81b, the graphic 81 is configured by the second area 81b and the third area 81c. When an approaching object in the first area 81a is located in the third area 81c, the graphic 81 is constituted by the third area 81c. In this manner, the signal processing unit 22 creates display data in which the graphic 81 representing the area that can be detected by the sonar that has detected the approaching object in a three-dimensional shape is superimposed on the display video 82 and outputs the display data to the display unit 3. Thus, the user can intuitively determine whether or not a three-dimensional approaching object can be detected by the sonar. For example, although an approaching object is located in the area of the three-dimensional graphic 81, it can be confirmed whether or not there is an approaching object part that protrudes from the area of the graphic 81.
また、表示部3には、さらに、接近物を検知したソナーの検知領域を二次元形状で表したグラフィック83が表示されている。この二次元形状のグラフィック83は、自車両84を側方から見たときにソナーが接近物を検知可能な領域84を二次元形状で示したものである。グラフィック84は、距離に応じた第1〜第3の領域84a〜cで構成されている。この第1〜第3の領域84a〜cは、グラフィック81の第1〜第3の領域81a〜cにそれぞれ対応する。したがって、自車両の後退によってソナーが接近物を検知した位
置が変化すると、グラフィック81と同様にグラフィック84も変化する。例えば、第1の領域81a内にある接近物が、第2の領域81bに位置するとき、グラフィック84は、第2の領域84b、第3の領域84cによって構成される。第1の領域81a内にある接近物が、第3の領域81c内に位置するとき、グラフィック84は、第3の領域84cによって構成される。なお、この二次元形状のグラフィック83は、ソナーと接近物との距離を示す距離指標85をさらに含んでいてもよい。
Further, the display unit 3 further displays a graphic 83 that represents a detection region of a sonar that has detected an approaching object in a two-dimensional shape. This two-dimensional graphic 83 shows the area 84 in which the sonar can detect an approaching object in a two-dimensional shape when the host vehicle 84 is viewed from the side. The graphic 84 includes first to third regions 84a to 84c corresponding to the distance. The first to third regions 84a to 84c correspond to the first to third regions 81a to 81c of the graphic 81, respectively. Therefore, when the position where the sonar detects the approaching object changes due to the backward movement of the host vehicle, the graphic 84 changes as well as the graphic 81. For example, when an approaching object in the first area 81a is located in the second area 81b, the graphic 84 is constituted by the second area 84b and the third area 84c. When an approaching object in the first area 81a is located in the third area 81c, the graphic 84 is constituted by the third area 84c. The two-dimensional graphic 83 may further include a distance index 85 indicating the distance between the sonar and the approaching object.
以上のように、本発明によれば、センサ4が三次元的にどの領域で接近物を検知したかをユーザが直感的に判断することができる。 As described above, according to the present invention, the user can intuitively determine in which region the sensor 4 has detected an approaching object in three dimensions.
本発明は車両を後退させる際に、センサが三次元的にどの領域で接近物を検知したかをユーザが直感的に判断するのに有用である。 The present invention is useful for the user to intuitively determine in which region the sensor has detected an approaching object in three dimensions when the vehicle is moved backward.
1 カメラ
2 画像処理ユニット
3 表示部
4 センサ
1 Camera 2 Image processing unit 3 Display unit 4 Sensor
Claims (4)
自車両後方の接近物を検知するセンサと、
このセンサから取得した情報に基づいて前記カメラが撮像した撮像画像にグラフィックを重畳する画像処理ユニットと、
この画像処理ユニットによってグラフィックが重畳された撮像画像を表示する表示手段とを備え、
前記画像処理ユニットは、前記センサが自車両後方の接近物を検知した場合に、前記センサが接近物を検知可能な領域を三次元形状で前記カメラが撮像した撮像画像に重畳することを特徴とする表示装置。 A camera that captures the back of the vehicle,
A sensor for detecting an approaching object behind the host vehicle;
An image processing unit that superimposes a graphic on a captured image captured by the camera based on information acquired from the sensor;
Display means for displaying a captured image on which a graphic is superimposed by the image processing unit,
When the sensor detects an approaching object behind the host vehicle, the image processing unit superimposes an area where the sensor can detect the approaching object on a captured image captured by the camera in a three-dimensional shape. Display device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011055124A JP2012188057A (en) | 2011-03-14 | 2011-03-14 | Display device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2011055124A JP2012188057A (en) | 2011-03-14 | 2011-03-14 | Display device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2012188057A true JP2012188057A (en) | 2012-10-04 |
Family
ID=47081687
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2011055124A Withdrawn JP2012188057A (en) | 2011-03-14 | 2011-03-14 | Display device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2012188057A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016146135A (en) * | 2015-02-09 | 2016-08-12 | 株式会社デンソー | Vehicle display controller and vehicle display control method |
| DE102017127248A1 (en) | 2017-01-04 | 2018-07-05 | Denso Ten Limited | Image processing device and image processing method |
| JP2018107754A (en) * | 2016-12-28 | 2018-07-05 | 株式会社デンソーテン | Image generating apparatus and image generating method |
| US10343603B2 (en) | 2017-01-04 | 2019-07-09 | Denso Ten Limited | Image processing device and image processing method |
-
2011
- 2011-03-14 JP JP2011055124A patent/JP2012188057A/en not_active Withdrawn
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10387734B2 (en) | 2015-02-09 | 2019-08-20 | Denso Corporation | Vehicle display control device and vehicle display control method |
| WO2016129233A1 (en) * | 2015-02-09 | 2016-08-18 | 株式会社デンソー | Vehicle display control device and vehicle display control method |
| JP2016146135A (en) * | 2015-02-09 | 2016-08-12 | 株式会社デンソー | Vehicle display controller and vehicle display control method |
| US10611308B2 (en) | 2016-12-28 | 2020-04-07 | Denso Ten Limited | Image generation device and image generation method |
| CN108259879A (en) * | 2016-12-28 | 2018-07-06 | 丰田自动车株式会社 | Video generation device and image generating method |
| JP2018107754A (en) * | 2016-12-28 | 2018-07-05 | 株式会社デンソーテン | Image generating apparatus and image generating method |
| CN108268833A (en) * | 2017-01-04 | 2018-07-10 | 株式会社电装天 | Image processing equipment and image processing method |
| JP2018110328A (en) * | 2017-01-04 | 2018-07-12 | 株式会社デンソーテン | Image processing apparatus and image processing method |
| US10343603B2 (en) | 2017-01-04 | 2019-07-09 | Denso Ten Limited | Image processing device and image processing method |
| DE102017127248A1 (en) | 2017-01-04 | 2018-07-05 | Denso Ten Limited | Image processing device and image processing method |
| US10750093B2 (en) | 2017-01-04 | 2020-08-18 | Denso Ten Limited | Image processing device and image processing method |
| DE102017130118B4 (en) * | 2017-01-04 | 2020-10-29 | Denso Ten Limited | IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD |
| DE102017127248B4 (en) | 2017-01-04 | 2023-11-30 | Denso Corporation | Image processing device and image processing method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20230252794A1 (en) | Display apparatus | |
| JP5053043B2 (en) | Vehicle peripheral image generation device and vehicle peripheral image distortion correction method | |
| JP4879031B2 (en) | Driving support system, image processing apparatus, and deviation detection method | |
| US10467789B2 (en) | Image processing device for vehicle | |
| CN102616182B (en) | Parking assistance system and method | |
| JP5068779B2 (en) | Vehicle surroundings overhead image display apparatus and method | |
| JP5479956B2 (en) | Ambient monitoring device for vehicles | |
| CN102795161B (en) | Image display system, image processing apparatus, and image display method | |
| JP5003395B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
| JP4992696B2 (en) | Parking support apparatus and method | |
| CN102918833A (en) | Vehicle surroundings monitoring device | |
| JP2014166834A (en) | Parking support device, parking support method and program | |
| JP2008013015A (en) | Vehicle surroundings image producing device and image switching method | |
| US9162621B2 (en) | Parking support apparatus | |
| JPWO2011013813A1 (en) | In-vehicle device and image processing program | |
| JP2012188057A (en) | Display device | |
| JP5977130B2 (en) | Image generation apparatus, image display system, and image generation method | |
| JP5709460B2 (en) | Driving support system, driving support method, and driving support program | |
| JP2009124377A (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
| JP2012188058A (en) | Display device | |
| JP6585371B2 (en) | Image processing apparatus, image processing method, and in-vehicle apparatus | |
| JP2017220163A (en) | Image generation device, image display system and image generation method | |
| JP2007088577A (en) | Vehicle surrounding image processing system | |
| JP2010263412A (en) | Vehicle periphery image display device | |
| JP6610139B2 (en) | Perimeter monitoring device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |