[go: up one dir, main page]

JP2016119558A - Video processing device and on-vehicle video processing system - Google Patents

Video processing device and on-vehicle video processing system Download PDF

Info

Publication number
JP2016119558A
JP2016119558A JP2014257786A JP2014257786A JP2016119558A JP 2016119558 A JP2016119558 A JP 2016119558A JP 2014257786 A JP2014257786 A JP 2014257786A JP 2014257786 A JP2014257786 A JP 2014257786A JP 2016119558 A JP2016119558 A JP 2016119558A
Authority
JP
Japan
Prior art keywords
video
obstacle
vehicle
output
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014257786A
Other languages
Japanese (ja)
Other versions
JP6439436B2 (en
Inventor
川島 毅
Takeshi Kawashima
毅 川島
勝之 福田
Katsuyuki Fukuda
勝之 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014257786A priority Critical patent/JP6439436B2/en
Publication of JP2016119558A publication Critical patent/JP2016119558A/en
Application granted granted Critical
Publication of JP6439436B2 publication Critical patent/JP6439436B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】車両の後側方の映像を表示する際に映像の視点位置等を変更可能で、車両の後方に障害物が存在する場合には障害物を適切に表示可能な映像処理装置の提供。【解決手段】映像処理装置は、車両の後方に障害物がある場合には(S40:YES)、第一の出力用映像をモニタに表示し(S60)、障害物がない場合には(S40:NO)、第二の出力用映像をモニタに表示する(S60)。第一の出力用映像及び第二の出力用映像のうちの少なくとも一方を生成する際に、視点位置、視線方向、及び視野範囲のうちの少なくとも一つを変更する映像変換処理を施す(S50)。映像変換処理としては、第一の出力用映像に第二の出力用映像よりも障害物が大きく表示されることになる映像変換処理、又は第二の出力用映像には表示されない障害物の一部又は全部が第一の出力用映像に表示されることになる映像変換処理を実行する。【選択図】図2Provided is a video processing apparatus capable of changing the viewpoint position of a video when displaying an image of a rear side of a vehicle, and appropriately displaying an obstacle when an obstacle exists behind the vehicle. . When there is an obstacle behind the vehicle (S40: YES), the video processing apparatus displays a first output video on the monitor (S60), and when there is no obstacle (S40). : NO), the second output video is displayed on the monitor (S60). When generating at least one of the first output video and the second output video, video conversion processing is performed to change at least one of the viewpoint position, the line-of-sight direction, and the visual field range (S50). . The video conversion process includes a video conversion process in which an obstacle is displayed larger in the first output video than the second output video, or an obstacle that is not displayed in the second output video. Part or all of the video conversion processing to be displayed on the first output video is executed. [Selection] Figure 2

Description

本発明は、映像処理装置、及び車載映像処理システムに関する。   The present invention relates to a video processing device and an in-vehicle video processing system.

車両の後側方をカメラで撮影して、その映像を車両内部の表示部に表示する車両用周辺監視装置が知られている(例えば、特許文献1参照。)。   2. Description of the Related Art A vehicle periphery monitoring device that captures a rear side of a vehicle with a camera and displays the image on a display unit inside the vehicle is known (for example, see Patent Document 1).

特許第3876761号公報Japanese Patent No. 3877761

ところで、車両が後退する際には、上述のような装置の表示部に表示される映像の視点位置、視線方向、あるいは視野範囲など(以下、これらを総称して視点位置等という。)を、車両の前進時とは異なる視点位置等に変更したい場合がある。   By the way, when the vehicle moves backward, the viewpoint position, the line-of-sight direction, the visual field range, etc. of the video displayed on the display unit of the apparatus as described above (hereinafter collectively referred to as the viewpoint position, etc.) There is a case where it is desired to change to a viewpoint position or the like different from that when the vehicle moves forward.

一例を挙げれば、例えば、車両を後退させつつ駐車枠に収めたい場合や、車両を後退させつつ路肩に寄せて停車させたい場合には、駐車枠や路肩と車両の後輪付近との位置関係を確認しやすいような視点位置等で映像を表示したいことがある。別の例としては、例えば、車両の前進時には、より広範囲の確認ができるような表示を行っていても、車両の後退時には、車両後方のより狭い範囲が拡大表示されるような視点位置等で映像を表示したいことがある。これらのような視点位置等の変更は、カメラ映像の切り出し範囲を適切に設定し、必要があれば、適切な歪み補正等を施すことにより実現することができる。   For example, if you want to put the vehicle in the parking frame while moving the vehicle backward, or if you want to stop the vehicle while moving the vehicle backward, close the parking frame or the road shoulder to the vicinity of the rear wheel of the vehicle. You may want to display a video at a viewpoint position that makes it easy to check As another example, for example, when a vehicle is moving forward, a display that can confirm a wider range is displayed, but when the vehicle is moved backward, a narrower range behind the vehicle is enlarged and displayed. Sometimes you want to display a video. Such a change in the viewpoint position or the like can be realized by appropriately setting the cutout range of the camera video and performing appropriate distortion correction or the like if necessary.

しかし、車両の後方に障害物が存在する場合に、上述のような視点位置等の変更を行うと、障害物の存在する箇所が表示対象外になってしまうことがある。また、障害物とは別の箇所に着目して歪みを除去する補正を行った場合には、障害物がある箇所の歪みが増大することもあり、この場合、歪んだ障害物が表示されても、障害物を適切に視認できなくなる可能性がある。   However, if there is an obstacle behind the vehicle and the viewpoint position or the like is changed as described above, the location where the obstacle exists may be excluded from the display target. In addition, if correction is performed to remove distortion by focusing on a different location from the obstacle, the distortion at the location where the obstacle is located may increase. In this case, the distorted obstacle is displayed. However, there is a possibility that an obstacle cannot be properly visually recognized.

以上のような事情から、車両の後側方の映像を表示する際に、その映像の視点位置等を変更可能で、車両の後方に障害物が存在する場合には、その障害物を適切に表示可能な映像処理装置、及び車載映像処理システムを提供することが望ましい。   Due to the above circumstances, when displaying the image of the rear side of the vehicle, the viewpoint position of the image can be changed, and if there is an obstacle behind the vehicle, It is desirable to provide a displayable video processing device and an in-vehicle video processing system.

以下に説明する映像処理装置は、障害物判定部と、映像入力部と、映像処理部と、映像出力部とを備える。障害物判定部は、車両の後方に存在する障害物を検知可能な障害物検知部から、障害物に関する情報を取得して、障害物の有無を判定する。映像入力部は、車両の後側方を撮影可能に構成されたカメラから、当該カメラで撮影されたカメラ映像を入力する。   The video processing apparatus described below includes an obstacle determination unit, a video input unit, a video processing unit, and a video output unit. The obstacle determination unit obtains information on the obstacle from the obstacle detection unit capable of detecting the obstacle existing behind the vehicle, and determines the presence or absence of the obstacle. The video input unit inputs a camera video captured by the camera from a camera configured to capture the rear side of the vehicle.

映像処理部は、映像入力部によって入力されたカメラ映像に基づいて第一の出力用映像及び第二の出力用映像を生成可能に構成される。障害物判定部によって障害物があると判定された場合、映像処理部は、第一の出力用映像を生成する。障害物判定部によって障害物がないと判定された場合、映像処理部は、第二の出力用映像を生成する。   The video processing unit is configured to generate a first output video and a second output video based on the camera video input by the video input unit. When the obstacle determination unit determines that there is an obstacle, the video processing unit generates a first output video. When the obstacle determination unit determines that there is no obstacle, the video processing unit generates a second output video.

これら第一の出力用映像及び第二の出力用映像のうちの少なくとも一方を生成する際、映像処理部は、視点位置、視線方向、及び視野範囲のうちの少なくとも一つを変更対象として、カメラ映像に対して変更対象を変更する映像変換処理を施す。これにより、上記変更対象(すなわち、視点位置、視線方向、及び視野範囲のうちの少なくとも一つ)が互いに異なる第一の出力用映像及び第二の出力用映像が生成される。   When generating at least one of the first output video and the second output video, the video processing unit uses at least one of the viewpoint position, the line-of-sight direction, and the field-of-view range as a change target. A video conversion process for changing the change target is performed on the video. As a result, the first output video and the second output video that are different from each other (that is, at least one of the viewpoint position, the line-of-sight direction, and the visual field range) are generated.

このような映像処理部において、映像変換処理としては、第一の出力用映像に第二の出力用映像よりも障害物が大きく表示されることになる映像変換処理、又は第二の出力用映像には表示されない障害物の一部又は全部が第一の出力用映像に表示されることになる映像変換処理が実行される。   In such a video processing unit, as the video conversion process, a video conversion process in which an obstacle is displayed larger in the first output video than the second output video, or the second output video A video conversion process is executed in which part or all of the obstacles that are not displayed are displayed on the first output video.

映像出力部は、映像処理部によって生成される第一の出力用映像又は第二の出力用映像を、車室内に配設された表示装置へと出力する。
このように構成された映像処理装置によれば、車両の後方に障害物がある場合には、第一の出力用映像を、表示装置の画面上に表示することができる。第一の出力用映像には、第二の出力用映像よりも障害物が大きく表示されるか、第二の出力用映像には表示されない障害物の一部又は全部が表示される。そのため、車両の運転者は、車両の後方にある障害物を容易に認識することができ、障害物を考慮した適切な運転操作を実施することができる。
The video output unit outputs the first output video or the second output video generated by the video processing unit to a display device disposed in the vehicle interior.
According to the video processing apparatus configured as described above, when there is an obstacle behind the vehicle, the first output video can be displayed on the screen of the display device. In the first output video, an obstacle is displayed larger than the second output video, or a part or all of the obstacle not displayed in the second output video is displayed. Therefore, the driver of the vehicle can easily recognize an obstacle behind the vehicle, and can perform an appropriate driving operation in consideration of the obstacle.

また、車両の後方に障害物がない場合には、第二の出力用映像を、表示装置の画面上に表示することができる。第二の出力用映像には、第一の出力用映像よりも広範囲(すなわち、仮に障害物があったとすれば、その障害物は第一の出力用映像よりも小さく表示されることになるような範囲。)が表示されるか、第一の出力用映像とは別の範囲(すなわち、第一の出力用映像には表示される障害物の一部又は全部が表示されなくなるような範囲。)が表示される。そのため、車両後方に障害物がなければ、車両の周辺をより広範囲にわたって表示することや、車両の後方の一部が見えなくなるような方向(例えば、車両の後輪付近を注視する方向。)を表示することが可能となる。よって、車両の後方以外にある対象物を認識しやすい映像を表示することができる。   Further, when there is no obstacle behind the vehicle, the second output video can be displayed on the screen of the display device. The second output video has a wider range than the first output video (that is, if there is an obstacle, the obstacle will be displayed smaller than the first output video). Or a range different from the first output video (that is, a range in which part or all of the obstacles to be displayed are not displayed in the first output video). ) Is displayed. Therefore, if there are no obstacles behind the vehicle, the periphery of the vehicle is displayed over a wider range, or a direction in which a part of the rear of the vehicle is not visible (for example, a direction in which the vicinity of the rear wheel of the vehicle is watched). It is possible to display. Therefore, it is possible to display an image that makes it easy to recognize an object other than the rear of the vehicle.

なお、上述のような映像変換処理は、第一の出力用映像及び第二の出力用映像のうちの少なくとも一方を生成する際に実行すればよい。すなわち、第一の出力用映像及び第二の出力用映像のうちの一方を生成する際に映像変換処理を実行してもよいし、両方のそれぞれを生成する際に映像変換処理を実行してもよい。   The video conversion process as described above may be executed when generating at least one of the first output video and the second output video. That is, the video conversion process may be executed when generating one of the first output video and the second output video, or the video conversion process may be executed when generating each of both. Also good.

一方を生成する際に映像変換処理が実行され、他方を生成する際に映像変換処理が実行されない場合、一方は上記変更対象がカメラ映像とは一致しない映像になり、他方は上記変更対象がカメラ映像と一致する映像になる。そのため、この場合は、上記変更対象が互いに異なる第一の出力用映像及び第二の出力用映像が生成されることになる。   When the video conversion process is executed when generating one and the video conversion process is not executed when generating the other, one of the change objects is an image that does not match the camera image, and the other is the change object is a camera. The video matches the video. Therefore, in this case, the first output video and the second output video, which are different from each other, are generated.

また、両方のそれぞれを生成する際に映像変換処理が実行される場合は、両方とも上記変更対象がカメラ映像とは一致しない映像になる。ただし、この場合も、上記変更対象が変更される程度を互いに異ならせることにより、上記変更対象が互いに異なる第一の出力用映像及び第二の出力用映像が生成されることになる。   In addition, when the video conversion process is executed when generating each of the both, the change target is a video that does not match the camera video. However, also in this case, the first output video and the second output video with different change targets are generated by making the change target different from each other.

また、以下に説明する車載映像処理システムは、障害物検知部と、カメラと、映像処理装置と表示装置とを備える。映像処理装置は、上述した通りの構成(すなわち、上述した障害物判定部、映像入力部、映像処理部、及び映像出力部。)を備える。したがって、上述の映像処理装置について述べた通りの作用、効果を奏する。   The vehicle-mounted video processing system described below includes an obstacle detection unit, a camera, a video processing device, and a display device. The video processing apparatus includes the configuration as described above (that is, the above-described obstacle determination unit, video input unit, video processing unit, and video output unit). Therefore, the operation and effect as described for the above-described video processing apparatus are achieved.

図1は車載映像処理システムの構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an in-vehicle video processing system. 図2は第一実施形態における映像処理を示すフローチャートである。FIG. 2 is a flowchart showing video processing in the first embodiment. 図3は第一実施形態で例示した車両、障害物、及びカメラによる撮影範囲の位置関係を示す説明図である。FIG. 3 is an explanatory diagram showing the positional relationship of the shooting range by the vehicle, the obstacle, and the camera exemplified in the first embodiment. 図4は第一実施形態におけるカメラ映像及び第一の出力用映像を例示した説明図である。FIG. 4 is an explanatory diagram illustrating the camera video and the first output video in the first embodiment. 図5は第一実施形態における第二の出力用映像を例示した説明図である。FIG. 5 is an explanatory diagram illustrating a second output video in the first embodiment. 図6は第二実施形態における映像処理を示すフローチャートである。FIG. 6 is a flowchart showing video processing in the second embodiment. 図7は第二実施形態における第一の出力用映像を例示した説明図である。FIG. 7 is an explanatory diagram illustrating the first output video in the second embodiment. 図8は第三実施形態における映像処理を示すフローチャートである。FIG. 8 is a flowchart showing video processing in the third embodiment. 図9は第三実施形態における第一の出力用映像を例示した説明図である。FIG. 9 is an explanatory diagram illustrating the first output video in the third embodiment. 図10はドアミラーに映る鏡像を例示した説明図である。FIG. 10 is an explanatory view illustrating a mirror image reflected on the door mirror. 図11は第四実施形態における第一の出力用映像を例示した説明図である。FIG. 11 is an explanatory diagram illustrating the first output video in the fourth embodiment. 図12は第五実施形態における映像処理を示すフローチャートである。FIG. 12 is a flowchart showing video processing in the fifth embodiment. 図13は第五実施形態における第一の出力用映像を例示した説明図である。FIG. 13 is an explanatory diagram illustrating the first output video in the fifth embodiment.

次に、上述の映像処理装置、及び車載映像処理システムについて、例示的な実施形態を挙げて説明する。
(1)第一実施形態
[映像処理装置の構成]
以下に説明する車載映像処理システムは、図1に示すように、上述の映像処理装置として機能する電子制御装置1(Electronic Control Unit;以下、ECU1と略称する。)を中心に構成される。ECU1の他には、左カメラ3、右カメラ4、左モニタ5、右モニタ6、障害物検知部7、及びシフト位置検知部8などを備える。
Next, the above-described video processing device and in-vehicle video processing system will be described with reference to exemplary embodiments.
(1) First embodiment [Configuration of video processing apparatus]
As shown in FIG. 1, an in-vehicle video processing system described below is mainly configured by an electronic control unit 1 (Electronic Control Unit; hereinafter abbreviated as ECU 1) that functions as the above-described video processing device. In addition to the ECU 1, a left camera 3, a right camera 4, a left monitor 5, a right monitor 6, an obstacle detection unit 7, a shift position detection unit 8, and the like are provided.

左カメラ3は、車両の左側にあるドアミラーの取り付け位置相当の箇所に取り付けられ、車両左側の後側方を撮影可能に構成されている。右カメラ4は、車両の右側にあるドアミラーの取り付け位置相当の箇所に取り付けられ、車両右側の後側方を撮影可能に構成されている。左カメラ3及び右カメラ4は、双方とも一般的なドアミラーを通して見える範囲よりも広い範囲を撮影可能に構成されている。   The left camera 3 is attached to a position corresponding to the attachment position of the door mirror on the left side of the vehicle, and is configured to be able to photograph the rear side of the left side of the vehicle. The right camera 4 is attached to a position corresponding to the attachment position of the door mirror on the right side of the vehicle, and is configured to be able to photograph the rear side of the right side of the vehicle. Both the left camera 3 and the right camera 4 are configured to be able to photograph a range wider than a range that can be seen through a general door mirror.

左モニタ5及び右モニタ6は、例えば液晶ディスプレイ装置などによって構成され、それぞれが車室内に配設されている。本実施形態の場合、左モニタ5は、運転席から見て左斜め前方となる位置に設置され、主に左カメラ3で撮影された映像が左モニタ5に表示される。右モニタ6は、運転席から見て右斜め前方となる位置に設置され、主に右カメラ4で撮影された映像が右モニタ6に表示される。   The left monitor 5 and the right monitor 6 are constituted by, for example, a liquid crystal display device or the like, and each is disposed in the vehicle interior. In the case of the present embodiment, the left monitor 5 is installed at a position that is diagonally forward left when viewed from the driver's seat, and images that are mainly captured by the left camera 3 are displayed on the left monitor 5. The right monitor 6 is installed at a position that is diagonally forward to the right when viewed from the driver's seat, and an image captured mainly by the right camera 4 is displayed on the right monitor 6.

ただし、左モニタ5及び右モニタ6の配設位置は、上述の配設位置には限定されない、また、左モニタ5及び右モニタ6は、上述のように、それぞれに対応する表示装置で構成されていてもよいが、単一の表示装置で構成されていてもよい。例えば、単一のセンターディスプレイを、ダッシュボードの中央付近(例えば、センターコンソール等、運転席と助手席との間となる位置に対向する箇所。)に配設し、左モニタ5及び右モニタ6に相当する表示領域を、センターディスプレイの画面上に設けてもよい。   However, the disposition positions of the left monitor 5 and the right monitor 6 are not limited to the disposition positions described above, and the left monitor 5 and the right monitor 6 are configured by the display devices corresponding to each as described above. However, it may be composed of a single display device. For example, a single center display is disposed in the vicinity of the center of the dashboard (for example, a location facing the position between the driver seat and the passenger seat, such as a center console), and the left monitor 5 and the right monitor 6. May be provided on the screen of the center display.

障害物検知部7は、車両の後方にある障害物の存在を検知可能で、検知した障害物までの距離を測定可能に構成されている。本実施形態の場合、障害物検知部7は、超音波方式
の測距センサ(以下、超音波ソナーともいう。)によって構成され、複数の超音波ソナーが車両の後方に配設されている。これら複数の超音波ソナーから車両の後方に向けて超音波を送波し、障害物によって反射された反射波を受波することにより、障害物の存在を検知し、検知した障害物までの距離を測定することができる。障害物検知部7によって得られる障害物情報は、上述のECU1へと伝送される。なお、障害物検知部7は、超音波方式以外の測距センサ(例えば、赤外線方式の測距センサ等。)によって構成されていてもよい。
The obstacle detection unit 7 is configured to be able to detect the presence of an obstacle behind the vehicle and to measure the distance to the detected obstacle. In the case of this embodiment, the obstacle detection unit 7 is configured by an ultrasonic distance measuring sensor (hereinafter also referred to as an ultrasonic sonar), and a plurality of ultrasonic sonars are disposed at the rear of the vehicle. By transmitting ultrasonic waves from these multiple ultrasonic sonars to the rear of the vehicle and receiving reflected waves reflected by the obstacles, the presence of the obstacles is detected, and the distance to the detected obstacles Can be measured. Obstacle information obtained by the obstacle detection unit 7 is transmitted to the ECU 1 described above. The obstacle detection unit 7 may be configured by a distance measuring sensor other than the ultrasonic method (for example, an infrared distance measuring sensor).

シフト位置検知部8は、トランスミッション(図示略)のシフト位置を検出するセンサによって構成される。シフト位置検知部8によって得られるシフト位置情報は、上述のECU1へと伝送される。   The shift position detector 8 is configured by a sensor that detects a shift position of a transmission (not shown). Shift position information obtained by the shift position detector 8 is transmitted to the ECU 1 described above.

ECU1は、映像入力部11、映像処理部12、映像出力部13、記憶部14、障害物判定部15、及びシフト位置判定部16などを備える。映像入力部11は、左カメラ3及び右カメラ4のそれぞれによって撮影されたカメラ映像を入力する。映像処理部12は、映像入力部11によって入力されたカメラ映像(左カメラ3で撮影されたカメラ映像、及び右カメラ4で撮影されたカメラ映像。)それぞれに対して映像処理を施して出力用映像を生成する。なお、映像処理部12において実行される映像処理の詳細については後述する。   The ECU 1 includes a video input unit 11, a video processing unit 12, a video output unit 13, a storage unit 14, an obstacle determination unit 15, a shift position determination unit 16, and the like. The video input unit 11 inputs camera video shot by each of the left camera 3 and the right camera 4. The video processing unit 12 performs video processing on each of the camera video input by the video input unit 11 (camera video shot by the left camera 3 and camera video shot by the right camera 4) for output. Generate video. Details of the video processing executed in the video processing unit 12 will be described later.

映像出力部13は、映像処理部12によって生成された出力用映像のうち、左カメラ3で撮影されたカメラ映像に基づいて生成された出力用映像を左モニタ5へと出力し、右カメラ4で撮影されたカメラ映像に基づいて生成された出力用映像を右モニタ6へと出力する。これにより、運転者は、車両の後退時、あるいは車線変更等を実施する際に、左モニタ5及び右モニタ6に映し出される映像を見て、車両の後側方の状況を把握することができる。   The video output unit 13 outputs, to the left monitor 5, the output video generated based on the camera video captured by the left camera 3 among the output videos generated by the video processing unit 12, and the right camera 4. The video for output generated based on the camera video shot in step 1 is output to the right monitor 6. As a result, the driver can grasp the situation on the rear side of the vehicle by looking at the images displayed on the left monitor 5 and the right monitor 6 when the vehicle moves backward or when changing lanes. .

記憶部14には、映像処理部12において映像処理を実行する際に必要となる各種データが記憶されている。障害物判定部15は、障害物検知部7から得られた障害物情報に基づいて、車両後方における障害物の有無を判定する。シフト位置判定部16は、シフト位置検知部8から得られたシフト位置情報に基づいて、トランスミッションのシフト位置を判定する。   The storage unit 14 stores various types of data required when the video processing unit 12 executes video processing. The obstacle determination unit 15 determines the presence or absence of an obstacle behind the vehicle based on the obstacle information obtained from the obstacle detection unit 7. The shift position determination unit 16 determines the shift position of the transmission based on the shift position information obtained from the shift position detection unit 8.

なお、本実施形態の場合、車両にはドアミラーそのもの(すなわち、鏡に映る鏡像によって車両の後側方を確認可能に構成されたもの。)は取り付けられていない。その代わりに、ドアミラーの取り付け位置相当の箇所には、上述の左カメラ3及び右カメラ4が取り付けられている。運転者は、ドアミラーを見る代わりに、左モニタ5及び右モニタ6を見ることにより、車両の後側方の状況を確認することができる。   In the case of the present embodiment, the door mirror itself (that is, a configuration in which the rear side of the vehicle can be confirmed by a mirror image reflected in the mirror) is not attached to the vehicle. Instead, the left camera 3 and the right camera 4 described above are attached at a position corresponding to the attachment position of the door mirror. The driver can check the situation on the rear side of the vehicle by looking at the left monitor 5 and the right monitor 6 instead of looking at the door mirror.

ただし、本実施形態において説明する車載映像処理システムは、ドアミラーが取り付けられている車両において、ドアミラーと併用される構成として採用されてもかまわない。例えば、車両の左右両側それぞれにドアミラーが取り付けられ、それらのドアミラーに対して左カメラ3及び右カメラ4が取り付けられていてもよい。この場合、左モニタ5及び右モニタ6は、ドアミラーと併用して車両の後側方を確認するために利用することができる。   However, the in-vehicle image processing system described in the present embodiment may be adopted as a configuration used in combination with a door mirror in a vehicle to which a door mirror is attached. For example, door mirrors may be attached to the left and right sides of the vehicle, and the left camera 3 and the right camera 4 may be attached to the door mirrors. In this case, the left monitor 5 and the right monitor 6 can be used in combination with a door mirror to check the rear side of the vehicle.

[ECUにおいて実行される処理の詳細]
次に、ECU1において実行される処理について、図2に示すフローチャートに基づいて説明する。以下に説明する処理は、車両の作動開始に伴って実行され、以降は車両の作動停止まで繰り返し実行される処理である。
[Details of processing executed in ECU]
Next, processing executed in the ECU 1 will be described based on the flowchart shown in FIG. The process described below is executed as the vehicle starts to operate, and thereafter is repeatedly executed until the vehicle stops operating.

この処理を開始すると、ECU1は、左カメラ3及び右カメラ4のそれぞれによって撮影されたカメラ映像を取得する(S10)。本実施形態の場合、左カメラ3及び右カメラ4としては、撮影対象の左右を反転させて鏡像として映像を出力するカメラを採用している。そのため、S10では、特に追加の映像処理を施さなくても鏡像化済みのカメラ映像を取得することができる。ただし、左カメラ3及び右カメラ4としては、撮影対象の左右を反転させることなく正像として映像を出力するカメラを採用することもできる。この場合は、ECU1が、S10又はその後の処理ステップにおいて、正像として取得した映像の左右を反転させて鏡像に変換する映像処理を施せばよい。   When this process is started, the ECU 1 acquires camera images captured by the left camera 3 and the right camera 4 (S10). In the case of the present embodiment, as the left camera 3 and the right camera 4, cameras that output a video image as a mirror image by inverting the left and right of the subject to be photographed are employed. Therefore, in S10, it is possible to acquire a mirrored camera image without performing any additional image processing. However, as the left camera 3 and the right camera 4, a camera that outputs a video as a normal image without reversing the left and right of the subject to be photographed can be adopted. In this case, the ECU 1 may perform video processing that inverts the left and right of the video acquired as a normal image and converts it into a mirror image in S10 or a subsequent processing step.

こうして得られるカメラ映像は、例えば右カメラ4によって撮影される映像を例に挙げると、図3に例示するような状況下では、図4に例示するような映像となる。図3において、車両20は、駐車枠22(舗装面上に描かれた白線。)の内側において、車両20の右側にある白線に寄せた状態で停車している。また、車両20の後方において、車両20の近くにはパイロン(ロードコーン)24が置かれており、パイロン24よりも遠方には別の車両26が停車している。   The camera image obtained in this way is, for example, an image taken by the right camera 4 and is an image as illustrated in FIG. 4 under the situation illustrated in FIG. In FIG. 3, the vehicle 20 is stopped inside the parking frame 22 (white line drawn on the pavement surface) in a state of being brought to the white line on the right side of the vehicle 20. Further, a pylon (road cone) 24 is placed near the vehicle 20 behind the vehicle 20, and another vehicle 26 is stopped farther than the pylon 24.

左カメラ3及び右カメラ4は、例えば、パイロン24の中央付近を見下ろすような角度での撮影方向に関し、図3中に二点鎖線で例示するような撮影範囲A1,A2を撮影可能となっている。ただし、撮影範囲B1,B2については、車両20の車体が映り込む。そのため、例えば、撮影範囲B2内にあるパイロン24は、その一部が、図4に示すように、カメラ映像に映り込んでいる車両20の背後となる位置に隠れることになる。同様に、別の車両26についても、その一部がカメラ映像に映り込んでいる車両20の背後となる位置に隠れることになる。なお、左カメラ3は撮影対象が車体左側の後側方となる点で右カメラ4とは相違するが、図2に示す処理を理解する上で重要な事項ではないので、左カメラ3によって撮影される映像についての図示は省略する。   For example, the left camera 3 and the right camera 4 can photograph the photographing ranges A1 and A2 as illustrated by the two-dot chain line in FIG. 3 with respect to the photographing direction at an angle looking down near the center of the pylon 24. Yes. However, the body of the vehicle 20 is reflected in the shooting ranges B1 and B2. Therefore, for example, a part of the pylon 24 in the photographing range B2 is hidden behind the vehicle 20 reflected in the camera image as shown in FIG. Similarly, another vehicle 26 is also hidden in a position behind the vehicle 20 that is partially reflected in the camera image. Although the left camera 3 is different from the right camera 4 in that the object to be photographed is the rear side of the left side of the vehicle body, it is not an important matter for understanding the processing shown in FIG. Illustration of the video to be performed is omitted.

さて、S10において上述のようなカメラ映像を取得したら、ECU1は、シフト位置検知部8からシフト位置情報を取得して、シフト位置がリバース(後退)か否かを判定する(S20)。S20において、シフト位置がリバースである場合は(S20:YES)、S30へと進む。また、S20において、シフト位置がリバースではない場合は(S20:YES)、S30−S50を実行することなく、S60へと進む。   Now, if the above camera images are acquired in S10, ECU1 will acquire shift position information from the shift position detection part 8, and will determine whether a shift position is reverse (reverse | reverse) (S20). In S20, when the shift position is reverse (S20: YES), the process proceeds to S30. In S20, when the shift position is not reverse (S20: YES), the process proceeds to S60 without executing S30 to S50.

S30へ進んだ場合、ECU1は、障害物検知部7から障害物情報を取得する(S30)。そして、ECU1は、車両後方に障害物があるか否かを判定する(S40)。S40において、車両後方に障害物がない場合は(S40:NO)、S50へと進む。また、S40において、車両後方に障害物がある場合は(S40:NO)、S50を実行することなく、S60へと進む。   When it progresses to S30, ECU1 acquires obstruction information from the obstruction detection part 7 (S30). Then, the ECU 1 determines whether there is an obstacle behind the vehicle (S40). In S40, when there is no obstacle behind the vehicle (S40: NO), the process proceeds to S50. In S40, when there is an obstacle behind the vehicle (S40: NO), the process proceeds to S60 without executing S50.

S50へ進んだ場合、ECU1は、左カメラ3及び右カメラ4それぞれによって撮影されたカメラ映像に対し、車両後退時用の視点変換を施す(S50)。本実施形態の場合、S50において、図4に例示したような視点位置等とされたカメラ映像に対し、視点変換を施すことにより、図5に例示するような出力用映像(本明細書でいう第二の出力用映像に相当。)が生成される。ただし、図4に例示したカメラ映像には、パイロン24や別の車両26が映り込んでいるが、S50を実行するのは車両後方に障害物がない場合なので、例えば、図4中からパイロン24や別の車両26を無くしたような映像(図示は省略。)が、S50における視点変換前の映像となる。   When the process proceeds to S50, the ECU 1 performs viewpoint conversion for the backward movement of the vehicle on the camera images taken by the left camera 3 and the right camera 4 (S50). In the case of the present embodiment, in S50, by performing viewpoint conversion on the camera image having the viewpoint position as illustrated in FIG. 4 and the like, an output image as illustrated in FIG. Corresponding to the second output video). However, although the pylon 24 and another vehicle 26 are reflected in the camera image illustrated in FIG. 4, since S50 is executed when there is no obstacle behind the vehicle, for example, the pylon 24 from FIG. Or an image (not shown) such that another vehicle 26 is lost is the image before the viewpoint conversion in S50.

S50において生成される出力用映像(図5参照。)は、図4に例示するカメラ映像よりも、駐車枠22と車両20の後輪20Aとの位置関係を確認しやすいように視点位置等
が変換された映像とされている。このような視点変換を行った場合、図5に例示する出力用映像においては、パイロン24や別の車両26の存在する箇所は、映像内に収まらない箇所となる。ただし、S50を実行するのは、上述の通り、車両後方に障害物がない場合なので、パイロン24や別の車両26の存在する箇所が映像内に収まっていなくても、そのような箇所に障害物はないはずであり、その点の問題はない。
The output video (see FIG. 5) generated in S50 has a viewpoint position and the like so that the positional relationship between the parking frame 22 and the rear wheel 20A of the vehicle 20 can be confirmed more easily than the camera video illustrated in FIG. It is the converted video. When such viewpoint conversion is performed, in the output video illustrated in FIG. 5, a location where the pylon 24 or another vehicle 26 exists is a location that does not fit in the video. However, since S50 is executed when there is no obstacle behind the vehicle as described above, even if the location where the pylon 24 or another vehicle 26 exists is not within the image, there is an obstacle at such a location. There should be nothing, and there is no problem with that.

以上のようなS50を終えると、S60へと進む。また、上述の通り、S20又はS40からS60へと進む場合もある。S20又はS40からS60へと進む場合は、S50は実行されず、その場合は、図4に例示するようなカメラ映像そのものが出力用映像(本明細書でいう第一の出力用映像に相当。)とされる。そして、S60において、ECU1は、図4及び図5に例示したような互いに視点位置等が異なる出力用映像のうちのいずれか一方の出力用映像を、モニタ映像として左モニタ5及び右モニタ6に表示する(S60)。   When S50 as described above is completed, the process proceeds to S60. Further, as described above, the process may proceed from S20 or S40 to S60. When the process proceeds from S20 or S40 to S60, S50 is not executed. In this case, the camera video itself illustrated in FIG. 4 corresponds to the output video (this corresponds to the first output video in this specification). ). Then, in S60, the ECU 1 displays one of the output videos having different viewpoint positions and the like as exemplified in FIGS. 4 and 5 on the left monitor 5 and the right monitor 6 as a monitor video. Display (S60).

S60を実行すると、例えば右モニタ6には、車両後方に何らかの障害物があれば図4に例示したような出力用映像が表示され、車両後方に障害物がなければ図5に例示したような出力用映像が表示される。なお、左モニタ5にも、同様の出力用映像が表示される(図示は省略。)。以上のような処理は、例えば毎秒30−120回程度の処理速度で繰り返し実行され、これにより、左モニタ5及び右モニタ6には、フレームレート30−120fps程度の動画で車両の後側方の映像が表示される。   When S60 is executed, for example, the right monitor 6 displays an output image as illustrated in FIG. 4 if there is any obstacle behind the vehicle, and as illustrated in FIG. 5 if there is no obstacle behind the vehicle. The output video is displayed. A similar output video is also displayed on the left monitor 5 (not shown). The above processing is repeatedly executed at a processing speed of, for example, about 30 to 120 times per second. As a result, the left monitor 5 and the right monitor 6 are animated on the rear side of the vehicle with a frame rate of about 30 to 120 fps. An image is displayed.

[効果]
以上説明したように、上記車載映像処理システムによれば、車両が前進している場合や停車している場合には、S20において否定判断がなされ、右モニタ6には図4に例示したような視点位置等で映像が表示される。したがって、例えば、車両の走行中には、隣の車線や更にその隣の車線を走行する車両等を広範囲にわたって視認することができる。
[effect]
As described above, according to the in-vehicle video processing system, when the vehicle is moving forward or stopped, a negative determination is made in S20, and the right monitor 6 is as illustrated in FIG. An image is displayed at the viewpoint position or the like. Therefore, for example, while the vehicle is traveling, it is possible to visually recognize the adjacent lane and the vehicle traveling in the adjacent lane over a wide range.

また、車両が後退する際、車両後方に障害物がない場合は、S20において肯定判断、S40において否定判断がなされ、右モニタ6には図5に例示したような視点位置等で映像が表示される。したがって、右モニタ6には、車両20の後輪20A付近の映像が、図4に例示したような出力用映像が表示される場合以上に大きめに表示されることになり、駐車枠22と車両20の後輪20Aの位置関係を容易に確認できるようになる。よって、例えば、駐車枠22の白線にぴったりと寄せて車両を停車させたい場合でも、より厳密に停車位置の微調整を試行することができる。   Further, when the vehicle moves backward, if there is no obstacle behind the vehicle, an affirmative determination is made in S20 and a negative determination is made in S40, and an image is displayed on the right monitor 6 at a viewpoint position as illustrated in FIG. The Therefore, on the right monitor 6, the image near the rear wheel 20A of the vehicle 20 is displayed larger than when the output image illustrated in FIG. 4 is displayed, and the parking frame 22 and the vehicle The positional relationship of the 20 rear wheels 20A can be easily confirmed. Therefore, for example, even when it is desired to stop the vehicle by closely approaching the white line of the parking frame 22, it is possible to try fine adjustment of the stop position more strictly.

一方、車両が後退する際、車両後方に障害物がある場合は、S20において肯定判断、S40において肯定判断がなされ、右モニタ6には図4に例示したような視点位置等で映像が表示される。したがって、この場合は、車両20の後輪20A付近の映像は、図5に例示したような出力用映像が表示される場合に比べて小さめの表示にはなるものの、パイロン24や別の車両26が映り込んだ出力用映像となる。よって、パイロン24や別の車両26のような障害物が存在することを右モニタ6で適切に視認でき、それらの障害物に気づかないまま車両を後退させてしまうのを抑制することができる。   On the other hand, when the vehicle moves backward, if there is an obstacle behind the vehicle, an affirmative determination is made in S20 and an affirmative determination is made in S40, and an image is displayed on the right monitor 6 at the viewpoint position shown in FIG. The Therefore, in this case, although the image near the rear wheel 20A of the vehicle 20 is displayed smaller than the case where the output image as illustrated in FIG. 5 is displayed, the pylon 24 or another vehicle 26 is displayed. Becomes the output video. Therefore, the presence of obstacles such as the pylon 24 and another vehicle 26 can be appropriately visually recognized on the right monitor 6, and the vehicle can be prevented from moving backward without noticing those obstacles.

(2)第二実施形態
次に、第二実施形態について説明する。なお、第二実施形態以降の実施形態は、第一実施形態と共通部分が多いので、第一実施形態との相違点を中心に詳述する。第一実施形態との共通部分に関しては、第一実施形態と同じ符号を付すことにして、その詳細な説明を省略する。
(2) Second Embodiment Next, a second embodiment will be described. Since the second and subsequent embodiments have many common parts with the first embodiment, the differences from the first embodiment will be mainly described. About the common part with 1st embodiment, the same code | symbol as 1st embodiment is attached | subjected and the detailed description is abbreviate | omitted.

第二実施形態以降の各実施形態は、ハードウェア等の構成は第一実施形態と同様であり
、ECU1において実行される処理の一部が第一実施形態とは相違する。以下、ECU1において実行される処理について、図6に示すフローチャートに基づいて説明する。なお、第二実施形態以降の各実施形態において説明する各処理も、車両の作動開始に伴って実行され、以降は車両の作動停止まで繰り返し実行される処理である点は、第一実施形態と同様である。
In each embodiment after the second embodiment, the configuration of hardware or the like is the same as that of the first embodiment, and a part of the processing executed in the ECU 1 is different from that of the first embodiment. Hereinafter, the process performed in ECU1 is demonstrated based on the flowchart shown in FIG. In addition, each process demonstrated in each embodiment after 2nd embodiment is also performed with the start of operation | movement of a vehicle, and the point which is a process repeatedly performed until operation | movement stop of a vehicle after that is 1st embodiment. It is the same.

第二実施形態の処理は、S40において、車両後方に障害物がある場合に(S40:NO)、S52を実行する点で第一実施形態とは相違する。すなわち、S52へ進んだ場合、ECU1は、左カメラ3及び右カメラ4それぞれによって撮影されたカメラ映像に対し、車両後退時障害物あり用の視点変換を施す(S52)。なお、車両後方に障害物がない場合(S40:YES)、ECU1は、左カメラ3及び右カメラ4それぞれによって撮影されたカメラ映像に対し、車両後退時障害物なし用の視点変換を施すが(S50)、これは第一実施形態で説明したS50と全く同様の処理ステップである。   The process of the second embodiment differs from the first embodiment in that S52 is executed when there is an obstacle behind the vehicle in S40 (S40: NO). That is, when the process proceeds to S52, the ECU 1 performs viewpoint conversion for the presence of an obstacle when the vehicle moves backward on the camera images taken by the left camera 3 and the right camera 4 (S52). If there is no obstacle behind the vehicle (S40: YES), the ECU 1 performs viewpoint conversion for no obstacle when the vehicle moves backward on the camera images taken by the left camera 3 and the right camera 4 ( S50), which is the same processing step as S50 described in the first embodiment.

本実施形態の場合、S52において、図4に例示したような視点位置等とされたカメラ映像に対し、視点変換を施すことにより、図7に例示するような出力用映像(本明細書でいう第一の出力用映像に相当。)が生成される。S52において生成される出力用映像(図7参照。)は、図4に例示するカメラ映像よりも、パイロン24や別の車両26の存在する箇所が大きめの映像で表示されるように視点位置等が変換された映像とされている。これにより、図4に例示したカメラ映像以上に、車両の後方にある障害物(パイロン24や別の車両26)を容易に視認することができる。   In the case of the present embodiment, in S52, an output video (referred to in this specification) as illustrated in FIG. 7 is obtained by performing viewpoint conversion on the camera video having the viewpoint position as illustrated in FIG. Corresponding to the first output video). The video for output (see FIG. 7) generated in S52 is such that the position of the viewpoint is displayed so that the location where the pylon 24 or another vehicle 26 is present is displayed larger than the camera video illustrated in FIG. Is converted video. Thereby, the obstacle (pylon 24 or another vehicle 26) in the rear of the vehicle can be easily recognized more than the camera image illustrated in FIG.

ちなみに、図7に例示する出力用映像は、図4に例示するカメラ映像よりも画角が狭く、その分だけ歪みが少ない映像になっている。また、図7に例示する出力用映像の視野範囲は、一般的なドアミラーと同程度に設定されている。そのため、一般的なドアミラーによる後方確認に慣れている運転者にとっては、図4に例示するカメラ映像がそのまま表示される場合よりも、違和感の少ない映像となる。   Incidentally, the output video illustrated in FIG. 7 has a narrower angle of view than that of the camera video illustrated in FIG. In addition, the visual field range of the output video illustrated in FIG. 7 is set to the same level as a general door mirror. Therefore, for a driver who is accustomed to the backward confirmation using a general door mirror, the image is less uncomfortable than when the camera image illustrated in FIG. 4 is displayed as it is.

以上のように構成された車載映像処理システムでも、車両が前進している場合、停車している場合、車両が後退する際に障害物がない場合については、第一実施形態と全く同様の出力用映像が左モニタ5及び右モニタ6に表示される。したがって、これらの場合は、第一実施形態と全く同様の作用、効果を奏する。   Even in the in-vehicle video processing system configured as described above, when the vehicle is moving forward, when the vehicle is stopped, or when there is no obstacle when the vehicle moves backward, the same output as in the first embodiment The video for use is displayed on the left monitor 5 and the right monitor 6. Therefore, in these cases, the same operation and effect as the first embodiment are achieved.

また、車両が後退する際に、車両後方に障害物がある場合は、S20において肯定判断、S40において肯定判断がなされ、右モニタ6には図7に例示したような視点位置等で映像が表示される。したがって、この場合は、図4に例示するカメラ映像がそのまま表示される第一実施形態の装置に比べ、パイロン24や別の車両26が大きめの映像で表示されることになる。よって、出力用映像に映り込んでいる障害物については、より小さな障害物であっても、その存在を容易に視認することができ、そのような障害物に気づかないまま車両を後退させてしまうのを抑制することができる。   Further, when there is an obstacle behind the vehicle when the vehicle moves backward, an affirmative determination is made in S20 and an affirmative determination is made in S40, and the right monitor 6 displays an image at the viewpoint position as illustrated in FIG. Is done. Therefore, in this case, the pylon 24 or another vehicle 26 is displayed in a larger image as compared with the apparatus of the first embodiment in which the camera image illustrated in FIG. 4 is displayed as it is. Therefore, even if the obstacle is reflected in the video for output, even if it is a smaller obstacle, its presence can be easily recognized, and the vehicle is moved backward without being aware of such an obstacle. Can be suppressed.

(3)第三実施形態
次に、第三実施形態について説明する。第三実施形態の場合、ECU1において実行される処理は、S52を実行したあとにS56を実行する点で、第二実施形態とは相違する。S56へ進んだ場合、ECU1は、S52で生成された出力用映像に対し、自車ボディ映像を合成する(S56)。S56以外は、第一実施形態、及び第二実施形態において、同一の符号を付して説明した各処理ステップと全く同様である。
(3) Third Embodiment Next, a third embodiment will be described. In the case of the third embodiment, the processing executed in the ECU 1 is different from the second embodiment in that S56 is executed after S52 is executed. When the process proceeds to S56, the ECU 1 synthesizes the vehicle body video with the output video generated in S52 (S56). Except for S56, the processing steps described with the same reference numerals in the first and second embodiments are exactly the same.

S56で合成される自車ボディ映像は、S52で生成された出力用映像に映り込んでいる車体の一部をマスクするための映像である。例えば、S52において、図7に例示する
ような映像が生成された場合、更にS56が実行されると、図9に示すように、元の映像(図7参照。)に対し自車ボディ映像28が合成されることになる。
The host vehicle body image synthesized in S56 is an image for masking a part of the vehicle body reflected in the output image generated in S52. For example, in S52, when a video as illustrated in FIG. 7 is generated, when S56 is further executed, as shown in FIG. 9, the vehicle body video 28 is compared with the original video (see FIG. 7). Will be synthesized.

自車ボディ映像28としては、運転者が違和感を覚えないようなアングルで撮影された実車両の映像を、あらかじめ記憶部14に記憶しておいて、その映像を記憶部14から読み込んで利用すればよい。あるいは、そのような映像と同等な映像を生成するために必要なデータ(例えばポリゴンデータ。)などを、あらかじめ記憶部14に記憶しておいて、そのようなデータに基づいて実車両相当の映像を生成して利用してもよい。   As the own vehicle body image 28, an image of an actual vehicle shot at an angle that does not cause the driver to feel uncomfortable is stored in the storage unit 14 in advance, and the image is read from the storage unit 14 and used. That's fine. Alternatively, data (for example, polygon data) necessary for generating an image equivalent to such an image is stored in the storage unit 14 in advance, and an image corresponding to an actual vehicle is based on such data. May be generated and used.

図9に示すような映像を生成すれば、一般的なドアミラーによる後方確認に慣れている運転者にとっては、第二実施形態以上に違和感の少ない映像を右モニタ6に表示することができる。より詳しく説明すると、図3に例示したような状況下で、一般的なドアミラーによる後方確認を行うと、例えば、右側のドアミラーには、図10に示すような景色が映り込む。図7に示すカメラ映像と、図10に示すドアミラーの鏡像とを比較すると、右カメラ4の取り付け位置とドアミラーを見る運転者の目の位置との違いに起因して、それぞれに映り込んでいる車両20の領域に違いがあることがわかる。   If a video as shown in FIG. 9 is generated, a video with less sense of incongruity than the second embodiment can be displayed on the right monitor 6 for a driver who is accustomed to the backward confirmation using a general door mirror. More specifically, under the situation illustrated in FIG. 3, when a backward confirmation is performed using a general door mirror, for example, a scene as shown in FIG. 10 is reflected on the right door mirror. When the camera image shown in FIG. 7 is compared with the mirror image of the door mirror shown in FIG. 10, it is reflected in each due to the difference between the mounting position of the right camera 4 and the position of the eyes of the driver viewing the door mirror. It can be seen that there is a difference in the area of the vehicle 20.

ドアミラーによる後方確認に慣れている運転者にとっては、車両20と駐車枠22の白線が、図10のような位置関係で見えることによっても、車両20がその右側にある白線に寄せた状態にあることを把握している場合がある。このような場合、図7に示すような映像が右モニタ6に表示されると、車両20とその右側にある白線との間に、まだ距離があるようにも見え、これが違和感の一因になり得る。   For the driver who is accustomed to the rear view confirmation using the door mirror, the vehicle 20 and the parking frame 22 can be seen in the positional relationship as shown in FIG. You may know that. In such a case, when an image as shown in FIG. 7 is displayed on the right monitor 6, it seems that there is still a distance between the vehicle 20 and the white line on the right side thereof, which contributes to a sense of incongruity. Can be.

これに対し、図9に示すような自車ボディ映像28が合成された映像を右モニタ6に表示すれば、違和感を覚える要因となっていた車両20の映像は、自車ボディ映像28によってマスクされる。これにより、図10に示すドアミラーの鏡像と類似の構図となる映像を右モニタ6に表示することができるので、ドアミラーによる後方確認に慣れている運転者に対し、違和感の少ない映像を見せることができる。   On the other hand, if an image obtained by synthesizing the vehicle body image 28 as shown in FIG. 9 is displayed on the right monitor 6, the image of the vehicle 20 that causes a sense of discomfort is masked by the vehicle body image 28. Is done. As a result, an image having a composition similar to the mirror image of the door mirror shown in FIG. 10 can be displayed on the right monitor 6, so that a driver who is accustomed to confirming the rear by the door mirror can display an image with a little uncomfortable feeling. it can.

ちなみに、図10に示すドアミラーの鏡像を見ると明らかなように、ドアミラーで後方確認をする場合、パイロン24は、ドアミラーではほとんど見えない位置にある。一般的なドアミラーによる後方確認に慣れている運転者にとっては、このような見え方であることの方が適正であって違和感が少ない。したがって、違和感の低減を重視する場合には、自車ボディ映像28によってパイロン24が見えなくなること自体は問題ではない。それでもパイロン24を見たい場合には、図示しないバックモニタなどを併用するといった解決法もある。   Incidentally, as is apparent from the mirror image of the door mirror shown in FIG. 10, when the rear view is confirmed with the door mirror, the pylon 24 is in a position that is hardly visible with the door mirror. For a driver who is used to confirming rearward with a general door mirror, such a view is more appropriate and less uncomfortable. Therefore, when emphasis is placed on reducing the sense of incongruity, it is not a problem that the pylon 24 is invisible by the vehicle body image 28 itself. If you still want to see the pylon 24, there is a solution such as using a back monitor (not shown).

(4)第四実施形態
次に、第四実施形態について説明する。第四実施形態の場合、ECU1において実行される処理は、第三実施形態と同等な処理ステップによって構成される。ただし、S56において、S52で生成された出力用映像に対して合成される自車ボディ映像が、第三実施形態とは異なる構成とされている。
(4) Fourth Embodiment Next, a fourth embodiment will be described. In the case of the fourth embodiment, the processing executed in the ECU 1 is configured by processing steps equivalent to those of the third embodiment. However, in S56, the vehicle body video combined with the output video generated in S52 is configured differently from the third embodiment.

すなわち、上述の通り、第三実施形態の場合は、一般的なドアミラーによる後方確認に慣れている運転者にとって違和感が低減されるように、自車ボディ映像28によってパイロン24が見えなくなるような構成としてあった。ただし、パイロン24が見えるような構成にするのも一案であり、その方が障害物の有無をより確認しやすい。   That is, as described above, in the case of the third embodiment, a configuration in which the pylon 24 is not visible by the own vehicle body image 28 so that a feeling of discomfort is reduced for a driver accustomed to the backward confirmation using a general door mirror. It was as. However, it is one idea to make the configuration so that the pylon 24 can be seen.

そこで、第四実施形態においては、自車ボディ映像28によるマスクと、パイロン24の表示とを両立させるため、図11に示すように、自車ボディ映像28の一部を不透過部
28A、残りの一部を透過部28Bとした。
Therefore, in the fourth embodiment, in order to achieve both the mask based on the vehicle body image 28 and the display of the pylon 24, as shown in FIG. A part of the transmissive part 28B.

不透過部28Aは、元の映像が透過表示されない領域である。透過部28Bは、元の映像が透過表示される領域である。本実施形態の場合、実際の車体の映像が映り込んでいる箇所を含む範囲が不透過部28Aでマスクされ、実際の車体の映像が映り込んでいない箇所が透過部28Bにおいて透過表示される。   The opaque part 28A is an area where the original video is not transparently displayed. The transmissive portion 28B is an area where the original video is transmissively displayed. In the case of the present embodiment, a range including a portion where an image of an actual vehicle body is reflected is masked by the non-transparent portion 28A, and a portion where an image of the actual vehicle body is not reflected is transparently displayed on the transmission portion 28B.

映像中において、実際の車体の映像が映り込んでいる箇所がどのような範囲になるのかは、左カメラ3及び右カメラ4によって撮影される映像の視点位置等と、車両20の具体的な形状等とに応じて変わり得る。ただし、あらかじめ実車両で撮影して車体の映像が映り込む範囲を特定し、必要があれば、特定した範囲に対して更にある程度のマージンを加えてマスク範囲を決めることは可能なので、このような手法で、不透過部28A及び透過部28Bの範囲をそれぞれ設定しておけばよい。   In the video, the range in which the actual image of the vehicle body is reflected depends on the viewpoint position of the video shot by the left camera 3 and the right camera 4 and the specific shape of the vehicle 20. It can change depending on etc. However, it is possible to determine the mask range by adding a certain amount of margin to the specified range if necessary, specifying the range in which the image of the vehicle body is captured in advance by shooting with an actual vehicle. The range of the opaque portion 28A and the transparent portion 28B may be set by the method.

このような不透過部28A及び透過部28Bを有する自車ボディ映像28を合成すれば、出力用映像全体としては、図10に示すドアミラーの鏡像と類似の構図となる。したがって、第三実施形態と同様に、ドアミラーによる後方確認に慣れている運転者に対し、違和感の少ない映像を見せることができる。しかも、透過部28Bにおいては、自車ボディ映像28が合成された箇所にある障害物(例えば、図11中に示すパイロン24。)を見ることもできる。したがって、第三実施形態とは異なり、自車ボディ映像28を合成したことにより、障害物に関する有用な情報が欠落してしまうのを抑制することができる。また、不透過部28Aにおいては、実際の車体の映像は透過表示されないので、例えば、実際の車体の映像の一部を何らかの障害物と誤認するのを抑制することができる。   By synthesizing the vehicle body video 28 having such a non-transmissive portion 28A and the transmissive portion 28B, the overall output video has a composition similar to the mirror image of the door mirror shown in FIG. Therefore, similarly to the third embodiment, it is possible to show an image with a little uncomfortable feeling to a driver who is used to confirming rearward with a door mirror. Moreover, in the transmission part 28B, it is possible to see an obstacle (for example, the pylon 24 shown in FIG. 11) at the place where the vehicle body image 28 is synthesized. Therefore, unlike the third embodiment, by synthesizing the vehicle body image 28, it is possible to suppress the loss of useful information regarding the obstacle. Further, since the image of the actual vehicle body is not transmissively displayed in the impermeable portion 28A, for example, it is possible to suppress misidentifying a part of the image of the actual vehicle body as an obstacle.

なお、上述のような不透過部28A及び透過部28Bを有する自車ボディ映像28を合成する場合、出力用映像内における透過部28Bの範囲(以下、第一範囲29Aとも称する。)や、出力用映像内における自車ボディ映像28が合成されない範囲(以下、第二範囲29Bとも称する。)に関し、各範囲の形状、大きさ、両範囲の境界の位置等は、あらかじめ決めておくことができる。例えば、自車ボディ映像28としては、先に説明したような、実車両の映像やデータから生成された実車両相当の映像を利用すればよいが、いずれの場合とも、出力用映像内での合成範囲は不変なので、その合成範囲を特定することが可能である。   When the vehicle body video 28 having the non-transparent part 28A and the transmissive part 28B as described above is synthesized, the range of the transmissive part 28B in the output video (hereinafter also referred to as the first range 29A) and the output. Regarding the range in which the vehicle body video 28 is not synthesized in the video for use (hereinafter also referred to as the second range 29B), the shape and size of each range, the position of the boundary between both ranges, and the like can be determined in advance. . For example, as the vehicle body image 28, an image corresponding to an actual vehicle generated from the image or data of the actual vehicle as described above may be used. Since the synthesis range does not change, it is possible to specify the synthesis range.

そこで、上記第一範囲29Aと第二範囲29Bが事前に特定できることを利用し、上記第一範囲29Aと第二範囲29Bとで視点変換の有無又は程度を変更することにより、第二範囲29Bにおいては第一範囲29Aよりも映像の歪みが小となるようにしてもよい。   Therefore, by utilizing the fact that the first range 29A and the second range 29B can be specified in advance, by changing the presence or absence or degree of viewpoint conversion between the first range 29A and the second range 29B, in the second range 29B May be such that image distortion is smaller than in the first range 29A.

例えば、第一範囲29Aにおいては映像に歪みが生じる視点変換を行う一方、第二範囲29Bにおいては第一範囲29A相当の視点変換を行わないようにしてもよい。あるいは、例えば、第一範囲29A及び第二範囲29Bの双方で視点変換を行うものの、第一範囲29Aにおいては第二範囲29Bよりも映像に歪みが生じる視点変換を行う一方、第二範囲29Bにおいては第一範囲29Aよりも映像に歪みが生じない視点変換を行うようにしてもよい。   For example, the viewpoint conversion that causes distortion in the video may be performed in the first range 29A, while the viewpoint conversion corresponding to the first range 29A may not be performed in the second range 29B. Or, for example, although the viewpoint conversion is performed in both the first range 29A and the second range 29B, the first range 29A performs the viewpoint conversion that causes distortion in the image more than the second range 29B, while the second range 29B May perform viewpoint conversion that does not cause distortion in the image as compared with the first range 29A.

このように構成すれば、自車ボディ映像28に隠れない第二範囲29Bにおいては、より歪みが小さい映像を表示することができる。また、第二範囲29Bよりも歪みが大となる第一範囲29Aにおいては、自車ボディ映像28内の透過部28Bにおける透過表示とすることで、歪みが大きめの映像であることを目立たないようにすることができる。   If comprised in this way, in the 2nd range 29B which is not hidden in the own vehicle body image | video 28, an image | video with smaller distortion can be displayed. Further, in the first range 29A in which the distortion is larger than that in the second range 29B, the transmissive display in the transmissive portion 28B in the vehicle body image 28 is made inconspicuous that the image has a larger distortion. Can be.

しかも、これら歪みの程度が異なる映像の境界は、自車ボディ映像28の輪郭と一致す
るように合成されるので、境界の両側にある映像に多少のずれが生じた場合でも、そのようなずれを自車ボディ映像28の輪郭に重ねることで、目立たないようにすることができる。
In addition, since the boundaries of the images with different degrees of distortion are synthesized so as to coincide with the contour of the vehicle body image 28, even if there is a slight shift in the images on both sides of the boundary, such a shift is caused. Can be made inconspicuous by superimposing on the contour of the vehicle body image 28.

(5)第五実施形態
次に、第五実施形態について説明する。第五実施形態の場合、ECU1において実行される処理は、S52を実行したあとにS54を実行する点で、第三実施形態、及び第四実施形態とは相違する。S54へ進んだ場合、ECU1は、障害物までの距離に応じて透過範囲及びマスク範囲を設定する(S54)。S54以外は、第一実施形態、第二実施形態、第三実施形態、及び第四実施形態において、同一の符号を付して説明した各処理ステップと全く同様である。
(5) Fifth Embodiment Next, a fifth embodiment will be described. In the case of the fifth embodiment, the process executed in the ECU 1 is different from the third embodiment and the fourth embodiment in that S54 is executed after S52 is executed. When the process proceeds to S54, the ECU 1 sets a transmission range and a mask range according to the distance to the obstacle (S54). Except for S54, the processing steps described in the first embodiment, the second embodiment, the third embodiment, and the fourth embodiment are the same as those described with the same reference numerals.

第五実施形態においては、図13に示すように、自車ボディ映像28を第一の不透過部28A、透過部28B、及び第二の不透過部28Cで構成している。第一の不透過部28A及び第二の不透過部28Cは、元の映像が透過表示されない領域であり、透過部28Bは、元の映像が透過表示される領域である。   In the fifth embodiment, as shown in FIG. 13, the vehicle body image 28 is composed of a first opaque portion 28A, a transparent portion 28B, and a second opaque portion 28C. The first non-transparent portion 28A and the second non-transparent portion 28C are regions where the original video is not transmissively displayed, and the transmissive portion 28B is a region where the original video is transmissively displayed.

第一の不透過部28Aは、第四実施形態における不透過部28Aと一致する範囲に設定され、その範囲は左カメラ3及び右カメラ4によって撮影される映像の視点位置等と、車両20の具体的な形状等とに応じて、静的に設定されている。一方、透過部28B及び第二の不透過部28Cは、これら双方を合わせた範囲が第四実施形態における不透過部28Aと一致する範囲に設定されている。しかも、第二の不透過部28Cは、障害物までの距離に応じて、その範囲が動的に増減される。   The first opaque portion 28A is set to a range that coincides with the opaque portion 28A in the fourth embodiment, and the range is the viewpoint position of the video imaged by the left camera 3 and the right camera 4, and the vehicle 20 It is set statically according to the specific shape and the like. On the other hand, the transmission part 28B and the second non-transmission part 28C are set to a range in which both of them match the non-transmission part 28A in the fourth embodiment. Moreover, the range of the second impermeable portion 28C is dynamically increased or decreased according to the distance to the obstacle.

例えば、図13に例示した出力用映像は、車両の後方には別の車両26が存在するものの、図11に例示してあったパイロン24は存在していない場合を想定した映像である。この場合、障害物までの距離としては、別の車両26までの距離が検出され、自車両から別の車両26に至るまでの範囲は、第二の不透過部28Cによってマスクされる。そして、自車両側から見て別の車両26よりも遠方となる範囲は、透過部28Bとされる。なお、図示は省略するが、パイロン24が存在する場合は、障害物までの距離としては、パイロン24までの距離が検出され、透過部28Bのうち、自車両からパイロン24に至るまでの範囲が、第二の不透過部28Cによってマスクされる。そして、自車両側から見てパイロン24よりも遠方となる範囲は、透過部28Bとされる。   For example, the output video illustrated in FIG. 13 is a video assuming that another vehicle 26 exists behind the vehicle but the pylon 24 illustrated in FIG. 11 does not exist. In this case, as the distance to the obstacle, the distance to the other vehicle 26 is detected, and the range from the host vehicle to the other vehicle 26 is masked by the second impermeable portion 28C. A range farther from the other vehicle 26 when viewed from the host vehicle side is a transmission portion 28B. Although illustration is omitted, when the pylon 24 exists, the distance to the pylon 24 is detected as the distance to the obstacle, and the range from the own vehicle to the pylon 24 in the transmission part 28B is detected. The second opaque portion 28C is masked. A range farther from the pylon 24 when viewed from the host vehicle side is a transmission portion 28B.

障害物までの距離としては、障害物検知部7において実測された距離が採用すればよい。また、必要があれば、所定のマージン分だけ透過部28Bを増大させてもよく、その場合は、障害物検知部7において実測された距離から所定のマージン分に相当する距離を減算してもよい。   As the distance to the obstacle, a distance actually measured by the obstacle detection unit 7 may be adopted. If necessary, the transmission part 28B may be increased by a predetermined margin. In this case, the distance corresponding to the predetermined margin may be subtracted from the distance actually measured by the obstacle detection unit 7. Good.

以上のような構成を採用すれば、第二の不透過部28Cによってマスクされる範囲には、障害物がないものと判断できるようになる。また、例えば、駐車枠22のような障害物ではないもの(路面から突出する高さがないもの。)が存在する箇所については、第二の不透過部28Cによってマスクされるので、透過部28Bを通して駐車枠22が見える場合とは異なり、駐車枠22を何らかの障害物ではないかと誤認するのを抑制できる。   If the configuration as described above is adopted, it can be determined that there is no obstacle in the range masked by the second impermeable portion 28C. Further, for example, a portion where there is an obstacle that is not an obstacle such as the parking frame 22 (that does not have a height protruding from the road surface) is masked by the second non-permeable portion 28C, and thus the transmissive portion 28B. Unlike the case where the parking frame 22 can be seen through, it is possible to suppress misidentifying the parking frame 22 as an obstacle.

なお、第五実施形態においても、出力用映像内における透過部28Bの範囲(第一範囲29A)と、出力用映像内における自車ボディ映像28が合成されない範囲(第二範囲29B)とでは、第四実施形態同様に、視点変換の有無又は程度を変更してもよい。これにより、第二範囲29Bにおいては第一範囲29Aよりも映像の歪みが小となるようにすることで、自車ボディ映像28に隠れない第二範囲29Bにおいては、より歪みが小さい映
像を表示することができる。また、第二範囲29Bよりも歪みが大となる第一範囲29Aにおいては、自車ボディ映像28内の透過部28Bにおける透過表示とすることで、歪みが大きめの映像であることを目立たないようにすることができる。さらに、歪みの程度が異なる映像の境界において映像に多少のずれが生じた場合でも、そのようなずれを自車ボディ映像28の輪郭に重ねることで、目立たないようにすることができる。
In the fifth embodiment, the range of the transmission part 28B in the output video (first range 29A) and the range in which the vehicle body video 28 in the output video is not combined (second range 29B) Similarly to the fourth embodiment, the presence or absence or degree of viewpoint conversion may be changed. As a result, in the second range 29B, the image distortion is smaller than that in the first range 29A, so that an image with less distortion is displayed in the second range 29B that is not hidden by the vehicle body image 28. can do. Further, in the first range 29A in which the distortion is larger than that in the second range 29B, the transmissive display in the transmissive portion 28B in the vehicle body image 28 is made inconspicuous that the image has a larger distortion. Can be. Further, even when a slight shift occurs in the video at the boundary of the video with different degrees of distortion, the shift can be made inconspicuous by superimposing such a shift on the contour of the vehicle body video 28.

(6)他の実施形態
以上、映像処理装置、及び車載映像処理システムについて、例示的な実施形態を挙げて説明したが、上述の実施形態は本発明の一態様として例示されるものに過ぎない。すなわち、本発明は、上述の例示的な実施形態に限定されるものではなく、本発明の技術的思想を逸脱しない範囲内において、様々な形態で実施することができる。
(6) Other Embodiments While the video processing device and the vehicle-mounted video processing system have been described with reference to exemplary embodiments, the above-described embodiments are merely examples of the present invention. . That is, the present invention is not limited to the exemplary embodiments described above, and can be implemented in various forms without departing from the technical idea of the present invention.

例えば、上記実施形態では、図示の都合上、便宜的に記憶部14をECU1が備える構成として図示してあるが、記憶部14はECU1がアクセス可能なメモリであれば、ECU1の外部にあってもよい。   For example, in the above embodiment, for convenience of illustration, the storage unit 14 is illustrated as a configuration provided in the ECU 1 for convenience. However, the storage unit 14 is located outside the ECU 1 as long as the memory is accessible by the ECU 1. Also good.

また、上記実施形態において、一つの構成要素で実現していた所定の機能を、複数の構成要素が協働して実現するように構成してあってもよい。あるいは、上記実施形態では、複数の構成要素それぞれが有していた複数の機能や、複数の構成要素が協働して実現していた所定の機能を、一つの構成要素が実現するように構成してあってもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   In the above embodiment, a predetermined function realized by one component may be configured so that a plurality of components cooperate to realize it. Or in the said embodiment, it is comprised so that one component may implement | achieve the several function which each of several component each had, and the predetermined function which the plurality of component realized in cooperation It may be. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

また、上述した映像処理装置、及び車載映像処理システムの他、当該映像処理装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体など、種々の形態で本発明を実現することもできる。   In addition to the above-described video processing device and in-vehicle video processing system, the present invention can also be realized in various forms such as a program for causing a computer to function as the video processing device and a medium storing the program.

なお、上記実施形態と特許請求の範囲との対応関係を理解しやすくするために、特許請求の範囲には、上記実施形態中で示した符号を括弧書きで記載したが、当該記載は本発明の技術的範囲が上述の実施形態に限定されることを意味する記載ではない。   In addition, in order to make it easy to understand the correspondence between the embodiments and the claims, the reference numerals shown in the embodiments are described in parentheses in the claims. This is not a description meaning that the technical scope of the present invention is limited to the above-described embodiment.

1…電子制御装置(ECU)、3…左カメラ、4…右カメラ、5…左モニタ、6…右モニタ、7…障害物検知部、8…シフト位置検知部、11…映像入力部、12…映像処理部、13…映像出力部、14…記憶部、15…障害物判定部、16…シフト位置判定部、20…車両、20A…後輪、22…駐車枠、24…パイロン、26…別の車両、28…自車ボディ映像、28A…不透過部、又は第一の不透過部、28B…透過部、28C…第二の不透過部、29A…第一範囲、29B…第二範囲。   DESCRIPTION OF SYMBOLS 1 ... Electronic control unit (ECU), 3 ... Left camera, 4 ... Right camera, 5 ... Left monitor, 6 ... Right monitor, 7 ... Obstacle detection part, 8 ... Shift position detection part, 11 ... Video input part, 12 ... Video processing unit, 13 ... Video output unit, 14 ... Storage unit, 15 ... Obstacle determination unit, 16 ... Shift position determination unit, 20 ... Vehicle, 20A ... Rear wheel, 22 ... Parking frame, 24 ... Pylon, 26 ... Another vehicle, 28 ... own body image, 28A ... opaque portion or first opaque portion, 28B ... transparent portion, 28C ... second opaque portion, 29A ... first range, 29B ... second range .

Claims (7)

車両の後方に存在する障害物を検知可能な障害物検知部(7)から、前記障害物に関する情報を取得して、前記障害物の有無を判定する障害物判定部(15,S30)と、
前記車両の後側方を撮影可能に構成されたカメラ(3,4)から、当該カメラで撮影されたカメラ映像を入力可能な映像入力部(11,S10)と、
前記映像入力部によって入力された前記カメラ映像に基づいて第一の出力用映像及び第二の出力用映像を生成可能で、前記障害物判定部によって前記障害物があると判定された場合には、前記第一の出力用映像を生成し、前記障害物判定部によって前記障害物がないと判定された場合には、前記第二の出力用映像を生成する映像処理部(12,S50,S52)と、
前記映像処理部によって生成される前記第一の出力用映像又は前記第二の出力用映像を、車室内に配設された表示装置(5,6)へと出力する映像出力部(13,S60)と、
を備え、
前記映像処理部は、前記第一の出力用映像及び前記第二の出力用映像のうちの少なくとも一方を生成する際に、視点位置、視線方向、及び視野範囲のうちの少なくとも一つを変更対象として、前記カメラ映像に対して前記変更対象を変更する映像変換処理を施すことにより、前記変更対象が互いに異なる前記第一の出力用映像及び前記第二の出力用映像を生成可能で(S50,S52)、前記映像変換処理として、前記第一の出力用映像に前記第二の出力用映像よりも前記障害物が大きく表示されることになる映像変換処理、又は前記第二の出力用映像には表示されない前記障害物の一部又は全部が前記第一の出力用映像に表示されることになる映像変換処理を実行可能に構成されている
映像処理装置(1)。
An obstacle determination unit (15, S30) for acquiring information on the obstacle from an obstacle detection unit (7) capable of detecting an obstacle existing behind the vehicle and determining the presence or absence of the obstacle;
A video input unit (11, S10) capable of inputting a camera video captured by the camera from a camera (3,4) configured to be able to capture the rear side of the vehicle;
When the first output video and the second output video can be generated based on the camera video input by the video input unit, and the obstacle determination unit determines that there is the obstacle, The first output video is generated, and when the obstacle determination unit determines that there is no obstacle, the video processing unit (12, S50, S52) generates the second output video. )When,
A video output unit (13, S60) that outputs the first output video or the second output video generated by the video processing unit to a display device (5, 6) disposed in a vehicle interior. )When,
With
The video processing unit changes at least one of a viewpoint position, a line-of-sight direction, and a visual field range when generating at least one of the first output video and the second output video. As described above, it is possible to generate the first output video and the second output video that are different from each other by performing video conversion processing for changing the change target on the camera video (S50, S52), as the video conversion process, the video conversion process in which the obstacle is displayed larger than the second output video in the first output video, or the second output video. A video processing device (1) configured to be capable of executing a video conversion process in which a part or all of the obstacle that is not displayed is displayed in the first output video.
請求項1に記載の映像処理装置において、
前記障害物判定部は、前記車両が後退する場合に(S20:YES)、前記障害物の有無を判定するように構成されている
映像処理装置。
The video processing apparatus according to claim 1,
The said obstacle determination part is comprised so that the presence or absence of the said obstacle may be determined when the said vehicle reverses (S20: YES).
請求項1又は請求項2に記載の映像処理装置において、
前記映像処理部は、前記第一の出力用映像及び前記第二の出力用映像のうちの少なくとも一方を生成する際に、車体の一部に相当する自車ボディ映像(28)を、記憶部(14)から読み出すか記憶部に記憶されたデータに基づいて生成して、前記カメラ映像又は当該カメラ映像に基づいて生成される映像中に映り込んでいる実際の車体の映像を覆い隠す位置に、前記自車ボディ映像を描画する処理(S56)を実行可能に構成されている
映像処理装置。
In the video processing device according to claim 1 or 2,
When the video processing unit generates at least one of the first output video and the second output video, the vehicle body video (28) corresponding to a part of the vehicle body is stored in the storage unit. (14) is generated based on the data read from or stored in the storage unit, and the camera image or the image of the actual vehicle body reflected in the image generated based on the camera image is covered. A video processing apparatus configured to execute the process (S56) of drawing the vehicle body video.
請求項3に記載の映像処理装置において、
前記映像処理部(S56)は、前記カメラ映像又は当該カメラ映像に基づいて生成される映像が透過表示されない不透過部(28A,28C)と、前記カメラ映像又は当該カメラ映像に基づいて生成される映像が透過表示される透過部(28B)とを有する前記自車ボディ映像を生成可能で、前記実際の車体の映像が映り込んでいる箇所を含む範囲が前記不透過部でマスクされ、前記実際の車体の映像が映り込んでいない箇所が前記透過部において透過表示されるように構成されている
映像処理装置。
The video processing apparatus according to claim 3.
The video processing unit (S56) is generated based on the camera video or the camera video and the non-transparent unit (28A, 28C) where the video generated based on the camera video or the camera video is not transmissively displayed. The vehicle body image having a transmissive portion (28B) through which the image is transmissively displayed can be generated, and a range including a portion where the actual vehicle image is reflected is masked by the non-transmissive portion, The video processing apparatus is configured such that a portion where the video of the vehicle body is not reflected is displayed in a transmissive manner in the transmissive portion.
請求項4に記載の映像処理装置において、
前記映像処理部(S54)は、前記障害物検知部から取得した情報に基づいて、前記車両から前記障害物までの距離を測定又は推定し、前記障害物よりも近い位置にある範囲が前記不透過部(28C)でマスクされ、前記障害物の存在する位置以遠にある箇所が前記
透過部において透過表示されるように構成されている
映像処理装置。
The video processing apparatus according to claim 4,
The video processing unit (S54) measures or estimates the distance from the vehicle to the obstacle based on the information acquired from the obstacle detection unit, and the range in a position closer to the obstacle is the A video processing apparatus configured to be masked by a transmissive portion (28C) and to be transparently displayed in the transmissive portion at a location beyond the position where the obstacle exists.
請求項4又は請求項5に記載の映像処理装置において、
前記映像処理部(S54,S56)は、前記透過部とされる第一範囲(29A)と、前記自車ボディ映像が合成されない第二範囲(29B)とで前記映像変換処理の有無又は程度を変更することにより、前記第二範囲においては前記第一範囲よりも映像の歪みが小となる前記映像変換処理を実行するように構成されている
映像処理装置。
In the video processing device according to claim 4 or 5,
The video processing unit (S54, S56) determines whether or not the video conversion process is performed in a first range (29A) that is the transmission unit and a second range (29B) in which the vehicle body video is not combined. The video processing apparatus configured to execute the video conversion process in which the video distortion is smaller in the second range than in the first range by changing.
車両の後方に存在する障害物を検知可能な障害物検知部(7)と、
前記車両の後側方を撮影可能に構成されたカメラ(3,4)と、
前記カメラで撮影された映像に対して所定の映像変換処理を施すように構成された映像処理装置(1)と
車室内に配設され、前記映像処理装置によって前記映像処理が施された映像を表示可能な表示装置(5,6)と
を備え、
前記映像処理装置は、
前記障害物検知部(7)から、前記障害物に関する情報を取得して、前記障害物の有無を判定する障害物判定部(15,S30)と、
前記カメラ(3,4)から、当該カメラで撮影されたカメラ映像を入力可能な映像入力部(11,S10)と、
前記映像入力部によって入力された前記カメラ映像に基づいて第一の出力用映像及び第二の出力用映像を生成可能で、前記障害物判定部によって前記障害物があると判定された場合には、前記第一の出力用映像を生成し、前記障害物判定部によって前記障害物がないと判定された場合には、前記第二の出力用映像を生成する映像処理部(12,S50,S52)と、
前記映像処理部によって生成される前記第一の出力用映像又は前記第二の出力用映像を、車室内に配設された表示装置(5,6)へと出力する映像出力部(13,S60)と、
を備え、
前記映像処理部は、前記第一の出力用映像及び前記第二の出力用映像のうちの少なくとも一方を生成する際に、視点位置、視線方向、及び視野範囲のうちの少なくとも一つを変更対象として、前記カメラ映像に対して前記変更対象を変更する映像変換処理を施すことにより、前記変更対象が互いに異なる前記第一の出力用映像及び前記第二の出力用映像を生成可能で(S50,S52)、前記映像変換処理として、前記第一の出力用映像に前記第二の出力用映像よりも前記障害物が大きく表示されることになる映像変換処理、又は前記第二の出力用映像には表示されない前記障害物の一部又は全部が前記第一の出力用映像に表示されることになる映像変換処理を実行可能に構成されている
車載映像処理システム。
An obstacle detection unit (7) capable of detecting obstacles existing behind the vehicle;
A camera (3, 4) configured to photograph the rear side of the vehicle;
A video processing device (1) configured to perform predetermined video conversion processing on video captured by the camera, and a video that is disposed in a vehicle interior and that has been subjected to the video processing by the video processing device. A display device (5, 6) capable of displaying;
The video processing device includes:
An obstacle determination unit (15, S30) that acquires information on the obstacle from the obstacle detection unit (7) and determines the presence or absence of the obstacle;
A video input unit (11, S10) capable of inputting a camera video captured by the camera from the camera (3, 4);
When the first output video and the second output video can be generated based on the camera video input by the video input unit, and the obstacle determination unit determines that there is the obstacle, The first output video is generated, and when the obstacle determination unit determines that there is no obstacle, the video processing unit (12, S50, S52) generates the second output video. )When,
A video output unit (13, S60) that outputs the first output video or the second output video generated by the video processing unit to a display device (5, 6) disposed in a vehicle interior. )When,
With
The video processing unit changes at least one of a viewpoint position, a line-of-sight direction, and a visual field range when generating at least one of the first output video and the second output video. As described above, it is possible to generate the first output video and the second output video that are different from each other by performing video conversion processing for changing the change target on the camera video (S50, S52), as the video conversion process, the video conversion process in which the obstacle is displayed larger than the second output video in the first output video, or the second output video. A vehicle-mounted video processing system configured to be able to execute a video conversion process in which a part or all of the obstacle that is not displayed is displayed in the first output video.
JP2014257786A 2014-12-19 2014-12-19 Video processing apparatus and in-vehicle video processing system Active JP6439436B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014257786A JP6439436B2 (en) 2014-12-19 2014-12-19 Video processing apparatus and in-vehicle video processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014257786A JP6439436B2 (en) 2014-12-19 2014-12-19 Video processing apparatus and in-vehicle video processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018216710A Division JP6575668B2 (en) 2018-11-19 2018-11-19 Video processing device

Publications (2)

Publication Number Publication Date
JP2016119558A true JP2016119558A (en) 2016-06-30
JP6439436B2 JP6439436B2 (en) 2018-12-19

Family

ID=56243196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014257786A Active JP6439436B2 (en) 2014-12-19 2014-12-19 Video processing apparatus and in-vehicle video processing system

Country Status (1)

Country Link
JP (1) JP6439436B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017195533A (en) * 2016-04-21 2017-10-26 日産自動車株式会社 Display method and driving support apparatus
WO2018030285A1 (en) * 2016-08-08 2018-02-15 株式会社小糸製作所 Vehicle monitoring system employing plurality of cameras
JP2018056755A (en) * 2016-09-28 2018-04-05 パナソニックIpマネジメント株式会社 On-vehicle video image display device, on-vehicle video image display method, and program
JP2019026134A (en) * 2017-08-01 2019-02-21 三菱電機株式会社 Camera monitoring system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008230476A (en) * 2007-03-22 2008-10-02 Denso Corp Vehicle external photographing display system and image display control device
JP2008254710A (en) * 2007-04-09 2008-10-23 Fujitsu Ten Ltd Obstacle detection device
JP2009065483A (en) * 2007-09-06 2009-03-26 Denso Corp Parking assistance device
JP2012222776A (en) * 2011-04-14 2012-11-12 Isuzu Motors Ltd Image processing apparatus, image processing method, and driving support system
JP2014116756A (en) * 2012-12-07 2014-06-26 Toyota Motor Corp Periphery monitoring system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008230476A (en) * 2007-03-22 2008-10-02 Denso Corp Vehicle external photographing display system and image display control device
JP2008254710A (en) * 2007-04-09 2008-10-23 Fujitsu Ten Ltd Obstacle detection device
JP2009065483A (en) * 2007-09-06 2009-03-26 Denso Corp Parking assistance device
JP2012222776A (en) * 2011-04-14 2012-11-12 Isuzu Motors Ltd Image processing apparatus, image processing method, and driving support system
JP2014116756A (en) * 2012-12-07 2014-06-26 Toyota Motor Corp Periphery monitoring system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017195533A (en) * 2016-04-21 2017-10-26 日産自動車株式会社 Display method and driving support apparatus
WO2018030285A1 (en) * 2016-08-08 2018-02-15 株式会社小糸製作所 Vehicle monitoring system employing plurality of cameras
JPWO2018030285A1 (en) * 2016-08-08 2019-06-20 株式会社小糸製作所 Vehicle monitoring system using multiple cameras
US10829044B2 (en) 2016-08-08 2020-11-10 Koito Manufacturing Co., Ltd. Vehicle monitoring system using a plurality of cameras
JP7055743B2 (en) 2016-08-08 2022-04-18 株式会社小糸製作所 Vehicle monitoring system using multiple cameras
JP2018056755A (en) * 2016-09-28 2018-04-05 パナソニックIpマネジメント株式会社 On-vehicle video image display device, on-vehicle video image display method, and program
JP2019026134A (en) * 2017-08-01 2019-02-21 三菱電機株式会社 Camera monitoring system

Also Published As

Publication number Publication date
JP6439436B2 (en) 2018-12-19

Similar Documents

Publication Publication Date Title
JP5099451B2 (en) Vehicle periphery confirmation device
CN107438538B (en) Method for displaying vehicle surroundings of a vehicle
JP5953824B2 (en) Vehicle rear view support apparatus and vehicle rear view support method
CN109415018B (en) Method and control unit for a digital rear view mirror
JP5093611B2 (en) Vehicle periphery confirmation device
JP7029350B2 (en) Image processing device and image processing method
US12296749B2 (en) Image processing apparatus, image processing method, and image processing system
CN112351242B (en) Image processing device and image processing method
JP7000383B2 (en) Image processing device and image processing method
JP6035298B2 (en) Visual system
US11034305B2 (en) Image processing device, image display system, and image processing method
JP6439436B2 (en) Video processing apparatus and in-vehicle video processing system
US20180050639A1 (en) Reactive smart rear view display mirror
US11146740B2 (en) Image display apparatus
US11987182B2 (en) Image processing apparatus, image processing method, and image processing system
CN101015200A (en) Camera and camera device
JPWO2018042976A1 (en) IMAGE GENERATION DEVICE, IMAGE GENERATION METHOD, RECORDING MEDIUM, AND IMAGE DISPLAY SYSTEM
JP2009073250A (en) Vehicle backsight display device
JP6575668B2 (en) Video processing device
JP6488628B2 (en) Video processing apparatus and in-vehicle video processing system
JP6136748B2 (en) 2D 3D display device
CN114467299B (en) 3D display system for camera monitoring system
US20200231099A1 (en) Image processing apparatus
JP6999239B2 (en) Image processing device and image processing method
JP6136747B2 (en) 2D 3D display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181105

R151 Written notification of patent or utility model registration

Ref document number: 6439436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250