[go: up one dir, main page]

JP2018158664A - Driving support device, driving support method and program - Google Patents

Driving support device, driving support method and program Download PDF

Info

Publication number
JP2018158664A
JP2018158664A JP2017057315A JP2017057315A JP2018158664A JP 2018158664 A JP2018158664 A JP 2018158664A JP 2017057315 A JP2017057315 A JP 2017057315A JP 2017057315 A JP2017057315 A JP 2017057315A JP 2018158664 A JP2018158664 A JP 2018158664A
Authority
JP
Japan
Prior art keywords
image
vehicle
reference object
data
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017057315A
Other languages
Japanese (ja)
Inventor
昇 勝俣
Noboru Katsumata
昇 勝俣
恒夫 里見
Tsuneo Satomi
恒夫 里見
俊夫 森
Toshio Mori
俊夫 森
栗原 誠
Makoto Kurihara
誠 栗原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017057315A priority Critical patent/JP2018158664A/en
Publication of JP2018158664A publication Critical patent/JP2018158664A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両周辺画像をより見やすく表示する。【解決手段】運転支援装置は、自車両50の周辺を撮像した車両周辺画像を取得する画像取得部と、車両周辺画像に含まれる基準物を検出する画像解析部と、基準物の周辺に存在する障害物および路面標示の少なくとも一方の基準物に対する相対的な位置関係を示すデータを自車両50の外部から取得するデータ取得部と、データ取得部が取得するデータを用いて、車両周辺画像に含まれる基準物の位置を基準として、車両周辺画像上に障害物および路面標示の少なくとも一方を示す画像を重畳した運転支援画像を生成する画像生成部と、運転支援画像を表示装置に表示させる表示制御部と、を備える。【選択図】図4A vehicle peripheral image is displayed in a more easily viewable manner. A driving support device includes an image acquisition unit that acquires a vehicle surrounding image by capturing the surroundings of a vehicle, an image analysis unit that detects a reference object included in the vehicle surrounding image, and an image sensor existing around the reference object. A data acquisition unit that acquires data indicating a relative positional relationship of at least one of an obstacle and a road marking to a reference object from the outside of the own vehicle 50; An image generator for generating a driving assistance image in which an image representing at least one of an obstacle and a road marking is superimposed on a vehicle peripheral image based on the position of the included reference object, and a display for displaying the driving assistance image on a display device. and a control unit. [Selection drawing] Fig. 4

Description

本発明は、運転支援装置、運転支援方法およびプログラムに関する。   The present invention relates to a driving support device, a driving support method, and a program.

近年、駐車時の運転を支援する目的で、車載カメラで撮像した車両周辺画像を運転者に提示する装置が知られている。例えば、車両後方を撮像した後方画像が表示されたり、複数の車載カメラからの画像を結合して生成される俯瞰画像が表示されたりする。また、目標駐車場を側方カメラで撮像した画像と、目標駐車場に向けて後退する際に後方カメラで撮像した画像とを合成して俯瞰画像を表示する技術も提案されている(例えば、特許文献1参照)。   2. Description of the Related Art In recent years, there has been known an apparatus that presents a driver with a vehicle periphery image captured by an in-vehicle camera for the purpose of assisting driving during parking. For example, a rear image obtained by imaging the rear of the vehicle is displayed, or an overhead image generated by combining images from a plurality of in-vehicle cameras is displayed. In addition, a technique for displaying an overhead image by synthesizing an image captured by a side camera of a target parking lot and an image captured by a rear camera when retreating toward the target parking lot has been proposed (for example, Patent Document 1).

特開2002−29350号公報JP 2002-29350 A

日中や晴天時であれば、車両周辺の白線や障害物などを車載カメラにより鮮明に撮像できるが、夜間や雨天時といった視界不良の状況下では、車載カメラにより撮像される車両周辺画像の視認性も低下しがちである。また、路面標示上に自車両が位置している場合には、自車両の下にある路面標示を車両周辺画像から把握することができない。このように、車両周辺の障害物や路面標示を部分的に撮像できないような状況では、車両周辺画像の利便性が低下してしまう。   During daytime or in fine weather, white lines and obstacles around the vehicle can be clearly captured by the in-vehicle camera. The tendency is also likely to decline. Further, when the host vehicle is positioned on the road marking, the road marking under the host vehicle cannot be grasped from the vehicle peripheral image. Thus, in a situation where obstacles and road markings around the vehicle cannot be partially imaged, the convenience of the vehicle periphery image is reduced.

本発明は、上述の事情に鑑みてなされたものであり、車両周辺画像をより見やすく表示する技術を提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a technique for displaying a vehicle peripheral image more easily.

本発明のある態様の運転支援装置は、自車両の周辺を撮像した車両周辺画像を取得する画像取得部と、車両周辺画像に含まれる基準物を検出する画像解析部と、基準物の周辺に存在する障害物および路面標示の少なくとも一方の基準物に対する相対的な位置関係を示すデータを自車両の外部から取得するデータ取得部と、データ取得部が取得するデータを用いて、車両周辺画像に含まれる基準物の位置を基準として、車両周辺画像上に障害物および路面標示の少なくとも一方を示す画像を重畳した運転支援画像を生成する画像生成部と、運転支援画像を表示装置に表示させる表示制御部と、を備える。   A driving support apparatus according to an aspect of the present invention includes an image acquisition unit that acquires a vehicle peripheral image obtained by imaging the periphery of the host vehicle, an image analysis unit that detects a reference object included in the vehicle peripheral image, and a periphery of the reference object. A data acquisition unit that acquires data indicating the relative positional relationship with respect to at least one of the obstacles and road markings that are present from the outside of the host vehicle, and data that the data acquisition unit acquires, An image generating unit that generates a driving assistance image in which an image showing at least one of an obstacle and a road marking is superimposed on a vehicle peripheral image with reference to the position of the included reference object, and a display that displays the driving assistance image on a display device A control unit.

本発明の別の態様は、運転支援方法である。この方法は、自車両の周辺を撮像した車両周辺画像を取得し、車両周辺画像に含まれる基準物を検出するステップと、基準物の周辺に存在する障害物および路面標示の少なくとも一方の基準物に対する相対的な位置関係を示すデータを自車両の外部から取得するステップと、取得するデータを用いて、車両周辺画像に含まれる基準物の位置を基準として、車両周辺画像上に障害物および路面標示の少なくとも一方を示す画像を重畳した運転支援画像を生成するステップと、運転支援画像を表示装置に表示させるステップと、を備える。   Another aspect of the present invention is a driving support method. In this method, a vehicle peripheral image obtained by capturing an image of the periphery of the host vehicle is acquired, and a reference object included in the vehicle peripheral image is detected, and an obstacle existing around the reference object and at least one reference object of road markings A step of acquiring data indicating a relative positional relationship with respect to the vehicle from outside the host vehicle, and using the acquired data, the position of the reference object included in the vehicle peripheral image is used as a reference, and an obstacle and a road surface are displayed on the vehicle peripheral image. A step of generating a driving assistance image on which an image showing at least one of the signs is superimposed; and a step of displaying the driving assistance image on a display device.

なお、以上の構成要素の任意の組合せや本発明の構成要素や表現を、方法、装置、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。   Note that any combination of the above-described constituent elements and the constituent elements and expressions of the present invention replaced with each other among methods, apparatuses, systems, etc. are also effective as an aspect of the present invention.

本発明によれば、車両周辺画像をより見やすく表示できる。   According to the present invention, a vehicle periphery image can be displayed more easily.

自車両を駐車スペースに駐車させる状況を模式的に示す図である。It is a figure which shows typically the condition which parks the own vehicle in a parking space. 駐車時の俯瞰画像の一例を模式的に示す図である。It is a figure which shows typically an example of the bird's-eye view image at the time of parking. 重畳される付加画像の一例を模式的に示す図である。It is a figure which shows an example of the additional image superimposed. 実施の形態に係る運転支援画像の一例を模式的に示す図である。It is a figure which shows typically an example of the driving assistance image which concerns on embodiment. 運転支援装置の構成を模式的に示す機能ブロック図である。It is a functional block diagram which shows typically the structure of a driving assistance device. 運転支援方法の流れを模式的に示すフローチャートである。It is a flowchart which shows the flow of a driving assistance method typically.

本発明を具体的に説明する前に、概要を述べる。本実施の形態は、車載カメラで自車両の周辺を撮像した車両周辺画像を表示するための運転支援装置である。運転支援装置が提示する車両周辺画像は、車両後方を撮像した後方画像や、自車両の周辺を上空から見ているかのように視点変換処理を施した俯瞰画像などである。運転者は、白線などの路面標示により区画される駐車スペースに向けて自車両を後退させる場合に車両周辺画像を参照することで、車両周辺画像に表示される柱や壁といった障害物や隣接する駐車スペースの他車両の位置を把握しながら運転できる。   Before describing the present invention in detail, an outline will be described. The present embodiment is a driving support device for displaying a vehicle periphery image obtained by imaging the periphery of the host vehicle with an in-vehicle camera. The vehicle periphery image presented by the driving support device is a rear image obtained by imaging the rear of the vehicle, an overhead image obtained by performing viewpoint conversion processing as if the periphery of the host vehicle is viewed from above. The driver refers to the surrounding image of the vehicle when the host vehicle is moved backward toward the parking space defined by the road marking such as a white line, so that the driver is adjacent to an obstacle such as a pillar or a wall displayed in the surrounding image of the vehicle. You can drive while grasping the position of other vehicles in the parking space.

日中や晴天時であれば、車両周辺の白線や障害物などを車載カメラにより鮮明に撮像できるが、夜間や雨天時といった視界不良の状況下では、車載カメラにより撮像される車両周辺画像の視認性も低下しがちである。また、白線の上に自車両が位置している場合には、自車両の下にある白線の位置を車両周辺画像から把握することができない。このように、車両周辺の白線や障害物を部分的に撮像できないような状況では、自車両から撮像した車両周辺画像の利便性が低下してしまう。   During daytime or in fine weather, white lines and obstacles around the vehicle can be clearly captured by the in-vehicle camera. The tendency is also likely to decline. Further, when the host vehicle is located on the white line, the position of the white line below the host vehicle cannot be grasped from the vehicle peripheral image. Thus, in a situation where white lines and obstacles around the vehicle cannot be partially imaged, the convenience of the vehicle periphery image captured from the host vehicle is reduced.

そこで、本実施の形態では、自車両の周辺に存在する障害物や路面標示の位置を示すデータを自車両の外部から無線で取得し、取得したデータに基づいて障害物や路面標示の位置を示す画像を現在撮像される車両周辺画像に重畳する。このとき、自車両が撮像される車両周辺画像に含まれる基準物と取得したデータの基準物の位置が対応するように位置合わせする。本実施の形態によれば、自車両が撮像する車両周辺画像において欠損する箇所を外部から取得するデータにより補うことができ、車両周辺の障害物等をより把握しやすい運転支援画像を提供できる。   Therefore, in the present embodiment, data indicating the position of obstacles and road markings present around the host vehicle is acquired wirelessly from the outside of the host vehicle, and the positions of obstacles and road markings are determined based on the acquired data. The displayed image is superimposed on the vehicle surrounding image currently captured. At this time, alignment is performed so that the reference object included in the vehicle peripheral image where the host vehicle is imaged corresponds to the position of the reference object of the acquired data. According to the present embodiment, it is possible to compensate for a missing portion in a vehicle peripheral image captured by the host vehicle with data acquired from the outside, and it is possible to provide a driving support image that makes it easier to grasp obstacles and the like around the vehicle.

以下、本発明の実施の形態について、図面を参照しつつ説明する。かかる実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Embodiments of the present invention will be described below with reference to the drawings. Specific numerical values and the like shown in the embodiments are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

図1は、自車両50を駐車スペースに駐車させる状況を模式的に示す図であり、自車両50を後退させて駐車スペースに進入させる様子を示す。駐車場52には、複数の駐車スペースが並んで配置されており、第1駐車スペース60aおよび第2駐車スペース60bが空いている。第1駐車スペース60aの近傍には、駐車場52の支柱54や防災設備56といった障害物が存在する。各駐車スペースは、白線58などの路面標示により区画されている。空いている駐車スペース60a,60bに隣接する区画には、他車両62a,62bが存在する。自車両50の運転者は、自車周辺に位置する障害物や他車両に留意しながら、白線58の区画内に自車両50が収まるように運転操作をする必要がある。   FIG. 1 is a diagram schematically illustrating a situation in which the host vehicle 50 is parked in a parking space, and shows a state in which the host vehicle 50 is moved backward to enter the parking space. In the parking lot 52, a plurality of parking spaces are arranged side by side, and the first parking space 60a and the second parking space 60b are vacant. In the vicinity of the first parking space 60 a, there are obstacles such as the columns 54 of the parking lot 52 and the disaster prevention equipment 56. Each parking space is partitioned by road markings such as white lines 58. Other vehicles 62a and 62b exist in a section adjacent to the vacant parking spaces 60a and 60b. The driver of the host vehicle 50 needs to perform a driving operation so that the host vehicle 50 is within the section of the white line 58 while paying attention to obstacles and other vehicles located around the host vehicle.

図2は、駐車時の俯瞰画像70の一例を模式的に示す図である。俯瞰画像70は、自車両50の周辺を撮像した車両周辺画像であり、自車両50の周辺を上空から見ているかのように視点変換処理を施した画像である。俯瞰画像70には、自車両50の位置を中心として、自車両50の周辺に位置する障害物や路面標示が含まれる。図示する例では、支柱54、防災設備56、白線58および他車両62a,62bが含まれている。   FIG. 2 is a diagram schematically illustrating an example of the overhead image 70 at the time of parking. The bird's-eye view image 70 is a vehicle peripheral image obtained by imaging the periphery of the host vehicle 50, and is an image that has undergone viewpoint conversion processing as if the periphery of the host vehicle 50 is viewed from above. The bird's-eye view image 70 includes obstacles and road markings located around the host vehicle 50 around the position of the host vehicle 50. In the illustrated example, a support 54, a disaster prevention facility 56, a white line 58, and other vehicles 62a and 62b are included.

図示されるような俯瞰画像70は、公知のアルゴリズムを用いて生成することができる。例えば、自車両50の前後左右の4箇所に設けられる複数のカメラのそれぞれが撮像する画像を取得して合成することにより、自車両50の周辺を上空から見ているかのような俯瞰画像70を生成できる。なお、自車両50の周辺の状況のうち俯瞰画像70に含まれる範囲は図示されるものに限られず、図示する範囲よりも広くてもよいし、狭くてもよい。また、自車両50の前後左右の全ての状況が含まれなくてもよく、例えば、自車両50の後方側半分のみの画像であってもよい。   The bird's-eye view image 70 as shown can be generated using a known algorithm. For example, by acquiring and synthesizing images captured by each of a plurality of cameras provided at four locations on the front, rear, left and right of the host vehicle 50, an overhead image 70 as if the periphery of the host vehicle 50 is viewed from above is obtained. Can be generated. In addition, the range included in the bird's-eye view image 70 in the situation around the host vehicle 50 is not limited to that illustrated, and may be wider or narrower than the illustrated range. Further, not all the front, rear, left and right situations of the host vehicle 50 may be included, and for example, an image of only the rear half of the host vehicle 50 may be used.

図2では、自車両50が第1駐車スペース60aと第2駐車スペース60bの双方にまたがるように位置しており、第1駐車スペース60aと第2駐車スペース60bの間を区画する路面標示の一部が自車両50により隠れて見えない。その結果、図2に示す俯瞰画像70を見ただけでは、第1駐車スペース60aと第2駐車スペース60bの境界と自車両50の位置関係を正確に把握することが難しいかもしれない。そこで、本実施の形態では、自車両50によって隠れている白線58の一部を重畳することで、白線58の全体を可視化し、自車両50の位置がより分かりやすくなるようにする。   In FIG. 2, the host vehicle 50 is positioned so as to straddle both the first parking space 60a and the second parking space 60b, and is one of the road markings that divide the space between the first parking space 60a and the second parking space 60b. The part is hidden by the own vehicle 50 and cannot be seen. As a result, it may be difficult to accurately grasp the positional relationship between the boundary between the first parking space 60a and the second parking space 60b and the host vehicle 50 only by looking at the overhead image 70 shown in FIG. Therefore, in the present embodiment, a part of the white line 58 hidden by the host vehicle 50 is superimposed so that the entire white line 58 is visualized so that the position of the host vehicle 50 can be easily understood.

図3は、重畳される付加画像72の一例を模式的に示す図である。付加画像72は、駐車場52の障害物や路面標示が含まれる画像であり、駐車場52の内部の構造を俯瞰画像で示した画像である。付加画像72には、支柱54や防災設備56といった障害物、白線58などの路面標示が含まれる一方で、各駐車スペースに位置する他車両は含まれない。障害物や路面標示の位置は時間経過によらず固定されている一方で、各駐車スペースに位置する他車両の位置は時間経過とともに変化するためである。   FIG. 3 is a diagram schematically illustrating an example of the additional image 72 to be superimposed. The additional image 72 is an image including obstacles and road markings in the parking lot 52, and is an image showing the internal structure of the parking lot 52 as an overhead image. The additional image 72 includes obstacles such as the pillars 54 and the disaster prevention equipment 56 and road markings such as the white line 58, but does not include other vehicles located in each parking space. This is because the positions of obstacles and road markings are fixed regardless of the passage of time, while the positions of other vehicles located in each parking space change with the passage of time.

図4は、実施の形態に係る運転支援画像74の一例を模式的に示す図である。図4の運転支援画像74は、図2の俯瞰画像70に図3の付加画像72の一部領域Aを重畳して生成される。具体的には、図2及び図3に含まれる共通の基準点を特定し、その基準点の位置が対応するように両者を重ね合わせる。ここで、共通の基準点とは、支柱54や防災設備56などの障害物や白線58などの路面標示であり、特徴点の抽出が可能または容易な箇所である。フラップ式駐車場であれば、路面上に設置されるフラップ板を基準点として用いることもできる。図4に示すように付加画像72が重畳された運転支援画像74を提示することにより、図2の俯瞰画像70を提示する場合よりも自車両50の状況をより分かりやすく示すことができる。   FIG. 4 is a diagram schematically illustrating an example of the driving support image 74 according to the embodiment. 4 is generated by superimposing a partial area A of the additional image 72 of FIG. 3 on the overhead image 70 of FIG. Specifically, a common reference point included in FIGS. 2 and 3 is specified, and the two are overlapped so that the positions of the reference points correspond to each other. Here, the common reference point is an obstacle such as the column 54 or the disaster prevention facility 56 or a road marking such as the white line 58, and a feature point can be extracted or easily. If it is a flap type parking lot, the flap board installed on a road surface can also be used as a reference point. As shown in FIG. 4, by presenting the driving support image 74 on which the additional image 72 is superimposed, the situation of the host vehicle 50 can be shown more clearly than when the overhead image 70 of FIG. 2 is presented.

図3では、付加画像72の一例として、俯瞰画像70に重畳される一部領域Aより広い範囲が含まれる場合を示している。このような付加画像72は、例えば、駐車場等の障害物や路面標示の配置を示す図面データから生成することができる。付加画像72は、自車両または他車両が撮像した車両周辺画像に基づいて生成されてもよく、この場合の付加画像72に含まれる範囲は、俯瞰画像70と同程度であってもよいし、俯瞰画像70より大きくても小さくてもよい。具体的には、図3の一部領域Aと同じ範囲のみが付加画像72に含まれてもよい。また、付加画像72の元となる画像データは、俯瞰画像に限られず、自車両または他車両から車両前方、側方または後方を撮像した画像であってもよい。   In FIG. 3, as an example of the additional image 72, a case where a range wider than the partial region A superimposed on the overhead image 70 is included. Such an additional image 72 can be generated from, for example, drawing data indicating an arrangement of an obstacle such as a parking lot or a road marking. The additional image 72 may be generated based on a vehicle surrounding image captured by the own vehicle or another vehicle, and the range included in the additional image 72 in this case may be similar to the overhead image 70, It may be larger or smaller than the overhead image 70. Specifically, only the same range as the partial area A in FIG. 3 may be included in the additional image 72. Further, the image data that is the source of the additional image 72 is not limited to a bird's-eye view image, and may be an image obtained by capturing the front, side, or rear of the vehicle from the own vehicle or another vehicle.

図5は、運転支援装置10の構成を模式的に示す機能ブロック図である。図示する各機能ブロックは、ハードウェア的には、コンピュータのCPUやメモリをはじめとする素子や機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックとして描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組み合わせによっていろいろなかたちで実現できることは、当業者には理解されるところである。   FIG. 5 is a functional block diagram schematically showing the configuration of the driving support device 10. Each functional block shown in the figure can be realized by hardware such as a computer CPU and memory, or a mechanical device, and can be realized by software by a computer program or the like. It is drawn as a functional block to be realized. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.

運転支援装置10は、タッチディスプレイ12と、制御装置18とを備える。タッチディスプレイ12は、表示装置14と、入力装置16とを有する。表示装置14は、液晶ディスプレイ等の表示装置であり、車両のセンターコンソールやダッシュボードの位置に取り付けられる。入力装置16は、いわゆるタッチパネル式のセンサであり、表示装置14の表示領域に設けられる。なお、入力装置16はタッチ式ではなく、表示装置14の周辺に配置されるボタン等で構成されてもよい。また、表示装置14は、車両後方を視認するためのリアビューミラーの位置に設けられてもよいし、ヘッドアップディスプレイとして構成されてもよい。運転支援装置10は、タッチディスプレイ12を備えず、運転支援装置10とは別のディスプレイ等の表示装置の表示を制御してもよい。   The driving support device 10 includes a touch display 12 and a control device 18. The touch display 12 includes a display device 14 and an input device 16. The display device 14 is a display device such as a liquid crystal display, and is attached to the position of the center console or dashboard of the vehicle. The input device 16 is a so-called touch panel sensor, and is provided in the display area of the display device 14. Note that the input device 16 is not a touch type, and may be configured with buttons or the like arranged around the display device 14. Moreover, the display apparatus 14 may be provided in the position of the rear view mirror for visually recognizing the vehicle rear, and may be comprised as a head-up display. The driving support device 10 may not include the touch display 12 and may control display on a display device such as a display different from the driving support device 10.

制御装置18は、運転支援画像74を生成し、生成した画像を表示装置14に表示させる。制御装置18は、無線通信器30、車載カメラ32、車速センサ34、ジャイロセンサ36、及び、ナビゲーション装置38と接続されており、これらから表示画像の生成に必要な情報を取得する。無線通信器30は、無線通信回線を通じてネットワークと接続し、自車両50の外部に設けられるサーバ(不図示)との間でデータのやりとりをする。   The control device 18 generates a driving support image 74 and causes the display device 14 to display the generated image. The control device 18 is connected to the wireless communication device 30, the in-vehicle camera 32, the vehicle speed sensor 34, the gyro sensor 36, and the navigation device 38, and acquires information necessary for generating a display image therefrom. The wireless communication device 30 is connected to a network through a wireless communication line, and exchanges data with a server (not shown) provided outside the host vehicle 50.

制御装置18は、画像取得部20と、画像解析部22と、データ取得部24と、データ送信部25と、画像生成部26と、表示制御部28と、を備える。   The control device 18 includes an image acquisition unit 20, an image analysis unit 22, a data acquisition unit 24, a data transmission unit 25, an image generation unit 26, and a display control unit 28.

画像取得部20は、車載カメラ32から自車両50の周辺を撮像した画像を取得する。画像取得部20は、例えば、自車両50の前後左右の4箇所に設けられる複数のカメラのそれぞれが撮像する画像を取得し、自車両50の周辺を上空から見ているかのように視点変換処理が施された俯瞰画像を生成可能にする。なお、画像取得部20が取得する画像は特に限られず、例えば自車両50の後方画像など、自車両50の周辺状況を示す車両周辺画像を生成するために必要な任意の画像を取得してよい。   The image acquisition unit 20 acquires an image obtained by capturing the periphery of the host vehicle 50 from the in-vehicle camera 32. The image acquisition unit 20 acquires, for example, images captured by each of a plurality of cameras provided at four locations on the front, rear, left, and right of the host vehicle 50, and performs viewpoint conversion processing as if the periphery of the host vehicle 50 is viewed from above. It is possible to generate a bird's-eye view image that has been subjected to. Note that the image acquired by the image acquisition unit 20 is not particularly limited, and an arbitrary image necessary for generating a vehicle peripheral image indicating a peripheral situation of the host vehicle 50 such as a rear image of the host vehicle 50 may be acquired. .

画像解析部22は、画像取得部20が取得した車両周辺画像に含まれる基準物をパターンマッチングなどの解析技術を用いて検出する。例えば、図2に示す俯瞰画像70であれば、画像に含まれる支柱54、防災設備56、白線58などを基準物として検出する。フラップ式駐車場であれば、路面上のフラップ板を基準物として検出してもよい。画像解析部22は、車両周辺画像の中からあらかじめ設定された基準物を検出してもよいし、車両周辺画像の中から基準物の候補となる物体を特定し、そのいずれかを基準物として検出してもよい。   The image analysis unit 22 detects a reference object included in the vehicle peripheral image acquired by the image acquisition unit 20 using an analysis technique such as pattern matching. For example, in the bird's-eye view image 70 shown in FIG. 2, the support 54, the disaster prevention facility 56, the white line 58, and the like included in the image are detected as reference objects. If it is a flap type parking lot, you may detect the flap board on a road surface as a reference | standard thing. The image analysis unit 22 may detect a reference object set in advance from the vehicle periphery image, or specify an object that is a candidate for the reference object from the vehicle periphery image, and use either of them as a reference object. It may be detected.

データ取得部24は、無線通信器30を介して、自車両50の外部から付加画像72の生成に必要なデータを取得する。データ取得部24が取得するデータには、画像解析部22が解析する基準物と、その基準物の周辺に存在する障害物や路面標示との相対的な位置関係を示す情報や画像が含まれる。付加画像72は、データ取得部24が取得するデータに基づいて画像生成部26により生成される。   The data acquisition unit 24 acquires data necessary for generating the additional image 72 from the outside of the host vehicle 50 via the wireless communication device 30. The data acquired by the data acquisition unit 24 includes information and images indicating the relative positional relationship between the reference object analyzed by the image analysis unit 22 and obstacles and road markings present around the reference object. . The additional image 72 is generated by the image generation unit 26 based on the data acquired by the data acquisition unit 24.

データ取得部24が取得するデータの一例は、画像データであり、あらかじめ駐車場52にて撮像された画像や、駐車場52を利用する車両が過去に撮像した俯瞰画像などに基づく。事前に撮像した画像に他車両や通行人などの時間経過とともに位置が変化しうるものが含まれている場合、それらを画像処理により事前に除去しておくことが好ましい。また、他車両の車載カメラが撮像した車両周辺画像を用いる場合には、車載カメラの位置が自車両50と同等の画像を用いることが好ましい。カメラの取付位置や向きが異なると撮像される画像の視点や画角が異なり、撮像画像の見え方が異なってしまうからである。例えば、自車両50と同型車種の他車両が純正仕様の車載カメラで撮像した画像データを取得することが好ましい。   An example of data acquired by the data acquisition unit 24 is image data, and is based on an image captured in advance in the parking lot 52, an overhead image captured in the past by a vehicle using the parking lot 52, or the like. When images captured in advance include images such as other vehicles and passers-by whose positions can change over time, it is preferable to remove them in advance by image processing. Moreover, when using the vehicle periphery image which the vehicle-mounted camera of the other vehicle imaged, it is preferable to use the image whose position of the vehicle-mounted camera is equivalent to the host vehicle 50. This is because if the camera mounting position and orientation are different, the viewpoint and angle of view of the captured image are different, and the appearance of the captured image is different. For example, it is preferable to acquire image data captured by another vehicle of the same type as that of the host vehicle 50 using a genuine in-vehicle camera.

なお、データ取得部24が取得するデータは、基準物および基準物の周辺の障害物や路面標示の配置を示す図面データであってもよく、図面データに基づいて付加画像72が生成されてもよい。この場合、付加画像72は、図面データに基づいて2次元または3次元仮想空間を生成し、俯瞰画像70の画角に対応する位置をレンダリングすることによって生成することができる。画像生成部26は、データ取得部24が取得する図面データに基づいて、俯瞰画像70の画角に対応する付加画像72を生成する。   The data acquired by the data acquisition unit 24 may be drawing data indicating the arrangement of the reference object, obstacles around the reference object, and road markings. Even if the additional image 72 is generated based on the drawing data. Good. In this case, the additional image 72 can be generated by generating a two-dimensional or three-dimensional virtual space based on the drawing data and rendering a position corresponding to the angle of view of the overhead image 70. The image generation unit 26 generates an additional image 72 corresponding to the angle of view of the overhead image 70 based on the drawing data acquired by the data acquisition unit 24.

データ送信部25は、自車両50が撮像した車両周辺画像を無線通信器30を介してサーバに送信する。自車両50から送信される画像は、サーバに保存され、自車両または他車両が取得する付加画像72の元データとして使用される。データ送信部25は、撮像した車両周辺画像に加えて、車種、撮像日時、撮像地点、撮像時の天候といった画像の属性情報をサーバに送信してもよい。   The data transmission unit 25 transmits the vehicle periphery image captured by the host vehicle 50 to the server via the wireless communication device 30. The image transmitted from the host vehicle 50 is stored in a server and used as original data of the additional image 72 acquired by the host vehicle or another vehicle. The data transmission unit 25 may transmit image attribute information such as the vehicle type, imaging date and time, imaging location, and weather at the time of imaging to the server in addition to the captured vehicle surrounding image.

画像生成部26は、車両周辺画像に付加画像を重畳して運転支援画像74を生成する。画像生成部26は、現在撮像した車両周辺画像に含まれる基準物と、外部から取得したデータに基づく付加画像に含まれる基準物との位置が対応するように二つの画像を重畳する。例えば、図2〜図4に示す例では、位置合わせの基準物として、支柱54や防災設備56、白線58の先端部などを用いることができる。フラップ式駐車場であれば、路面上のフラップ板を基準物として用いることができる。   The image generation unit 26 generates a driving support image 74 by superimposing an additional image on the vehicle periphery image. The image generation unit 26 superimposes the two images so that the positions of the reference object included in the currently captured vehicle peripheral image and the reference object included in the additional image based on the data acquired from the outside correspond to each other. For example, in the example shown in FIGS. 2 to 4, the column 54, the disaster prevention equipment 56, the tip of the white line 58, or the like can be used as a reference for alignment. If it is a flap type parking lot, the flap board on a road surface can be used as a reference | standard thing.

画像生成部26は、俯瞰画像70に付加画像72を重畳させる際、俯瞰画像70に対して付加画像72のサイズが一致するように付加画像72に拡大縮小処理を施してもよい。付加画像72の元データには、付加画像72に含まれる障害物や路面標示の大きさや縮尺などを示すサイズ情報が含まれてもよく、画像生成部26はそのサイズ情報に基づいて拡大縮小処理を施した付加画像72を生成してもよい。なお、付加画像72の元データとして自車両50と同型車種の他車両が撮像した車両周辺画像を用いる場合等には、撮像される画像の視点や画角が一致するため、付加画像72に拡大縮小処理を施さずに俯瞰画像70に重畳させてもよい。   When superimposing the additional image 72 on the overhead image 70, the image generation unit 26 may perform an enlargement / reduction process on the additional image 72 so that the size of the additional image 72 matches the overhead image 70. The original data of the additional image 72 may include size information indicating the size and scale of obstacles and road markings included in the additional image 72, and the image generation unit 26 performs enlargement / reduction processing based on the size information. An additional image 72 subjected to the above may be generated. In addition, when using a vehicle peripheral image captured by another vehicle of the same vehicle type as the own vehicle 50 as the original data of the additional image 72, the viewpoint and the angle of view of the captured image coincide with each other. You may superimpose on the bird's-eye view image 70, without performing reduction processing.

なお、サーバに保存されているデータによっては、現在の自車両50の周辺の状況に対応する付加画像72が得られない場合もある。また、車両周辺画像の中から基準物を適切に検出できないために、付加画像72を重畳できない場合もある。このような場合には、画像生成部26は、付加画像72の重畳をせずに、俯瞰画像70を運転支援画像として生成する。   Depending on the data stored in the server, the additional image 72 corresponding to the current situation around the host vehicle 50 may not be obtained. Further, since the reference object cannot be appropriately detected from the vehicle peripheral image, the additional image 72 may not be superimposed. In such a case, the image generation unit 26 generates the overhead image 70 as a driving assistance image without superimposing the additional image 72.

画像生成部26は、自車両50が移動して現在撮像中の車両周辺画像が変化する場合、その変化に応じて重畳させる付加画像72を切り替える。画像生成部26は、例えば、移動先の自車両50の位置に応じて異なる付加画像72を取得して重畳し、運転支援画像78が更新表示されるようにする。画像生成部26は、自車両50の位置の変化が小さい場合等には、付加画像72の重畳位置や向きを変更することにより、運転支援画像78が更新表示されるようにしてもよい。   When the own vehicle 50 moves and the vehicle surrounding image currently being captured changes, the image generation unit 26 switches the additional image 72 to be superimposed according to the change. For example, the image generation unit 26 acquires and superimposes different additional images 72 according to the position of the host vehicle 50 that is the movement destination, and causes the driving support image 78 to be updated and displayed. The image generation unit 26 may update and display the driving support image 78 by changing the superimposed position and orientation of the additional image 72 when the change in the position of the host vehicle 50 is small.

表示制御部28は、画像生成部26が生成する画像を表示装置14に表示させる。表示制御部28は、例えば、図4に示すような運転支援画像74を表示装置14に表示させ、周囲の状況がより分かりやすい車両周辺画像を運転者に提示する。   The display control unit 28 causes the display device 14 to display an image generated by the image generation unit 26. The display control unit 28 displays, for example, a driving assistance image 74 as shown in FIG. 4 on the display device 14 and presents a vehicle surrounding image in which the surrounding situation is easier to understand to the driver.

以上の構成によれば、運転支援装置10は、自車両50が撮像する俯瞰画像70に付加画像72を重畳することにより、俯瞰画像70だけでは見えない部分や見えにくい部分を補って表示することができる。例えば、自車両50によって隠れてしまう箇所や、自車両50の車載カメラ32の死角となって映らない箇所を可視化できる。また、車載カメラ32の画角の範囲内であったとしても、夜間のために見えにくかったり、照明光が当たらないために陰になったりする部分を見えやすく表示できる。したがって、本実施の形態によれば、車両周辺の状況が十分に映し出されない状況下であっても、車両周辺の障害物の位置が見やすい運転支援画像を提示できる。これにより、ユーザの利便性を向上することができる。   According to the above configuration, the driving support device 10 displays the image supplemented by the additional image 72 on the overhead image 70 captured by the host vehicle 50 to compensate for a portion that is not visible or difficult to see with the overhead image 70 alone. Can do. For example, it is possible to visualize a location that is hidden by the host vehicle 50 or a location that does not appear as a blind spot of the in-vehicle camera 32 of the host vehicle 50. Moreover, even if it is within the range of the field angle of the in-vehicle camera 32, it is possible to easily display a portion that is difficult to see at night or is shaded because it is not exposed to illumination light. Therefore, according to the present embodiment, it is possible to present a driving assistance image in which the position of an obstacle around the vehicle is easy to see even in a situation where the situation around the vehicle is not sufficiently projected. Thereby, a user's convenience can be improved.

図6は、運転支援方法の流れを模式的に示すフローチャートである。画像取得部20は、車載カメラ32から車両周辺画像を取得する(S10)。画像解析部22は、取得した現在の車両周辺画像を解析して基準物を特定し、データ取得部24は、自車両周辺の障害物および路面標示に関するデータを取得する(S12)。自車両周辺の障害物および路面標示の位置を示す付加画像の重畳が可能であれば(S14のY)、画像生成部26は、車両周辺画像と付加画像の共通する基準物の位置が対応するように車両周辺画像に付加画像を重畳して合成する(S16)。表示制御部28は、画像生成部26が合成した運転支援画像を表示させる(S18)。一方、付加画像の重畳ができなければ(S14のN)、撮像した車両周辺画像を表示させる(S20)。   FIG. 6 is a flowchart schematically showing the flow of the driving support method. The image acquisition unit 20 acquires a vehicle periphery image from the in-vehicle camera 32 (S10). The image analysis unit 22 analyzes the acquired current vehicle periphery image to identify a reference object, and the data acquisition unit 24 acquires data related to obstacles and road markings around the host vehicle (S12). If the additional image indicating the position of the obstacle and the road marking around the host vehicle can be superimposed (Y in S14), the image generation unit 26 corresponds to the position of the reference object common to the vehicle peripheral image and the additional image. In this manner, the additional image is superimposed on the vehicle peripheral image and synthesized (S16). The display control unit 28 displays the driving support image synthesized by the image generation unit 26 (S18). On the other hand, if the additional image cannot be superimposed (N in S14), the captured vehicle peripheral image is displayed (S20).

以上、本発明を上述の実施の形態を参照して説明したが、本発明は上述の実施の形態に限定されるものではなく、各表示例に示す構成を適宜組み合わせたものや置換したものについても本発明に含まれるものである。   As described above, the present invention has been described with reference to the above-described embodiment. However, the present invention is not limited to the above-described embodiment, and the configuration shown in each display example is appropriately combined or replaced. Are also included in the present invention.

上述の実施の形態では、自車両50の俯瞰画像70に対して付加画像72を重畳して表示する場合を示した。変形例においては、自車両50の前方画像、側方画像または後方画像などに付加画像を重畳して表示してもよい。   In the above-described embodiment, the case where the additional image 72 is displayed superimposed on the overhead image 70 of the host vehicle 50 has been shown. In a modified example, an additional image may be superimposed and displayed on the front image, the side image, or the rear image of the host vehicle 50.

上述の実施の形態では、自車両50のハンドルを左側に切った状態で後退させる場合に表示される運転支援画像を例示した。変形例においては、自車両50のハンドルを右側に切った状態で後退させる場合、直進状態で後退させる場合、自車両50を前進させる場合などに上述の内容を適用してもよい。   In the above-described embodiment, the driving assistance image displayed when the host vehicle 50 is moved backward with the steering wheel turned to the left is illustrated. In the modified example, the above-described contents may be applied to the case where the steering wheel of the host vehicle 50 is moved backward while being turned to the right, the vehicle 50 is moved back in a straight traveling state, the host vehicle 50 is moved forward, or the like.

10…運転支援装置、14…表示装置、20…画像取得部、22…画像解析部、24…データ取得部、25…データ送信部、26…画像生成部、28…表示制御部、32…車載カメラ、50…自車両、74…運転支援画像。   DESCRIPTION OF SYMBOLS 10 ... Driving assistance apparatus, 14 ... Display apparatus, 20 ... Image acquisition part, 22 ... Image analysis part, 24 ... Data acquisition part, 25 ... Data transmission part, 26 ... Image generation part, 28 ... Display control part, 32 ... In-vehicle Camera, 50 ... own vehicle, 74 ... driving assistance image.

Claims (8)

自車両の周辺を撮像した車両周辺画像を取得する画像取得部と、
前記車両周辺画像に含まれる基準物を検出する画像解析部と、
前記基準物の周辺に存在する障害物および路面標示の少なくとも一方の前記基準物に対する相対的な位置関係を示すデータを自車両の外部から取得するデータ取得部と、
前記データ取得部が取得するデータを用いて、前記車両周辺画像に含まれる前記基準物の位置を基準として、前記車両周辺画像上に前記障害物および前記路面標示の少なくとも一方を示す画像を重畳した運転支援画像を生成する画像生成部と、
前記運転支援画像を表示装置に表示させる表示制御部と、を備えることを特徴とする運転支援装置。
An image acquisition unit for acquiring a vehicle periphery image obtained by imaging the periphery of the own vehicle;
An image analysis unit for detecting a reference object included in the vehicle periphery image;
A data acquisition unit for acquiring data indicating a relative positional relationship with respect to the reference object of at least one of obstacles and road markings present around the reference object from outside the host vehicle;
Using the data acquired by the data acquisition unit, an image indicating at least one of the obstacle and the road marking is superimposed on the vehicle peripheral image with reference to the position of the reference object included in the vehicle peripheral image. An image generation unit for generating a driving support image;
And a display control unit that displays the driving support image on a display device.
前記データ取得部は、前記基準物と、前記基準物の周辺に存在する障害物および路面標示の少なくとも一方とを撮像した画像データを取得することを特徴とする請求項1に記載の運転支援装置。   The driving support device according to claim 1, wherein the data acquisition unit acquires image data obtained by imaging the reference object and at least one of an obstacle and a road marking present around the reference object. . 前記データ取得部は、自車両とは異なる他車両の車載カメラが撮像した車両周辺画像に基づくデータを取得することを特徴とする請求項1または2に記載の運転支援装置。   The driving support apparatus according to claim 1, wherein the data acquisition unit acquires data based on a vehicle peripheral image captured by an in-vehicle camera of another vehicle different from the host vehicle. 前記データ取得部は、自車両と同型車種である他車両の車載カメラが撮像した車両周辺画像に基づくデータを取得することを特徴とする請求項3に記載の運転支援装置。   The driving support device according to claim 3, wherein the data acquisition unit acquires data based on a vehicle surrounding image captured by an in-vehicle camera of another vehicle that is the same type as the host vehicle. 自車両の車載カメラが撮像した車両周辺画像に基づくデータを自車両の外部に送信するデータ送信部をさらに備えることを特徴とする請求項1から4のいずれか一項に記載の運転支援装置。   5. The driving support device according to claim 1, further comprising a data transmission unit configured to transmit data based on a vehicle peripheral image captured by an in-vehicle camera of the host vehicle to the outside of the host vehicle. 前記データ取得部は、前記基準物と、前記基準物の周辺に存在する障害物および路面標示の少なくとも一方とを含む図面データを取得することを特徴する請求項1に記載の運転支援装置。   The driving support device according to claim 1, wherein the data acquisition unit acquires drawing data including the reference object and at least one of an obstacle and a road marking present around the reference object. 自車両の周辺を撮像した車両周辺画像を取得し、前記車両周辺画像に含まれる基準物を検出するステップと、
前記基準物の周辺に存在する障害物および路面標示の少なくとも一方の前記基準物に対する相対的な位置関係を示すデータを自車両の外部から取得するステップと、
前記取得するデータを用いて、前記車両周辺画像に含まれる前記基準物の位置を基準として、前記車両周辺画像上に前記障害物および前記路面標示の少なくとも一方を示す画像を重畳した運転支援画像を生成するステップと、
前記運転支援画像を表示装置に表示させるステップと、を備えることを特徴とする運転支援方法。
Acquiring a vehicle peripheral image obtained by imaging the periphery of the host vehicle, and detecting a reference object included in the vehicle peripheral image;
Obtaining from the outside of the host vehicle data indicating a relative positional relationship of at least one of obstacles and road markings present around the reference object with respect to the reference object;
A driving assistance image obtained by superimposing an image indicating at least one of the obstacle and the road marking on the vehicle peripheral image using the acquired data as a reference based on the position of the reference object included in the vehicle peripheral image. Generating step;
Displaying the driving assistance image on a display device. A driving assistance method comprising:
自車両の周辺を撮像した車両周辺画像を取得し、前記車両周辺画像に含まれる基準物を検出する機能と、
前記基準物の周辺に存在する障害物および路面標示の少なくとも一方の前記基準物に対する相対的な位置関係を示すデータを自車両の外部から取得する機能と、
前記取得するデータを用いて、前記車両周辺画像に含まれる前記基準物の位置を基準として、前記車両周辺画像上に前記障害物および前記路面標示の少なくとも一方を示す画像を重畳した運転支援画像を生成する機能と、
前記運転支援画像を表示装置に表示させる機能と、をコンピュータに実現させることを特徴とするプログラム。
A function of acquiring a vehicle peripheral image obtained by imaging the periphery of the host vehicle and detecting a reference object included in the vehicle peripheral image;
A function of acquiring data indicating a relative positional relationship of at least one of an obstacle present around the reference object and a road marking with respect to the reference object from outside the host vehicle;
A driving assistance image obtained by superimposing an image indicating at least one of the obstacle and the road marking on the vehicle peripheral image using the acquired data as a reference based on the position of the reference object included in the vehicle peripheral image. The function to generate,
A program for causing a computer to realize a function of displaying the driving assistance image on a display device.
JP2017057315A 2017-03-23 2017-03-23 Driving support device, driving support method and program Pending JP2018158664A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017057315A JP2018158664A (en) 2017-03-23 2017-03-23 Driving support device, driving support method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017057315A JP2018158664A (en) 2017-03-23 2017-03-23 Driving support device, driving support method and program

Publications (1)

Publication Number Publication Date
JP2018158664A true JP2018158664A (en) 2018-10-11

Family

ID=63796077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017057315A Pending JP2018158664A (en) 2017-03-23 2017-03-23 Driving support device, driving support method and program

Country Status (1)

Country Link
JP (1) JP2018158664A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166689A (en) * 2019-03-29 2020-10-08 日産自動車株式会社 Vehicle remote monitoring system, vehicle remote monitoring device, and vehicle remote monitoring method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020166689A (en) * 2019-03-29 2020-10-08 日産自動車株式会社 Vehicle remote monitoring system, vehicle remote monitoring device, and vehicle remote monitoring method
JP7242386B2 (en) 2019-03-29 2023-03-20 日産自動車株式会社 Vehicle remote monitoring system, vehicle remote monitoring device, and vehicle remote monitoring method

Similar Documents

Publication Publication Date Title
CN112477758B (en) Peripheral monitoring device
JP5143235B2 (en) Control device and vehicle surrounding monitoring device
JP5454934B2 (en) Driving assistance device
WO2018012299A1 (en) Image generation device, image generation method, and program
JP2007183877A (en) Vehicle driving support apparatus and overhead video display method
US11601621B2 (en) Vehicular display system
WO2019097762A1 (en) Superimposed-image display device and computer program
CN111094083B (en) Parking assist apparatus
JP2019186853A (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP5054555B2 (en) Vehicle peripheral image display device
JP2014036326A (en) Bird's eye image display device
JP6720729B2 (en) Display controller
JPWO2011013813A1 (en) In-vehicle device and image processing program
JP2008213647A (en) Parking assist method and parking assist system
JP5273068B2 (en) Vehicle periphery monitoring device
JPWO2017179206A1 (en) Parking assistance display control apparatus and parking assistance display control method
JP2019156048A (en) Parking support device
JP2019039883A (en) Vehicle display device and display control method
JP5556694B2 (en) Logistics support device
JP2018158664A (en) Driving support device, driving support method and program
JP2018019155A (en) Display controller for vehicle, display system for vehicle, display control method for vehicle and program
JP6953088B2 (en) Electronic devices and parking assistance methods
CN117622181A (en) Display system and display method
US20220086368A1 (en) Vehicular display system
JP7755775B2 (en) Method for assisting a user of an assistance system, assistance system and vehicle equipped with such a system