[go: up one dir, main page]

JP2018151903A - Virtual image display device and computer program - Google Patents

Virtual image display device and computer program Download PDF

Info

Publication number
JP2018151903A
JP2018151903A JP2017048160A JP2017048160A JP2018151903A JP 2018151903 A JP2018151903 A JP 2018151903A JP 2017048160 A JP2017048160 A JP 2017048160A JP 2017048160 A JP2017048160 A JP 2017048160A JP 2018151903 A JP2018151903 A JP 2018151903A
Authority
JP
Japan
Prior art keywords
virtual image
correction
vehicle
warning
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017048160A
Other languages
Japanese (ja)
Other versions
JP6825433B2 (en
Inventor
賢二 渡邊
Kenji Watanabe
賢二 渡邊
雄亮 守田
Takesuke Morita
雄亮 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2017048160A priority Critical patent/JP6825433B2/en
Publication of JP2018151903A publication Critical patent/JP2018151903A/en
Application granted granted Critical
Publication of JP6825433B2 publication Critical patent/JP6825433B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】虚像を対象物に適切に重畳させて車両の乗員に視認させるとともに、虚像の表示位置のチャタリングの発生についても抑えた虚像表示装置及びコンピュータプログラムを提供する。【解決手段】警告を行うアイコン等の虚像を乗員の視線前方にある警告対象物に重畳させて視認させるとともに、乗員が乗車する車両の挙動と警告対象物の挙動とに基づいて、乗員から視認される警告対象物の今後の位置の変位を予測し、予測された位置の変位に基づいて前記虚像の表示位置を補正する。また、警告対象物と虚像の重畳状態を取得し、警告対象物と虚像の重畳状態に基づいて補正の実施の有無を切り替えるように構成する。【選択図】図8PROBLEM TO BE SOLVED: To provide a virtual image display device and a computer program in which a virtual image is appropriately superimposed on an object so as to be visually recognized by a vehicle occupant and chattering of a virtual image display position is suppressed. SOLUTION: A virtual image such as an icon for giving a warning is superimposed on a warning object in front of the line of sight of the occupant to be visually recognized, and is visually recognized by the occupant based on the behavior of the vehicle on which the occupant is riding and the behavior of the warning object. Warning The displacement of the future position of the object is predicted, and the display position of the virtual image is corrected based on the predicted displacement of the position. In addition, the superimposed state of the warning object and the virtual image is acquired, and the presence / absence of correction is switched based on the superimposed state of the warning object and the virtual image. [Selection diagram] FIG. 8

Description

本発明は、車両の乗員が視認する虚像を表示する虚像表示装置及びコンピュータプログラムに関する。   The present invention relates to a virtual image display device and a computer program that display a virtual image visually recognized by a vehicle occupant.

従来より、車両等の移動体の乗員に対して経路案内や障害物の警告等の運転情報を提供する情報提供手段として、様々な手段が用いられている。例えば、移動体に設置された液晶ディスプレイによる表示や、スピーカから出力する音声等である。そして、近年、このような情報提供手段の一つとして、ヘッドアップディスプレイ装置(以下、HUDという)のような人間の目の錯覚を利用して実際に映像が表示された位置と異なる空間上に映像を視認させる虚像表示装置がある。   Conventionally, various means have been used as information providing means for providing driving information such as route guidance and obstacle warnings to passengers of moving bodies such as vehicles. For example, display on a liquid crystal display installed on a moving body, sound output from a speaker, and the like. In recent years, as one of such information providing means, a head-up display device (hereinafter referred to as HUD) is used in a space different from a position where an image is actually displayed using an illusion of human eyes. There is a virtual image display device for visually recognizing an image.

ここで、HUDにより表示された虚像を周辺環境に重畳して案内を行う場合には、虚像が周辺環境に対して適切な位置に重畳していることが重要である。例えば、前方の障害物を警告するマークを虚像として表示する場合には、警告対象となる障害物に重畳する位置に虚像を表示することによって、乗員に障害物を確実に把握させることができ、効果的な案内を行うことが可能となる。そこで、センサやカメラ等を用いて虚像の重畳する対象となる対象物(障害物等)の位置を検出し、検出した対象物の位置に重畳するように虚像の表示位置の制御を行っている。しかしながら、乗員が乗車する車両が移動することによって、乗員が視認する対象物の位置(即ち乗員に対する対象物の相対位置)が変化し、表示する虚像の位置が対象物の位置からズレる問題があった。また、特に他車両や歩行者等の移動体が上記対象物である場合には、対象物の移動によって更に大きなズレとなる可能性がある。   Here, in the case where guidance is performed by superimposing a virtual image displayed by the HUD on the surrounding environment, it is important that the virtual image is superimposed on an appropriate position with respect to the surrounding environment. For example, in the case of displaying a mark that warns the obstacle ahead as a virtual image, by displaying the virtual image at a position superimposed on the obstacle to be warned, the occupant can be surely grasped the obstacle, Effective guidance can be performed. Therefore, the position of the target object (obstacle, etc.) on which the virtual image is to be superimposed is detected using a sensor or camera, and the display position of the virtual image is controlled so as to be superimposed on the detected position of the target object. . However, when the vehicle on which the occupant rides moves, the position of the object visually recognized by the occupant (that is, the relative position of the object with respect to the occupant) changes, and the position of the virtual image to be displayed deviates from the position of the object. It was. In particular, when a moving body such as another vehicle or a pedestrian is the target object, there is a possibility that a larger displacement occurs due to the movement of the target object.

そこで、乗員から視認される対象物の今後の位置の変位を予測することによって上記位置のズレを防止する技術が考えられる。例えば特開2011−223242号公報には、電子カメラにおいて焦点調整や露出制御等を行う為に、被写体の今後の動きを予測して追尾する技術について開示されており、このような追従技術をHUDに用いることも考えられる。   Therefore, a technique for preventing the displacement of the position by predicting the displacement of the future position of the object visually recognized by the occupant can be considered. For example, Japanese Patent Application Laid-Open No. 2011-223242 discloses a technique for predicting and tracking a future movement of a subject in order to perform focus adjustment, exposure control, and the like in an electronic camera. It is also possible to use it.

特開2011−223242号公報(第8−9頁)JP2011-223242A (page 8-9)

ここで、上記特許文献1に記載の追尾技術をHUDに用いた場合には、乗員から見た対象物の移動速度や移動方向が一定である場合には、適切な虚像の重畳表示が可能であると考えられる。しかしながら、電子カメラの被写体と比べて、乗員から見た道路上を移動する対象物は、移動速度や移動方向の変化の発生頻度や変化量や大きい為、上記追尾補正を行うことによって虚像の表示位置のチャタリング(ブレ、ガタつき、揺れ等)が発生してしまい、乗員に違和感を与えてしまうという問題があった。   Here, when the tracking technique described in Patent Document 1 is used for HUD, an appropriate virtual image can be superimposed and displayed when the moving speed and moving direction of the object viewed from the occupant are constant. It is believed that there is. However, compared to the subject of the electronic camera, the object moving on the road as seen from the occupant is larger in frequency and amount of change in the movement speed and direction of movement, so the virtual image is displayed by performing the tracking correction described above. There was a problem that position chattering (blurring, rattling, shaking, etc.) occurred, giving the passenger a sense of incongruity.

本発明は前記従来における問題点を解消するためになされたものであり、虚像を対象物に適切に重畳させて車両の乗員に視認させるとともに、虚像の表示位置のチャタリングの発生についても抑えた虚像表示装置及びコンピュータプログラムを提供することを目的とする。   The present invention has been made in order to solve the above-described problems in the related art. The virtual image is appropriately superimposed on the object so that the vehicle occupant can visually recognize the virtual image, and the occurrence of chattering at the display position of the virtual image is suppressed. An object is to provide a display device and a computer program.

前記目的を達成するため本発明に係る虚像表示装置は、車両に搭載され、映像表示面に表示された映像を前記車両の乗員に視認させることによって、前記映像の虚像を前記乗員の視線前方にある対象物に重畳させて視認させる虚像表示装置であって、前記車両の挙動を取得する車両情報取得手段と、前記対象物の挙動を取得する対象物情報取得手段と、前記車両の挙動と前記対象物の挙動とに基づいて、前記乗員から視認される前記対象物の今後の位置の変位を予測するとともに、予測された位置の変位に基づいて虚像の表示位置を補正する補正手段と、前記対象物と前記虚像の重畳状態を取得する重畳状態取得手段と、前記対象物と前記虚像の重畳状態に基づいて前記補正手段による補正の実施の有無を切り替える補正切換手段と、を有する。
尚、「虚像の表示位置」とは、絶対位置ではなく、虚像を視認する乗員の視線との相対位置によって定義される。
In order to achieve the above object, a virtual image display device according to the present invention is mounted on a vehicle and causes a vehicle occupant to visually recognize an image displayed on a video display surface, thereby moving the virtual image of the image forward of the occupant's line of sight. A virtual image display device that is superimposed on a certain object and visually recognized, vehicle information acquisition means for acquiring the behavior of the vehicle, object information acquisition means for acquiring the behavior of the object, behavior of the vehicle, and Based on the behavior of the object, the correction means for predicting the displacement of the future position of the object visually recognized by the occupant, and correcting the display position of the virtual image based on the displacement of the predicted position, A superimposition state acquisition unit that acquires a superimposition state of the object and the virtual image; and a correction switching unit that switches whether the correction unit performs correction based on the superimposition state of the object and the virtual image. .
The “virtual image display position” is defined not by an absolute position but by a relative position with respect to the line of sight of an occupant who visually recognizes the virtual image.

また、本発明に係るコンピュータプログラムは、車両に搭載され、映像表示面に表示された映像を前記車両の乗員に視認させることによって、映像の虚像を乗員の視線前方にある対象物に重畳させて視認させるコンピュータプログラムである。具体的には、コンピュータを、前記車両の挙動を取得する車両情報取得手段と、前記対象物の挙動を取得する対象物情報取得手段と、前記車両の挙動と前記対象物の挙動とに基づいて、前記乗員から視認される前記対象物の今後の位置の変位を予測するとともに、予測された位置の変位に基づいて虚像の表示位置を補正する補正手段と、前記対象物と前記虚像の重畳状態を取得する重畳状態取得手段と、前記対象物と前記虚像の重畳状態に基づいて前記補正手段による補正の実施の有無を切り替える補正切換手段と、して機能させる。   In addition, the computer program according to the present invention is mounted on a vehicle and causes the occupant of the vehicle to visually recognize the image displayed on the image display surface, thereby superimposing a virtual image of the image on an object in front of the sight line of the occupant. It is a computer program to be visually recognized. Specifically, the computer is based on vehicle information acquisition means for acquiring the behavior of the vehicle, object information acquisition means for acquiring the behavior of the object, behavior of the vehicle, and behavior of the object. A correction means for predicting a future displacement of the object visually recognized by the occupant and correcting a display position of the virtual image based on the predicted displacement of the object; and a superposition state of the object and the virtual image And a correction switching means for switching whether or not correction is performed by the correction means based on a superposition state of the object and the virtual image.

前記構成を有する本発明に係る虚像表示装置及びコンピュータプログラムによれば、虚像の表示位置の補正を行うことによって虚像を対象物に適切に重畳させて車両の乗員に視認させることが可能となる一方で、対象物と虚像の重畳状態に基づいて補正の実施の有無を切り替えることにより、補正の実施を必要最低限に抑え、虚像の表示位置のチャタリングの発生についてできる限り減少させることが可能となる。   According to the virtual image display device and the computer program according to the present invention having the above-described configuration, the virtual image can be appropriately superimposed on the object and visually recognized by the vehicle occupant by correcting the display position of the virtual image. Therefore, by switching whether to perform correction based on the superimposed state of the object and the virtual image, it is possible to suppress the correction to the minimum necessary and to reduce the occurrence of chattering of the display position of the virtual image as much as possible. .

本実施形態に係る虚像表示装置の概略構成図である。It is a schematic block diagram of the virtual image display apparatus which concerns on this embodiment. 本実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on this embodiment. 本実施形態に係るHUDの内部構成を示した図である。It is the figure which showed the internal structure of HUD which concerns on this embodiment. 本実施形態に係る虚像生成処理プログラムのフローチャートである。It is a flowchart of the virtual image generation processing program which concerns on this embodiment. 車両の乗員から視認できる虚像の一例を示した図である。It is the figure which showed an example of the virtual image visually recognizable from the passenger | crew of a vehicle. 乗員から視認される警告対象物の今後の位置の予測例を示した図である。It is the figure which showed the example of prediction of the future position of the warning target object visually recognized from a passenger | crew. 乗員から視認される警告対象物の位置が変位した場合において乗員から視認できる虚像の一例を示した図である。It is the figure which showed an example of the virtual image which can be visually recognized from a passenger | crew when the position of the warning target object visually recognized from a passenger | crew is displaced. 補正実施判定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of a correction implementation determination process. 警告対象物の周囲に虚像の重畳対象となる他の警告対象物がある場合において、虚像の表示位置の補正処理を行わない場合を示した図である。It is the figure which showed the case where the correction process of the display position of a virtual image is not performed when there exists another warning target object used as the superimposition target of a virtual image around the warning target object. 警告対象物の周囲に虚像の重畳対象となる他の警告対象物がある場合において、虚像の表示位置の補正処理を行う場合を示した図である。It is the figure which showed the case where the correction process of the display position of a virtual image is performed when there exists another warning target object used as the superimposition target of a virtual image around the warning target object. 警告対象物の周囲に虚像の重畳対象となる他の警告対象物がない場合において、虚像の表示位置の補正処理を行わない場合を示した図である。It is the figure which showed the case where the correction process of the display position of a virtual image is not performed when there exists no other warning target object used as the superimposition target of a virtual image around a warning target object. 警告対象物の周囲に虚像の重畳対象となる他の警告対象物がない場合において、虚像の表示位置の補正処理を行う場合を示した図である。It is the figure which showed the case where the correction process of the display position of a virtual image is performed when there is no other warning target object used as the superimposition target of a virtual image around the warning target object.

以下、本発明に係る虚像表示装置を具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係る虚像表示装置1の概略構成について図1を用いて説明する。図1は本実施形態に係る虚像表示装置1の概略構成図である。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, an embodiment embodying a virtual image display device according to the invention will be described in detail with reference to the drawings. First, a schematic configuration of the virtual image display device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a schematic configuration diagram of a virtual image display device 1 according to the present embodiment.

図1に示すように虚像表示装置1は、車両2に搭載されたナビゲーション装置3と、同じく車両2に搭載されるとともにナビゲーション装置3と接続されたヘッドアップディスプレイ装置(以下、HUDという)4とを基本的に有する。   As shown in FIG. 1, a virtual image display device 1 includes a navigation device 3 mounted on a vehicle 2, a head-up display device (hereinafter referred to as HUD) 4 mounted on the vehicle 2 and connected to the navigation device 3. Basically has.

ここで、ナビゲーション装置3は、目的地までの推奨経路を探索したり、車両2の現在位置を検出したり、サーバから取得したりメモリに格納された地図データに基づいて車両2の現在位置周辺の地図画像を表示したり、設定された案内経路に沿った移動案内や障害物に対する警告案内をHUD4とともに行う機能を有する。尚、上記機能の全てをナビゲーション装置3が備えている必要はなく、少なくとも設定された案内経路に沿った移動案内や障害物に対する警告案内を行う機能を有していれば本願発明を構成することが可能である。尚、ナビゲーション装置3の構造の詳細については後述する。   Here, the navigation device 3 searches for a recommended route to the destination, detects the current position of the vehicle 2, obtains it from the server, or based on map data stored in the memory, around the current position of the vehicle 2 The map image is displayed, and the movement guidance along the set guidance route and the warning guidance for obstacles are performed together with the HUD 4. Note that the navigation device 3 does not have to have all of the above functions, and the present invention is configured if it has at least a function of performing movement guidance along a set guidance route and warning guidance for obstacles. Is possible. Details of the structure of the navigation device 3 will be described later.

一方、HUD4は、車両2のダッシュボード5内部に設置されており、内部には映像が表示される映像表示面である液晶ディスプレイ6を有する。そして、液晶ディスプレイ6に投射された映像を、後述のようにHUD4が備える凹面鏡7等を介し、更に運転席の前方のフロントウィンドウ8に反射させて車両2の乗員9に視認させるように構成されている。尚、液晶ディスプレイ6に表示される映像としては、車両2に関する情報や乗員9の運転の支援の為に用いられる各種情報がある。例えば乗員9に対して警告対象となる対象物(他車両や歩行者)に対する警告、ナビゲーション装置3で設定された案内経路や案内経路に基づく案内情報(右左折方向を示す矢印等)、路面に表示する警告(追突注意、制限速度等)、現在車速、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面、テレビ番組等がある。   On the other hand, the HUD 4 is installed inside the dashboard 5 of the vehicle 2 and has a liquid crystal display 6 as a video display surface on which video is displayed. Then, the image projected on the liquid crystal display 6 is reflected on the front window 8 in front of the driver's seat through the concave mirror 7 provided in the HUD 4 as will be described later, so that the passenger 9 of the vehicle 2 can visually recognize the image. ing. The video displayed on the liquid crystal display 6 includes information related to the vehicle 2 and various information used for assisting the driving of the occupant 9. For example, a warning for an object (another vehicle or a pedestrian) that is a warning target for the occupant 9, guidance information set by the navigation device 3, guidance information based on the guidance route (such as an arrow indicating a right / left turn direction) There are warnings to be displayed (such as rear-end collision warnings, speed limits, etc.), current vehicle speed, information signs, map images, traffic information, news, weather forecasts, times, connected smartphone screens, TV programs, and the like.

また、本実施形態のHUD4では、フロントウィンドウ8を反射して乗員9が液晶ディスプレイ6に表示された映像を視認した場合に、乗員9にはフロントウィンドウ8の位置ではなく、フロントウィンドウ8の先の遠方の位置に液晶ディスプレイ6に表示された映像が虚像10として視認されるように構成される。尚、乗員9が視認できる虚像10は液晶ディスプレイ6に表示された映像であるが、凹面鏡7やその他のミラーを介することによって上下方向や左右方向が反転する場合があり、それらの反転を考慮して液晶ディスプレイ6の映像の表示を行う必要がある。また、凹面鏡7を介することによってサイズも変更する。   Further, in the HUD 4 of the present embodiment, when the occupant 9 visually reflects the image displayed on the liquid crystal display 6 by reflecting the front window 8, the occupant 9 is not at the position of the front window 8 but at the tip of the front window 8. The image displayed on the liquid crystal display 6 at a distant position is visually recognized as a virtual image 10. The virtual image 10 that can be seen by the occupant 9 is an image displayed on the liquid crystal display 6, but the vertical direction and the horizontal direction may be reversed through the concave mirror 7 and other mirrors. Therefore, it is necessary to display an image on the liquid crystal display 6. In addition, the size is changed through the concave mirror 7.

ここで、虚像10を生成する位置、より具体的には乗員9から虚像10までの距離(以下、虚像生成距離という)Lについては、HUD4が備える凹面鏡7の曲率、液晶ディスプレイ6と凹面鏡7との相対位置等によって適宜設定することが可能である。例えば、凹面鏡7の曲率が固定であれば、液晶ディスプレイ6において映像の表示された位置から凹面鏡7までの光路に沿った距離(光路長)によって虚像生成距離Lが決定される。例えば虚像生成距離Lが25mとなるように光路長が設定されている。尚、HUD4の構造の詳細については後述する。   Here, regarding the position where the virtual image 10 is generated, more specifically, the distance from the occupant 9 to the virtual image 10 (hereinafter referred to as the virtual image generation distance) L, the curvature of the concave mirror 7 included in the HUD 4, the liquid crystal display 6 and the concave mirror 7 It is possible to set as appropriate depending on the relative position of the. For example, if the curvature of the concave mirror 7 is fixed, the virtual image generation distance L is determined by the distance (optical path length) along the optical path from the position where the image is displayed on the liquid crystal display 6 to the concave mirror 7. For example, the optical path length is set so that the virtual image generation distance L is 25 m. Details of the structure of the HUD 4 will be described later.

また、車両のフロントバンパの上方やルームミラーの裏側等にはフロントカメラ11が設置される。フロントカメラ11は、例えばCCD等の固体撮像素子を用いたカメラを有する撮像装置であり、光軸方向を車両の進行方向前方に向けて設置される。そして、フロントカメラ11により撮像された撮像画像に対して画像処理が行われることによって、フロントウィンドウ8越しに乗員9に視認される前方環境(即ち虚像10が重畳される環境)の状況等が検出される。尚、フロントカメラ11の代わりにミリ波レーダ等のセンサを用いても良い。   A front camera 11 is installed above the front bumper of the vehicle, behind the rearview mirror, and the like. The front camera 11 is an imaging device having a camera using a solid-state imaging device such as a CCD, for example, and is installed with the optical axis direction facing forward in the traveling direction of the vehicle. Then, by performing image processing on the captured image captured by the front camera 11, the situation of the front environment (that is, the environment in which the virtual image 10 is superimposed) that is visually recognized by the occupant 9 through the front window 8 is detected. Is done. A sensor such as a millimeter wave radar may be used instead of the front camera 11.

次に、上記虚像表示装置1を構成するナビゲーション装置3の概略構成について図2を用いて説明する。図2は本実施形態に係るナビゲーション装置3を示したブロック図である。   Next, a schematic configuration of the navigation device 3 constituting the virtual image display device 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the navigation device 3 according to the present embodiment.

図2に示すように本実施形態に係るナビゲーション装置3は、ナビゲーション装置3が搭載された車両2の現在位置を検出する現在位置検出部12と、各種のデータが記録されたデータ記録部13と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU14と、ユーザからの操作を受け付ける操作部15と、ユーザに対して車両周辺の地図や施設の関する施設情報を表示する液晶ディスプレイ16と、経路案内に関する音声ガイダンスを出力するスピーカ17と、記憶媒体であるDVDを読み取るDVDドライブ18と、VICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール19と、を有する。また、ナビゲーション装置3はCAN等の車載ネットワークを介して、前述したHUD4及びフロントカメラ11等が接続されている。   As shown in FIG. 2, the navigation device 3 according to the present embodiment includes a current position detection unit 12 that detects the current position of the vehicle 2 on which the navigation device 3 is mounted, and a data recording unit 13 that records various data. The navigation ECU 14 that performs various arithmetic processes based on the input information, the operation unit 15 that receives operations from the user, and the liquid crystal display 16 that displays facility information related to the map and facilities around the vehicle to the user. Communication for communicating with an information center such as a VICS (registered trademark: Vehicle Information and Communication System) center, and a speaker 17 that outputs voice guidance related to route guidance, a DVD drive 18 that reads a DVD as a storage medium, and the like. And a module 19. The navigation device 3 is connected to the HUD 4 and the front camera 11 described above via an in-vehicle network such as CAN.

以下に、ナビゲーション装置3が有する各構成要素について順に説明する。
現在位置検出部12は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU14に出力する。そして、ナビゲーションECU14は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置3が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置3が備える構成としても良い。
Below, each component which the navigation apparatus 3 has is demonstrated in order.
The current position detection unit 12 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like, and can detect the current vehicle position, direction, vehicle traveling speed, current time, and the like. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 14. And navigation ECU14 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. In addition, it is not necessary for the navigation device 3 to include all the four types of sensors, and the navigation device 3 may include only one or a plurality of types of sensors.

また、データ記録部13は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部13はハードディスクの代わりにフラッシュメモリやメモリーカードやCDやDVD等の光ディスクを有していても良い。また、地図情報DB31は外部のサーバに格納させ、ナビゲーション装置3が通信により取得する構成としても良い。   The data recording unit 13 is a driver for reading out an external storage device and a hard disk (not shown) as a recording medium, a map information DB 31 and a predetermined program recorded in the hard disk, and writing predetermined data in the hard disk And a recording head (not shown). The data recording unit 13 may include a flash memory, a memory card, an optical disk such as a CD or a DVD, instead of the hard disk. The map information DB 31 may be stored in an external server, and the navigation device 3 may be configured to acquire by communication.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ32、ノード点に関するノードデータ33、施設等の地点に関する地点データ34、各交差点に関する交差点データ、地図を表示するための地図表示データ、経路を探索するための探索データ、地点を検索するための検索データ等が記憶された記憶手段である。   Here, the map information DB 31 is, for example, link data 32 regarding roads (links), node data 33 regarding node points, point data 34 regarding points such as facilities, intersection data regarding each intersection, and map display data for displaying a map. The storage means stores search data for searching for routes, search data for searching for points, and the like.

ここで、リンクデータ32としては、例えば、該リンクを識別するリンクID、該リンクの端部に位置するノードを特定する端部ノード情報、該リンクが構成する道路の道路種別等が記憶される。また、ノードデータ33としては、該ノードを識別するノードID、該ノードの位置座標、該ノードがリンクを介して接続される接続先ノードを特定する接続先ノード情報等が記憶される。また、地点データ34としては、目的地への設定対象となる施設に関する各種情報が記憶される。例えば、施設を特定するID、施設名称、位置座標、ジャンル、住所等が記憶される。   Here, as the link data 32, for example, a link ID for identifying the link, end node information for specifying a node located at the end of the link, a road type of a road formed by the link, and the like are stored. . The node data 33 stores a node ID for identifying the node, position coordinates of the node, connection destination node information for specifying a connection destination node to which the node is connected through a link, and the like. Further, as the point data 34, various types of information related to the facility to be set as the destination are stored. For example, an ID for specifying a facility, a facility name, position coordinates, a genre, an address, and the like are stored.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)14は、ナビゲーション装置3の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の虚像生成処理プログラム(図4)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU14は、処理アルゴリズムとしての各種手段を有する。例えば、車両情報取得手段は、車両2の挙動を取得する。対象物情報取得手段は、虚像を重畳させる対象となる対象物の挙動を取得する。補正手段は、車両2の挙動と対象物の挙動とに基づいて、乗員9から視認される対象物の今後の位置の変位を予測するとともに、予測された位置の変位に基づいて虚像の表示位置を補正する。重畳状態取得手段は、対象物と虚像の重畳状態を取得する。補正切換手段は、対象物と虚像の重畳状態に基づいて補正手段による補正の実施の有無を切り替える。   On the other hand, the navigation ECU (Electronic Control Unit) 14 is an electronic control unit that controls the entire navigation device 3, and includes a CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. Read out from the ROM 43 and the ROM 43 in which the RAM 42 storing the route data when the route is searched, the control program, the virtual image generation processing program (FIG. 4) described later, and the like are recorded. An internal storage device such as a flash memory 44 for storing the program is provided. The navigation ECU 14 has various means as processing algorithms. For example, the vehicle information acquisition unit acquires the behavior of the vehicle 2. The target object information acquisition unit acquires the behavior of the target object on which the virtual image is superimposed. The correction means predicts the displacement of the future position of the object visually recognized by the occupant 9 based on the behavior of the vehicle 2 and the behavior of the object, and displays the virtual image based on the predicted displacement of the position. Correct. A superimposition state acquisition means acquires the superimposition state of a target object and a virtual image. The correction switching unit switches whether or not correction is performed by the correction unit based on the superimposed state of the object and the virtual image.

操作部15は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)を有する。そして、ナビゲーションECU14は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部15は液晶ディスプレイ16の前面に設けたタッチパネルを有していても良い。また、マイクと音声認識装置を有していても良い。   The operation unit 15 is operated when inputting a starting point as a travel start point and a destination as a travel end point, and has a plurality of operation switches (not shown) such as various keys and buttons. The navigation ECU 14 performs control to execute various corresponding operations based on switch signals output by pressing the switches. The operation unit 15 may have a touch panel provided on the front surface of the liquid crystal display 16. Moreover, you may have a microphone and a speech recognition apparatus.

また、液晶ディスプレイ16には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの案内経路、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。尚、本実施形態では情報の表示手段としてHUD4を備えているので、上記地図画像等の表示をHUD4で行う構成とすれば液晶ディスプレイ16は省略しても良い。   In addition, the liquid crystal display 16 includes a map image including a road, traffic information, operation guidance, operation menu, key guidance, guidance route from the departure point to the destination, guidance information along the guidance route, news, weather forecast, Time, mail, TV program, etc. are displayed. In this embodiment, since the HUD 4 is provided as information display means, the liquid crystal display 16 may be omitted if the map image or the like is displayed on the HUD 4.

また、スピーカ17は、ナビゲーションECU14からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。   In addition, the speaker 17 outputs voice guidance for guiding traveling along the guidance route based on an instruction from the navigation ECU 14 or traffic information guidance.

また、DVDドライブ18は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ18に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。   The DVD drive 18 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like. A card slot for reading / writing a memory card may be provided instead of the DVD drive 18.

また、通信モジュール19は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。   The communication module 19 is a communication device for receiving traffic information including information such as traffic jam information, regulation information, and traffic accident information transmitted from a traffic information center, for example, a VICS center or a probe center. For example, a mobile phone or DCM is applicable.

次に、上記虚像表示装置1が有するHUD4の概略構成について図3を用いて説明する。図3は、本実施形態に係るHUD4の内部構成を示した図である。   Next, a schematic configuration of the HUD 4 included in the virtual image display device 1 will be described with reference to FIG. FIG. 3 is a diagram showing an internal configuration of the HUD 4 according to the present embodiment.

図3に示すようにHUD4は、液晶ディスプレイ6と、凹面鏡7と、カバーガラス51と、制御回路部52と、CANインターフェース53とを基本的に有する。   As shown in FIG. 3, the HUD 4 basically includes a liquid crystal display 6, a concave mirror 7, a cover glass 51, a control circuit unit 52, and a CAN interface 53.

ここで、液晶ディスプレイ6は光源としてバックライトを用い、前面に設けられた映像表示面に対して映像を表示する機能を有する映像表示装置である。バックライトとしては、例えばCCFL(冷陰極管)や白色LEDが用いられる。尚、映像を表示する手段としては、液晶ディスプレイ以外に、有機ELディスプレイ、プロジェクタとスクリーンの組み合わせ等を用いても良い。プロジェクタとスクリーンの組み合わせを用いた場合には、スクリーンが映像の表示される液晶表示面に相当する。   Here, the liquid crystal display 6 is a video display device that uses a backlight as a light source and has a function of displaying video on a video display surface provided on the front surface. As the backlight, for example, a CCFL (cold cathode tube) or a white LED is used. In addition to the liquid crystal display, an organic EL display, a combination of a projector and a screen, or the like may be used as a means for displaying an image. When a combination of a projector and a screen is used, the screen corresponds to a liquid crystal display surface on which an image is displayed.

一方、凹面鏡7は、液晶ディスプレイ6に表示された映像を拡大して反射させて乗員9に視認させることによって、乗員9の前方に映像の虚像を生成する投影鏡である。尚、凹面鏡7としては、球面凹面鏡や、非球面凹面鏡、若しくは投影映像の歪みを補正するための自由曲面鏡が用いられる。尚、液晶ディスプレイ6に対して投射された映像は、凹面鏡7によって反射されるので、生成される虚像10は液晶ディスプレイ6に表示された映像と上下が反転した像となる。   On the other hand, the concave mirror 7 is a projection mirror that generates a virtual image of the image in front of the occupant 9 by enlarging and reflecting the image displayed on the liquid crystal display 6 and causing the occupant 9 to visually recognize the image. As the concave mirror 7, a spherical concave mirror, an aspheric concave mirror, or a free-form curved mirror for correcting distortion of a projected image is used. Since the image projected onto the liquid crystal display 6 is reflected by the concave mirror 7, the generated virtual image 10 is an image that is vertically inverted from the image displayed on the liquid crystal display 6.

また、カバーガラス51は、HUD4の上面に配置された透過性の板状部材である。そして、液晶ディスプレイ6に表示された映像は凹面鏡7によって反射され、カバーガラス51を介して乗員9に視認させる。尚、カバーガラス51としてはフレネルレンズを用いても良い。また、カバーガラス51としてフレネルレンズを用いる場合には、凹面鏡7の代わりに平面の鏡を用いることも可能である。   The cover glass 51 is a transmissive plate-like member disposed on the upper surface of the HUD 4. The image displayed on the liquid crystal display 6 is reflected by the concave mirror 7 and is visually recognized by the occupant 9 through the cover glass 51. As the cover glass 51, a Fresnel lens may be used. Further, when a Fresnel lens is used as the cover glass 51, a flat mirror can be used instead of the concave mirror 7.

また、制御回路部52は、HUD4の全体の制御を行う電子制御ユニットである。ここで、制御回路部52は、演算装置及び制御装置としてのCPU、並びにCPUが各種の演算処理を行うにあたってワーキングメモリとして使用されるRAM、制御用のプログラムのほか、虚像を生成する為の制御プログラム等が記録されたROM等の内部記憶装置を備えている。また、制御回路部52は、液晶ディスプレイ6と接続され、液晶ディスプレイ6の駆動制御を行う。   The control circuit unit 52 is an electronic control unit that controls the entire HUD 4. Here, the control circuit unit 52 includes a CPU as an arithmetic device and a control device, a RAM used as a working memory when the CPU performs various arithmetic processes, a control program, and a control for generating a virtual image. An internal storage device such as a ROM in which programs are recorded is provided. The control circuit unit 52 is connected to the liquid crystal display 6 and performs drive control of the liquid crystal display 6.

また、CAN(コントローラエリアネットワーク)インターフェース53は、車両内に設置された各種車載器や車両機器の制御装置間で多重通信を行う車載ネットワーク規格であるCANに対して、データの入出力を行うインターフェースである。そして、HUD4は、CANを介して、各種車載器や車両機器の制御装置(例えば、ナビゲーション装置3、AV装置等)と相互通信可能に接続される。それによって、HUD4は、ナビゲーション装置3やAV装置等から取得した情報を投影可能に構成する。   The CAN (controller area network) interface 53 is an interface for inputting / outputting data to / from CAN, which is a vehicle-mounted network standard that performs multiplex communication between various vehicle-mounted devices and control devices for vehicle equipment installed in the vehicle. It is. The HUD 4 is connected to various on-vehicle devices and vehicle equipment control devices (for example, the navigation device 3 and the AV device) via the CAN so as to communicate with each other. Accordingly, the HUD 4 is configured to be able to project information acquired from the navigation device 3 or the AV device.

続いて、前記構成を有する虚像表示装置1の内、特にナビゲーション装置3において実行する虚像生成処理プログラムについて図4に基づき説明する。図4は本実施形態に係る虚像生成処理プログラムのフローチャートである。ここで、虚像生成処理プログラムは車両のACC電源(accessory power supply)がONされた後に実行され、車両2の乗員9に視認させる虚像10を、HUD4を用いて生成するプログラムである。尚、以下の図4及び図8にフローチャートで示されるプログラムは、ナビゲーション装置3が備えているRAM42やROM43に記憶されており、CPU41により実行される。   Next, a virtual image generation processing program executed in the navigation device 3 in the virtual image display device 1 having the above configuration will be described with reference to FIG. FIG. 4 is a flowchart of the virtual image generation processing program according to this embodiment. Here, the virtual image generation processing program is a program that is executed after an ACC power supply (accessory power supply) of the vehicle is turned on, and generates a virtual image 10 that is visually recognized by the passenger 9 of the vehicle 2 using the HUD 4. 4 and 8 are stored in the RAM 42 and the ROM 43 provided in the navigation device 3 and executed by the CPU 41.

先ず、虚像生成処理プログラムではステップ(以下、Sと略記する)1において、CPU41は、車両の進行方向前方に車両の乗員に対して警告対象となる対象物(以下、警告対象物という)があるか否か判定する。ここで、警告対象物は車両に乗車する乗員が注視すべき物とし、例えば他車両、歩行者、2輪車とする。尚、標識や信号機等の乗員が注視すべき他の物についても警告対象物に含めても良い。   First, in step (hereinafter abbreviated as S) 1 in the virtual image generation processing program, the CPU 41 has a target object (hereinafter referred to as a warning target object) as a warning target for the vehicle occupant in front of the traveling direction of the vehicle. It is determined whether or not. Here, the warning object is an object to be watched by a passenger who rides the vehicle, for example, another vehicle, a pedestrian, or a two-wheeled vehicle. It should be noted that other objects that should be watched by the passenger, such as signs and traffic lights, may be included in the warning object.

また、車両の進行方向前方にある警告対象物の有無は、例えばフロントカメラ11により撮像した撮像画像に対してテンプレートマッチング等の画像処理を行うことによって検出しても良いし、ミリ波レーダ等のセンサを用いて検出しても良い。また、車車間通信や外部サーバとの通信によって取得しても良い。   The presence or absence of a warning object in front of the traveling direction of the vehicle may be detected, for example, by performing image processing such as template matching on the captured image captured by the front camera 11, You may detect using a sensor. Moreover, you may acquire by communication with a vehicle-to-vehicle communication or an external server.

そして、車両の進行方向前方に警告対象物があると判定された場合(S1:YES)には、S2へと移行する。それに対して、車両の進行方向前方に警告対象物がないと判定された場合(S1:NO)には、当該虚像生成処理プログラムを終了する。   And when it determines with there being a warning target object ahead of the advancing direction of a vehicle (S1: YES), it transfers to S2. On the other hand, when it is determined that there is no warning object ahead in the traveling direction of the vehicle (S1: NO), the virtual image generation processing program is terminated.

S2においてCPU41は、車両の進行方向前方にあると判定された警告対象物の具体的な位置を取得する。尚、警告対象物の位置は、例えばフロントカメラ11により撮像した撮像画像に対して画像処理を行うことによって取得しても良いし、ミリ波レーダ等のセンサを用いて取得しても良い。また、車車間通信や外部サーバとの通信によって取得しても良い。また、警告対象物の位置は絶対位置を取得しても良いし、乗員(自車両)に対する相対位置を取得しても良い。尚、警告対象物が複数ある場合には、複数の警告対象物の位置をそれぞれ取得する。   In S <b> 2, the CPU 41 acquires a specific position of the warning object that is determined to be ahead of the traveling direction of the vehicle. Note that the position of the warning object may be acquired by performing image processing on a captured image captured by the front camera 11, for example, or may be acquired using a sensor such as a millimeter wave radar. Moreover, you may acquire by communication with a vehicle-to-vehicle communication or an external server. Further, the position of the warning object may be an absolute position, or a relative position with respect to an occupant (own vehicle). In addition, when there are a plurality of warning objects, the positions of the plurality of warning objects are acquired.

例えば以下ではフロントカメラ11により撮像した撮像画像に対して画像処理を行うことによって警告対象物の位置を特定する方法について説明する。   For example, a method for specifying the position of a warning object by performing image processing on a captured image captured by the front camera 11 will be described below.

先ず、CPU41は警告対象物のテンプレート画像のデータを生成する。例えば警告対象物が歩行者である場合には歩行者のテンプレート画像のデータを生成し、警告対象物が他車両である場合には車両のテンプレート画像のデータを生成し、フラッシュメモリ44等に格納する。尚、テンプレート画像のデータの生成方法については既に公知(例えば特開2011−223242号公報参照)であるので詳細は省略する。   First, the CPU 41 generates template image data of a warning object. For example, when the warning object is a pedestrian, the template image data of the pedestrian is generated, and when the warning object is another vehicle, the template image data of the vehicle is generated and stored in the flash memory 44 or the like. To do. The template image data generation method is already known (see, for example, Japanese Patent Laid-Open No. 2011-223242).

そしてCPU41は、生成されたテンプレート画像を用いて、車両の進行方向前方にある警告対象物の位置をテンプレートマッチング処理により、当該虚像生成処理プログラムが終了するまで以後継続的に検出する。   Then, the CPU 41 uses the generated template image to continuously detect the position of the warning object ahead of the traveling direction of the vehicle by template matching processing until the virtual image generation processing program ends.

具体的には、先ずテンプレートマッチング処理を行うための比較対象画像として、フロントカメラ11の撮像画像に対してターゲット画像を設定する。テンプレート画像の面積とターゲット画像の面積とは同一とする。   Specifically, first, a target image is set for a captured image of the front camera 11 as a comparison target image for performing template matching processing. The area of the template image and the area of the target image are the same.

その後、CPU41は撮像画像内で警告対象物を探索する探索エリアを設定し、探索エリア内でターゲット画像を1画素ずつ或いは予め設定された所定画素ずつ移動させる一方で、移動後の各ターゲット画像とテンプレート画像との類似度を算出する。そして、CPU41は、探索エリア内で類似度が相対的に1番大きい条件を満たすターゲット画像の位置を警告対象物の移動先に特定する。具体的には、テンプレート画像とターゲット画像との各画素における差の和を算出し、差の和が小さいほど類似度が大きく、テンプレート画像とターゲット画像は類似していると判定する。   Thereafter, the CPU 41 sets a search area for searching for a warning object in the captured image and moves the target image one pixel at a time or a predetermined pixel set in advance in the search area. The similarity with the template image is calculated. And CPU41 specifies the position of the target image which satisfy | fills conditions with the relatively largest similarity in a search area as a movement destination of a warning target object. Specifically, the sum of differences in each pixel between the template image and the target image is calculated. The smaller the difference sum, the greater the degree of similarity, and it is determined that the template image and the target image are similar.

そして、CPU41は上記警告対象物の移動先の特定をフロントカメラ11で撮像した撮像画像の1フレーム毎に行うことによって、継続的に警告対象物の現在の位置を特定することが可能となる。   Then, the CPU 41 can continuously specify the current position of the warning object by specifying the movement destination of the warning object for each frame of the captured image captured by the front camera 11.

次に、S3においてCPU41は、HUD4に対して制御信号を送信し、HUD4の液晶ディスプレイ6に対して虚像10を生成する為の映像を出力する。例えば、本実施形態では警告対象物であることを示すアイコンの映像を出力する構成とする。尚、液晶ディスプレイ6における映像の表示位置は、映像に基づく虚像10を車両の乗員が視認した際に警告対象物と重複して虚像10が視認される位置とし、前記S2で取得された最新の警告対象物の位置に基づいて決定される。また、後述のように一定条件を満たした場合には、虚像10を警告対象物に重畳させる為の表示位置の補正処理についても行われる(S6)。   Next, in S <b> 3, the CPU 41 transmits a control signal to the HUD 4 and outputs an image for generating the virtual image 10 to the liquid crystal display 6 of the HUD 4. For example, in this embodiment, it is set as the structure which outputs the image | video of the icon which shows that it is a warning target object. The display position of the image on the liquid crystal display 6 is a position where the virtual image 10 based on the image is visually recognized by the vehicle occupant when the vehicle occupant visually recognizes the virtual image 10, and the latest image acquired in S2. It is determined based on the position of the warning object. In addition, when a certain condition is satisfied as will be described later, a display position correction process for superimposing the virtual image 10 on the warning object is also performed (S6).

そして、前記S3において映像を出力することによって、図6に示すように車両の進行方向前方にある警告対象物61に重畳する虚像10が、車両の乗員から虚像生成距離L(例えば25m)離れた位置に視認されることとなる。その結果、乗員の視線を虚像10によって警告対象物61へと誘導し、警告対象物61をユーザに確実に視認させることが可能となる。尚、本実施形態では虚像生成距離Lは固定値とするが、例えば液晶ディスプレイ6を移動させることによって虚像生成距離Lを任意に変更可能にすることも可能である。また、虚像10の表示は、基本的に警告対象物がその後に車両の前方から消失するまで行われる。   Then, by outputting the image in S3, the virtual image 10 superimposed on the warning object 61 in the forward direction of the vehicle as shown in FIG. 6 is separated from the vehicle occupant by the virtual image generation distance L (for example, 25 m). It will be visually recognized at the position. As a result, the line of sight of the occupant can be guided to the warning object 61 by the virtual image 10, and the warning object 61 can be surely visually recognized by the user. In this embodiment, the virtual image generation distance L is a fixed value. However, the virtual image generation distance L can be arbitrarily changed by moving the liquid crystal display 6, for example. Moreover, the display of the virtual image 10 is basically performed until the warning object disappears from the front of the vehicle thereafter.

また、警告対象物が複数ある場合には、基本的に乗員(自車両)に最も近い警告対象物のみを対象として虚像10が表示される。但し、複数の警告対象物のそれぞれに重畳して虚像10を表示しても良い。また、警告対象物の種類に基づいて虚像10を重畳させる警告対象物を選択しても良い。例えば、警告対象物として歩行者を含む場合には、歩行者を優先的に選択して虚像10を重畳させることが可能である。   Further, when there are a plurality of warning objects, the virtual image 10 is basically displayed only for the warning object closest to the passenger (own vehicle). However, the virtual image 10 may be displayed superimposed on each of the plurality of warning objects. Moreover, you may select the warning target object on which the virtual image 10 is superimposed based on the kind of warning target object. For example, when a pedestrian is included as a warning object, it is possible to preferentially select a pedestrian and superimpose the virtual image 10 thereon.

次に、S4においてCPU41は、後述の補正実施判定処理(図8)を実行する。尚、補正実施判定処理は、後述のように警告対象物の今後の位置予測に基づく虚像の表示位置の補正処理を実施するか否かを判定する為の処理である。   Next, in S4, the CPU 41 executes a correction execution determination process (FIG. 8) described later. Note that the correction execution determination process is a process for determining whether or not to execute a correction process of the display position of the virtual image based on the future position prediction of the warning object as described later.

続いて、S5においてCPU41は、前記S4の処理結果に基づいて虚像の表示位置の補正処理を実施するか否かを判定する。   Subsequently, in S5, the CPU 41 determines whether or not to execute the correction processing of the display position of the virtual image based on the processing result of S4.

そして、虚像の表示位置の補正処理を実施すると判定された場合(S5:YES)には、S6へと移行する。それに対して、虚像の表示位置の補正処理を実施しないと判定された場合(S5:NO)には、S7へと移行する。   And when it determines with implementing the correction process of the display position of a virtual image (S5: YES), it transfers to S6. On the other hand, if it is determined not to perform the virtual image display position correction process (S5: NO), the process proceeds to S7.

S6においてCPU41は、警告対象物の今後の位置予測に基づく虚像の表示位置の補正処理を開始する。尚、開始された補正処理は後述のS7において補正処理の機能がオフされるまで継続して実施される。   In S <b> 6, the CPU 41 starts a process for correcting the display position of the virtual image based on the future position prediction of the warning object. Note that the started correction process is continued until the function of the correction process is turned off in S7 described later.

ここで、前記S6で実施される虚像の表示位置の補正処理について以下に説明する。
先ずCPU41は、乗員が乗車する自車両の挙動と虚像の重畳対象となる警告対象物の挙動とを取得する。尚、挙動としては特に移動速度と移動方向を取得し、自車両の移動速度や移動方向については車速センサ22やジャイロセンサ24等の各種センサを用いて取得する。一方、警告対象物の挙動については、上述したS2のテンプレートマッチング処理により現フレームにおいて特定した警告対象物の位置と、前フレームにおいて特定した警告対象物の位置とを比較して取得する。尚、ミリ波レーダ等のセンサを用いて取得しても良い。
Here, the virtual image display position correction processing performed in S6 will be described below.
First, the CPU 41 obtains the behavior of the host vehicle on which the occupant gets and the behavior of the warning object that is the object of superimposition of the virtual image. In particular, the movement speed and the movement direction are acquired as the behavior, and the movement speed and the movement direction of the own vehicle are acquired using various sensors such as the vehicle speed sensor 22 and the gyro sensor 24. On the other hand, the behavior of the warning object is acquired by comparing the position of the warning object specified in the current frame by the template matching process in S2 described above and the position of the warning object specified in the previous frame. In addition, you may acquire using sensors, such as a millimeter wave radar.

続いてCPU41は、乗員が乗車する自車両の挙動と虚像の重畳対象となる警告対象物の挙動とに基づいて、乗員から視認される警告対象物の今後の位置の変位を予測する。具体的には、先ずCPU41は乗員から視認される警告対象物の移動方向と移動速度を示すベクトル(以下、移動ベクトルという)を算出する。   Subsequently, the CPU 41 predicts a future displacement of the warning object visually recognized by the occupant based on the behavior of the host vehicle on which the occupant gets on and the behavior of the warning object on which the virtual image is superimposed. Specifically, first, the CPU 41 calculates a vector (hereinafter referred to as a movement vector) indicating the moving direction and moving speed of the warning object visually recognized by the occupant.

そしてCPU41は、算出した移動ベクトルから警告対象物の移動先を予測する。例えば、図6に示すように乗員から視認される警告対象物61が領域Gに位置する場合であって移動ベクトル62が特定できた場合には、警告対象物61は今後に領域Gから領域H、領域Iへと移動していくことが予測できる。そこで、CPU41は、領域Gの明るさの変化量を示すAE評価値と領域HのAE評価値との差分値を算出する。   Then, the CPU 41 predicts the destination of the warning object from the calculated movement vector. For example, as shown in FIG. 6, when the warning object 61 visually recognized by the occupant is located in the region G and the movement vector 62 can be specified, the warning object 61 will be moved from the region G to the region H in the future. , It can be predicted to move to region I. Therefore, the CPU 41 calculates a difference value between the AE evaluation value indicating the amount of change in brightness of the region G and the AE evaluation value of the region H.

その後、CPU41は、AE評価値の差分値に基づいてテンプレート画像の輝度レベルを補正する。そして、CPU41は、次フレームにおいて補正後のテンプレート画像を用いてテンプレートマッチング処理を行う。その結果、移動先として予測される方向のターゲット画像の輝度成分の変化に追随して、テンプレート画像の輝度成分を補正するので、テンプレートマッチング処理において警告対象物の検出精度を高めることができる。   Thereafter, the CPU 41 corrects the brightness level of the template image based on the difference value of the AE evaluation values. Then, the CPU 41 performs template matching processing using the corrected template image in the next frame. As a result, the luminance component of the template image is corrected following the change in the luminance component of the target image in the direction predicted as the destination, so that the detection accuracy of the warning object can be increased in the template matching process.

なお、前記S6では警告対象物の移動ベクトルに基づいて探索エリアを狭める処理を行っても良い。その場合には、移動ベクトルに基づいて警告対象物の移動先を推定し、探索エリアを狭めることができる。   In S6, the search area may be narrowed based on the movement vector of the warning object. In that case, the destination of the warning object can be estimated based on the movement vector, and the search area can be narrowed.

前記S6の虚像の表示位置の補正処理を行うことによって、図7に示すように乗員から視認した警告対象物61の位置が変位した場合であっても、警告対象物61の今後の位置予測に基づく虚像10の表示位置の補正が行われるので、虚像10の位置が警告対象物61の位置から大きくズレることなく、警告対象物61にできる限り重畳させた状態で虚像10を乗員に視認させることが可能となる。   By performing the correction process of the display position of the virtual image in S6, even if the position of the warning object 61 visually recognized by the occupant is displaced as shown in FIG. Since the display position of the virtual image 10 based on the correction is performed, the occupant can visually recognize the virtual image 10 while being superimposed on the warning object 61 as much as possible without causing the position of the virtual image 10 to greatly deviate from the position of the warning object 61. Is possible.

一方、S7においてCPU41は、前記S6で開始された警告対象物の今後の位置予測に基づく虚像の表示位置の補正処理を終了する。虚像の表示位置の補正処理を行わないと、乗員から視認した警告対象物61の位置が変位した場合に虚像10の位置と警告対象物61の位置との間にズレを生じさせる虞はあるが、一方で虚像の表示位置のチャタリング(ブレ、ガタつき、揺れ等)の発生は防止できる。その後、S1へと戻る。   On the other hand, in S7, the CPU 41 ends the correction processing of the virtual image display position based on the future position prediction of the warning object started in S6. If the correction processing of the display position of the virtual image is not performed, there is a possibility that a deviation occurs between the position of the virtual image 10 and the position of the warning object 61 when the position of the warning object 61 viewed from the passenger is displaced. On the other hand, chattering (blurring, rattling, shaking, etc.) of the display position of the virtual image can be prevented. Thereafter, the process returns to S1.

次に、前記S4において実行される補正実施判定処理のサブ処理について図8に基づき説明する。図8は補正実施判定処理のサブ処理プログラムのフローチャートである。   Next, a sub-process of the correction execution determination process executed in S4 will be described with reference to FIG. FIG. 8 is a flowchart of a sub process program of the correction execution determination process.

先ず、S11においてCPU41は、前記S2において特定された警告対象物の位置を読み出す。尚、警告対象物が複数ある場合には各警告対象物の位置について読み出す。   First, in S11, the CPU 41 reads the position of the warning object specified in S2. If there are a plurality of warning objects, the position of each warning object is read out.

次に、S12においてCPU41は、虚像10の重畳対象となる警告対象物の周囲(例えば5m以内)に他の警告対象物があるか否かを判定する。尚、本実施形態では、警告対象物が複数ある場合には基本的に乗員(自車両)に最も近い警告対象物のみを対象として虚像10が表示される。従って、乗員(自車両)に最も近い警告対象物以外の警告対象物が他の警告対象物となる。   Next, in S <b> 12, the CPU 41 determines whether there is another warning object around (for example, within 5 m) around the warning object to be superimposed on the virtual image 10. In the present embodiment, when there are a plurality of warning objects, the virtual image 10 is basically displayed only for the warning object closest to the occupant (own vehicle). Therefore, the warning object other than the warning object closest to the occupant (own vehicle) is another warning object.

そして、虚像10の重畳対象となる警告対象物の周囲に他の警告対象物があると判定された場合(S12:YES)には、S13へと移行する。それに対して、虚像10の重畳対象となる警告対象物の周囲に他の警告対象物が無いと判定された場合(S12:NO)には、S16へと移行する。   When it is determined that there is another warning object around the warning object to be superimposed with the virtual image 10 (S12: YES), the process proceeds to S13. On the other hand, if it is determined that there is no other warning object around the warning object to be superimposed with the virtual image 10 (S12: NO), the process proceeds to S16.

S13においてCPU41は、虚像10の重畳対象となる警告対象物と虚像10との重畳状態を取得し、虚像10の全体の内、警告対象物に対して重畳する割合が50%以上か否かを判定する。尚、警告対象物と虚像10との重畳状態(より具体的には虚像10の全体の内、警告対象物に対して重畳する割合)は、前記S2で特定した警告対象物の現在位置、該警告対象物の形状、液晶ディスプレイ6に対する映像の表示位置に基づいて算出される。また、前記S13の判定基準となる閾値は適宜変更することが可能であり、例えば40%や60%としても良い。但し、判定基準の閾値は後述のS16よりは高く設定する。   In S <b> 13, the CPU 41 obtains a superimposition state of the warning object and the virtual image 10 to be superimposed on the virtual image 10, and determines whether or not a ratio of superimposing the warning object on the entire virtual image 10 is 50% or more. judge. Note that the superposition state of the warning object and the virtual image 10 (more specifically, the ratio of superposition of the entire virtual image 10 with respect to the warning object) is the current position of the warning object specified in S2. It is calculated based on the shape of the warning object and the display position of the image on the liquid crystal display 6. Further, the threshold value serving as the determination criterion in S13 can be changed as appropriate, and may be 40% or 60%, for example. However, the threshold value of the criterion is set higher than S16 described later.

そして、虚像10の全体の内、警告対象物に対して重畳する割合が50%以上であると判定された場合(S13:YES)には、虚像10の表示位置の補正処理は行わないと判定する(S14)。それに対して、虚像10の全体の内、警告対象物に対して重畳する割合が50%未満(重畳していない場合も含む)と判定された場合(S13:NO)には、虚像10の表示位置の補正処理を行うと判定する(S15)。その後、S5へと移行し、前記S14又はS15の判定結果に基づいて虚像10の表示位置の補正処理の実施の有無を切り替える。   And when it determines with the ratio which overlaps with respect to a warning target object among the whole virtual images 10 being 50% or more (S13: YES), it determines with not correcting the display position of the virtual image 10 (S14). On the other hand, when it is determined that the ratio of superimposing the warning object on the entire virtual image 10 is less than 50% (including the case where it is not superimposed) (S13: NO), the virtual image 10 is displayed. It is determined that position correction processing is to be performed (S15). Thereafter, the process proceeds to S5, and whether or not the display position correction process of the virtual image 10 is performed is switched based on the determination result of S14 or S15.

ここで、図9に示すように虚像10の重畳対象となる警告対象物61の周囲に他の警告対象物65が存在する場合であっても、警告対象物61と虚像10の重畳度合いが高い場合(具体的には虚像10の全体の内、警告対象物に対して重畳する割合が50%以上)については、現時点において虚像10によって警告対象となるのが警告対象物65でなく警告対象物61であることを乗員9は明確に把握することが可能となる。従って、そのような場合については、虚像の表示位置の補正処理を実施しないことにより虚像の表示位置のチャタリングの発生について防止することが可能となる。   Here, as shown in FIG. 9, even when another warning target object 65 exists around the warning target object 61 to be superimposed with the virtual image 10, the degree of superimposition of the warning target object 61 and the virtual image 10 is high. In the case (specifically, the ratio of overlapping with the warning object in the entire virtual image 10 is 50% or more), the warning object is not the warning object 65 but the warning object 65 by the virtual image 10 at the present time. The occupant 9 can clearly grasp that it is 61. Therefore, in such a case, it is possible to prevent the occurrence of chattering of the display position of the virtual image by not performing the correction process of the display position of the virtual image.

一方で、図10に示すように虚像10の重畳対象となる警告対象物61の周囲に他の警告対象物65が存在する場合であって、警告対象物61と虚像10の重畳度合いが低い場合(具体的には虚像10の全体の内、警告対象物に対して重畳する割合が50%未満)については、虚像10によって警告対象となるのが警告対象物61であるか警告対象物65であるかを乗員9が明確に把握できない虞がある。従って、そのような場合については、虚像の表示位置の補正処理を実施することによって虚像10の表示位置を警告対象物61に重畳させることを優先する。   On the other hand, as shown in FIG. 10, when another warning object 65 exists around the warning object 61 to be superimposed with the virtual image 10 and the degree of superimposition of the warning object 61 and the virtual image 10 is low. (Specifically, in the entire virtual image 10, the ratio of overlapping with the warning object is less than 50%), the warning object 61 or the warning object 65 is the warning object by the virtual image 10. There is a possibility that the occupant 9 cannot clearly grasp whether there is any. Therefore, in such a case, priority is given to superimposing the display position of the virtual image 10 on the warning object 61 by performing the correction process of the display position of the virtual image.

また、S16においてCPU41は、虚像10の重畳対象となる警告対象物と虚像10との重畳状態を取得し、虚像10の少なくとも一部が、警告対象物に対して重畳するか否か(即ち虚像10の全体の内、警告対象物に対して重畳する割合が0%より大きいか否か)を判定する。尚、警告対象物と虚像10との重畳状態は、前記S13と同様に前記S2で特定した警告対象物の現在位置、該警告対象物の形状、液晶ディスプレイ6に対する映像の表示位置に基づいて算出される。尚、前記S16では虚像10の全体の内、警告対象物に対して重畳する割合が所定割合以上か否かを判定しても良い。但し、所定割合は前記S13よりも低い値とする。   In S <b> 16, the CPU 41 acquires the superimposition state of the warning object to be superimposed on the virtual image 10 and the virtual image 10, and determines whether at least a part of the virtual image 10 is superimposed on the warning object (that is, the virtual image). 10), it is determined whether or not the ratio of overlapping with the warning object is larger than 0%. The superimposed state of the warning object and the virtual image 10 is calculated based on the current position of the warning object specified in S2, the shape of the warning object, and the display position of the image on the liquid crystal display 6 as in S13. Is done. In S16, it may be determined whether or not the ratio of superimposing on the warning object in the entire virtual image 10 is a predetermined ratio or more. However, the predetermined ratio is lower than S13.

そして、虚像10の少なくとも一部が、警告対象物に対して重畳すると判定された場合(S16:YES)には、虚像10の表示位置の補正処理は行わないと判定する(S17)。それに対して、虚像10が警告対象物に対して重畳していないと判定された場合(S16:NO)には、虚像10の表示位置の補正処理を行うと判定する(S18)。その後、S5へと移行し、前記S17又はS18の判定結果に基づいて虚像10の表示位置の補正処理の実施の有無を切り替える。   And when it determines with at least one part of the virtual image 10 superimposing with respect to a warning target object (S16: YES), it determines with not correcting the display position of the virtual image 10 (S17). On the other hand, when it is determined that the virtual image 10 is not superimposed on the warning object (S16: NO), it is determined that the display position correction process of the virtual image 10 is performed (S18). Thereafter, the process proceeds to S5, and whether or not to perform the correction process of the display position of the virtual image 10 is switched based on the determination result of S17 or S18.

ここで、図11に示すように虚像10の重畳対象となる警告対象物61の周囲に他の警告対象物が存在しない場合には、警告対象物61と虚像10の重畳度合いが低くても僅かでも重複していれば、虚像10によって警告対象となるのが警告対象物61であることを乗員9は把握することが可能となる。従って、そのような場合については、虚像の表示位置の補正処理を実施しないことにより虚像の表示位置のチャタリングの発生について防止することが可能となる。   Here, as shown in FIG. 11, when there is no other warning object around the warning object 61 to be superimposed with the virtual image 10, even if the degree of superimposition of the warning object 61 and the virtual image 10 is low, However, if they overlap, the occupant 9 can grasp that the warning object 61 is the warning object by the virtual image 10. Therefore, in such a case, it is possible to prevent the occurrence of chattering of the display position of the virtual image by not performing the correction process of the display position of the virtual image.

一方で、図12に示すように虚像10の重畳対象となる警告対象物61の周囲に他の警告対象物が存在しない場合であっても、警告対象物61と虚像10が重複していない場合については、虚像10によって警告対象となるのが警告対象物61であるかを乗員9が明確に把握できない虞がある。従って、そのような場合については、虚像の表示位置の補正処理を実施することによって虚像10の表示位置を警告対象物61に重畳させることを優先する。   On the other hand, as shown in FIG. 12, even when there is no other warning object around the warning object 61 to be superimposed with the virtual image 10, the warning object 61 and the virtual image 10 do not overlap. , There is a possibility that the occupant 9 cannot clearly grasp whether the warning object 61 is the warning target by the virtual image 10. Therefore, in such a case, priority is given to superimposing the display position of the virtual image 10 on the warning object 61 by performing the correction process of the display position of the virtual image.

以上詳細に説明した通り、本実施形態に係る虚像表示装置1、虚像表示装置1で実行されるコンピュータプログラムでは、虚像10を乗員9の視線前方にある警告対象物61に重畳させて視認させるとともに、乗員9が乗車する車両の挙動と警告対象物の挙動とに基づいて、乗員9から視認される警告対象物61の今後の位置の変位を予測し、予測された位置の変位に基づいて虚像10の表示位置を補正する(S6)。また、警告対象物61と虚像10の重畳状態を取得し(S13、S16)、警告対象物61と虚像10の重畳状態に基づいて補正の実施の有無を切り替える(S14、S15、S17、S18)ので、虚像10の表示位置の補正を行うことによって虚像10を警告対象物に適切に重畳させて車両の乗員に視認させることが可能となる一方で、警告対象物と虚像10の重畳状態に基づいて補正の実施の有無を切り替えることにより、補正の実施を必要最低限に抑え、虚像10の表示位置のチャタリングの発生についてできる限り減少させることが可能となる。   As described above in detail, in the virtual image display device 1 and the computer program executed by the virtual image display device 1 according to the present embodiment, the virtual image 10 is superimposed on the warning object 61 in front of the line of sight of the occupant 9 and visually recognized. Based on the behavior of the vehicle on which the occupant 9 rides and the behavior of the warning object, the future position displacement of the warning object 61 visually recognized by the occupant 9 is predicted, and the virtual image is based on the predicted position displacement. 10 display position is corrected (S6). Further, the superimposition state of the warning object 61 and the virtual image 10 is acquired (S13, S16), and whether or not correction is performed is switched based on the superposition state of the warning object 61 and the virtual image 10 (S14, S15, S17, S18). Therefore, by correcting the display position of the virtual image 10, the virtual image 10 can be appropriately superimposed on the warning target object and can be visually recognized by the vehicle occupant, while being based on the superimposed state of the warning target object and the virtual image 10. By switching the presence / absence of the correction, the correction can be suppressed to the minimum necessary and the occurrence of chattering of the display position of the virtual image 10 can be reduced as much as possible.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態ではHUD4によって車両2のフロントウィンドウ8の前方に虚像を生成する構成としているが、フロントウィンドウ8以外のウィンドウの前方に虚像を生成する構成としても良い。また、HUD4により映像を反射させる対象はフロントウィンドウ8自身ではなくフロントウィンドウ8の周辺に設置されたバイザー(コンバイナー)であっても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in the present embodiment, the virtual image is generated in front of the front window 8 of the vehicle 2 by the HUD 4, but the virtual image may be generated in front of a window other than the front window 8. In addition, the object to be reflected by the HUD 4 may be a visor (combiner) installed around the front window 8 instead of the front window 8 itself.

また、本実施形態では、車両2に対して虚像表示装置1を設置する構成としているが、車両2以外の移動体に設置する構成としても良い。例えば、船舶や航空機等に対して設置することも可能である。また、アミューズメント施設に設置されるライド型アトラクションに設置しても良い。その場合には、ライドの周囲に虚像を生成し、ライドの乗員に対して虚像を視認させることが可能となる。   In the present embodiment, the virtual image display device 1 is installed on the vehicle 2. However, the virtual image display device 1 may be installed on a moving body other than the vehicle 2. For example, it can be installed on a ship or an aircraft. Moreover, you may install in the ride type attraction installed in an amusement facility. In that case, a virtual image can be generated around the ride so that the rider can visually recognize the virtual image.

また、本実施形態では、周辺環境に重畳させて乗員9に視認させることにより案内を行う虚像10として、警告対象物の警告を行うアイコンの虚像を表示しているが、表示する虚像は他の虚像としても良い。例えば、矢印の虚像、案内標識、地図画像、交通情報、ニュース、天気予報、時刻、接続されたスマートフォンの画面、テレビ画面等でも良い。   Moreover, in this embodiment, the virtual image of the icon that warns the warning object is displayed as the virtual image 10 that is guided by being superposed on the surrounding environment and visually recognized by the occupant 9. It may be a virtual image. For example, a virtual image of an arrow, a guide sign, a map image, traffic information, news, weather forecast, time, a connected smartphone screen, a television screen, and the like may be used.

また、本実施形態では、乗員に警告対象となる警告対象物に対して虚像を重畳させることとしているが、虚像を重畳する対象となる対象物は警告対象物以外であっても良い。例えば、路面、施設等でも良い。   In the present embodiment, the virtual image is superimposed on the warning object that is the warning target for the occupant, but the target object on which the virtual image is superimposed may be other than the warning target object. For example, a road surface or a facility may be used.

また、本実施形態では、警告対象物の周囲に他の警告対象物がある場合には、他の警告対象物がない場合よりも重畳度合いの判定の閾値が高く設定されているが、他の警告対象物以外の対象物(例えば路面、施設)等が警告対象物の周囲にある場合においても重畳度合いの判定の閾値を高く設定しても良い。   In the present embodiment, when there are other warning objects around the warning object, the threshold value for determining the degree of superimposition is set higher than when there is no other warning object. Even when an object other than the warning object (for example, a road surface or a facility) is around the warning object, the threshold value for determining the degree of superimposition may be set high.

また、本実施形態では、S4の補正実施判定処理において警告対象物と虚像の重畳状態(重畳度合い)を示すパラメータとして、特に虚像の全体の内、警告対象物に対して重畳する割合を算出しているが、警告対象物と虚像の重畳状態を示すパラメータであれば他のパラメータを算出しても良い。例えば、警告対象物の全体の内、虚像に対して重畳する割合を算出しても良い。また、警告対象物と虚像が連続して重畳している時間を算出しても良い。   In the present embodiment, as a parameter indicating the superimposition state (superimposition degree) of the warning object and the virtual image in the correction execution determination process in S4, a ratio of superimposing the warning object on the entire virtual image is calculated. However, other parameters may be calculated as long as the parameters indicate the superimposed state of the warning object and the virtual image. For example, you may calculate the ratio which overlaps with respect to a virtual image among the warning object whole. Further, the time during which the warning object and the virtual image are continuously superimposed may be calculated.

また、本実施形態では、虚像生成処理プログラム(図4)の処理をナビゲーション装置3のナビゲーションECU14が実行する構成としているが、実行主体は適宜変更することが可能である。例えば、HUD4の制御部、車両制御ECU20、その他の車載器が実行する構成としても良い。尚、HUD4の制御部が実行する場合には、本発明に係る虚像表示装置はHUD4のみで構成することも可能である。   Further, in the present embodiment, the processing of the virtual image generation processing program (FIG. 4) is configured to be executed by the navigation ECU 14 of the navigation device 3, but the execution subject can be changed as appropriate. For example, it is good also as a structure which the control part of HUD4, vehicle control ECU20, and another vehicle equipment perform. In addition, when the control part of HUD4 performs, the virtual image display apparatus which concerns on this invention can also be comprised only with HUD4.

また、本発明に係る虚像表示装置を具体化した実施例について上記に説明したが、虚像表示装置は以下の構成を有することも可能であり、その場合には以下の効果を奏する。   Moreover, although the embodiment which actualized the virtual image display device according to the present invention has been described above, the virtual image display device can also have the following configuration, and in that case, the following effects can be obtained.

例えば、第1の構成は以下のとおりである。
車両(2)に搭載され、映像表示面(5)に表示された映像を車両の乗員(9)に視認させることによって、前記映像の虚像(10)を前記乗員の視線前方にある対象物(61)に重畳させて視認させる虚像表示装置(1)であって、前記車両の挙動を取得する車両情報取得手段(41)と、前記対象物の挙動を取得する対象物情報取得手段(41)と、前記車両の挙動と前記対象物の挙動とに基づいて、前記乗員から視認される前記対象物の今後の位置の変位を予測するとともに、予測された位置の変位に基づいて虚像の表示位置を補正する補正手段(41)と、前記対象物と前記虚像の重畳状態を取得する重畳状態取得手段(41)と、前記対象物と前記虚像の重畳状態に基づいて前記補正手段による補正の実施の有無を切り替える補正切換手段(41)と、を有する。
上記構成を有する虚像表示装置によれば、虚像の表示位置の補正を行うことによって虚像を対象物に適切に重畳させて車両の乗員に視認させることが可能となる一方で、対象物と虚像の重畳状態に基づいて補正の実施の有無を切り替えることにより、補正の実施を必要最低限に抑え、虚像の表示位置のチャタリングの発生についてできる限り減少させることが可能となる。
For example, the first configuration is as follows.
By making the vehicle occupant (9) visually recognize the image mounted on the vehicle (2) and displayed on the image display surface (5), the virtual image (10) of the image is located in front of the occupant's line of sight ( 61) a virtual image display device (1) to be superimposed and visually recognized, vehicle information acquisition means (41) for acquiring the behavior of the vehicle, and object information acquisition means (41) for acquiring the behavior of the object. And, based on the behavior of the vehicle and the behavior of the object, predict the displacement of the future position of the object visually recognized by the occupant, and display the virtual image based on the predicted displacement of the position Correction means (41) for correcting the image, superimposition state acquisition means (41) for acquiring a superposition state of the object and the virtual image, and correction by the correction means based on the superposition state of the target object and the virtual image Correction to switch on / off Having a switch means (41), the.
According to the virtual image display device having the above configuration, by correcting the display position of the virtual image, it is possible to appropriately superimpose the virtual image on the object and allow the vehicle occupant to visually recognize the object. By switching whether or not the correction is performed based on the superimposition state, it is possible to suppress the correction to the minimum necessary and to reduce the occurrence of chattering of the display position of the virtual image as much as possible.

また、第2の構成は以下のとおりである。
前記対象物(61)と前記虚像(10)の重畳の度合いが閾値未満の場合に前記補正手段(41)による補正を実施する一方で、前記対象物と前記虚像の重畳の度合いが閾値以上の場合に前記補正手段による補正を実施しない。
上記構成を有する虚像表示装置によれば、虚像と対象物との対応関係が明確であり、特に補正の実施が必須でない状況では補正の実施を行わないことにより、虚像の表示位置のチャタリングの発生についてできる限り減少させることが可能となる。
The second configuration is as follows.
When the degree of superimposition of the object (61) and the virtual image (10) is less than a threshold value, the correction unit (41) performs correction, while the degree of superimposition of the object and the virtual image is equal to or greater than the threshold value. In such a case, the correction by the correction means is not performed.
According to the virtual image display device having the above-described configuration, the correspondence between the virtual image and the object is clear, and chattering of the display position of the virtual image occurs by not performing the correction particularly in a situation where the correction is not essential. Can be reduced as much as possible.

また、第3の構成は以下のとおりである。
前記対象物(61)の周囲に前記虚像(10)の重畳対象となる他の対象物(65)がある場合には、前記対象物の周囲に前記他の対象物がない場合よりも前記閾値を高く設定する。
上記構成を有する虚像表示装置によれば、虚像と対象物との対応関係が分かり難い状況では、補正をできる限り実施することにより、虚像と対象物との対応関係が乗員によって誤認されることを防止することが可能となる。
The third configuration is as follows.
When there is another object (65) to be superimposed on the virtual image (10) around the object (61), the threshold value is greater than when there is no other object around the object. Set high.
According to the virtual image display device having the above configuration, in a situation where the correspondence between the virtual image and the object is difficult to understand, the correspondence between the virtual image and the object is misunderstood by the occupant by performing correction as much as possible. It becomes possible to prevent.

また、第4の構成は以下のとおりである。
前記対象物(61)と前記虚像(10)が重畳していない場合に前記補正手段(41)による補正を実施する一方で、前記対象物と前記虚像の少なくとも一部が重畳している場合に前記補正手段による補正を実施しない。
上記構成を有する虚像表示装置によれば、虚像と対象物との対応関係が明確であり、特に補正の実施が必須でない状況では補正の実施を行わないことにより、虚像の表示位置のチャタリングの発生についてできる限り減少させることが可能となる。
The fourth configuration is as follows.
When correction by the correction means (41) is performed when the object (61) and the virtual image (10) are not superimposed, while at least a part of the object and the virtual image is superimposed Correction by the correction means is not performed.
According to the virtual image display device having the above-described configuration, the correspondence between the virtual image and the object is clear, and chattering of the display position of the virtual image occurs by not performing the correction particularly in a situation where the correction is not essential. Can be reduced as much as possible.

また、第5の構成は以下のとおりである。
前記虚像(10)の全体の内、前記対象物(61)に対して重畳する割合が所定割合未満の場合に前記補正手段(41)による補正を実施する一方で、所定割合以上の場合に前記補正手段による補正を実施しない。
上記構成を有する虚像表示装置によれば、虚像と対象物との対応関係が明確であり、特に補正の実施が必須でない状況では補正の実施を行わないことにより、虚像の表示位置のチャタリングの発生についてできる限り減少させることが可能となる。
The fifth configuration is as follows.
The correction means (41) performs the correction when the ratio of the virtual image (10) to be superimposed on the object (61) is less than a predetermined ratio, while when the ratio is greater than or equal to the predetermined ratio, No correction is performed by the correction means.
According to the virtual image display device having the above-described configuration, the correspondence between the virtual image and the object is clear, and chattering of the display position of the virtual image occurs by not performing the correction particularly in a situation where the correction is not essential. Can be reduced as much as possible.

1 虚像表示装置
2 車両
3 ナビゲーション装置
4 HUD
6 液晶ディスプレイ
8 フロントウィンドウ
10 虚像
14 ナビゲーションECU
41 CPU
42 RAM
43 ROM
61 警告対象物
65 他の警告対象物
DESCRIPTION OF SYMBOLS 1 Virtual image display apparatus 2 Vehicle 3 Navigation apparatus 4 HUD
6 Liquid crystal display 8 Front window 10 Virtual image 14 Navigation ECU
41 CPU
42 RAM
43 ROM
61 Warning object 65 Other warning object

Claims (6)

車両に搭載され、映像表示面に表示された映像を前記車両の乗員に視認させることによって、前記映像の虚像を前記乗員の視線前方にある対象物に重畳させて視認させる虚像表示装置であって、
前記車両の挙動を取得する車両情報取得手段と、
前記対象物の挙動を取得する対象物情報取得手段と、
前記車両の挙動と前記対象物の挙動とに基づいて、前記乗員から視認される前記対象物の今後の位置の変位を予測するとともに、予測された位置の変位に基づいて虚像の表示位置を補正する補正手段と、
前記対象物と前記虚像の重畳状態を取得する重畳状態取得手段と、
前記対象物と前記虚像の重畳状態に基づいて前記補正手段による補正の実施の有無を切り替える補正切換手段と、を有する虚像表示装置。
A virtual image display device that is mounted on a vehicle and causes a vehicle occupant to visually recognize a video displayed on a video display surface so as to superimpose a virtual image of the video on an object in front of the sight line of the occupant. ,
Vehicle information acquisition means for acquiring the behavior of the vehicle;
Object information acquisition means for acquiring the behavior of the object;
Based on the behavior of the vehicle and the behavior of the object, the displacement of the future position of the object visually recognized by the occupant is predicted, and the display position of the virtual image is corrected based on the displacement of the predicted position. Correction means to
Superimposition state obtaining means for obtaining a superposition state of the object and the virtual image;
A virtual image display device comprising: correction switching means for switching whether or not correction by the correction means is performed based on a superimposed state of the object and the virtual image.
前記対象物と前記虚像の重畳の度合いが閾値未満の場合に前記補正手段による補正を実施する一方で、前記対象物と前記虚像の重畳の度合いが閾値以上の場合に前記補正手段による補正を実施しない請求項1に記載の虚像表示装置。   When the degree of superimposition of the object and the virtual image is less than a threshold value, the correction unit performs correction. On the other hand, when the degree of superimposition of the object and the virtual image is greater than or equal to a threshold value, the correction unit performs correction. The virtual image display device according to claim 1, wherein the virtual image display device is not. 前記対象物の周囲に前記虚像の重畳対象となる他の対象物がある場合には、前記対象物の周囲に前記他の対象物がない場合よりも前記閾値を高く設定する請求項2に記載の虚像表示装置。   3. The threshold value is set higher when there is another object to be superimposed with the virtual image around the object than when there is no other object around the object. Virtual image display device. 前記対象物と前記虚像が重畳していない場合に前記補正手段による補正を実施する一方で、前記対象物と前記虚像の少なくとも一部が重畳している場合に前記補正手段による補正を実施しない請求項1乃至請求項3のいずれかに記載の虚像表示装置。   The correction by the correction unit is performed when the object and the virtual image are not superimposed, and the correction by the correction unit is not performed when at least a part of the object and the virtual image is superimposed. The virtual image display device according to claim 1. 前記虚像の全体の内、前記対象物に対して重畳する割合が所定割合未満の場合に前記補正手段による補正を実施する一方で、所定割合以上の場合に前記補正手段による補正を実施しない請求項1乃至請求項3のいずれかに記載の虚像表示装置。   The correction by the correction unit is performed when the ratio of the virtual image to be superimposed on the object is less than a predetermined ratio, and the correction by the correction unit is not performed when the ratio is equal to or greater than the predetermined ratio. The virtual image display device according to claim 1. 車両に搭載され、映像表示面に表示された映像を前記車両の乗員に視認させることによって、前記映像の虚像を前記乗員の視線前方にある対象物に重畳させて視認させるコンピュータプログラムであって、
コンピュータを、
前記車両の挙動を取得する車両情報取得手段と、
前記対象物の挙動を取得する対象物情報取得手段と、
前記車両の挙動と前記対象物の挙動とに基づいて、前記乗員から視認される前記対象物の今後の位置の変位を予測するとともに、予測された位置の変位に基づいて虚像の表示位置を補正する補正手段と、
前記対象物と前記虚像の重畳状態を取得する重畳状態取得手段と、
前記対象物と前記虚像の重畳状態に基づいて前記補正手段による補正の実施の有無を切り替える補正切換手段と、
して機能させる為のコンピュータプログラム。
A computer program that is mounted on a vehicle and causes a vehicle occupant to visually recognize a video displayed on a video display surface so that a virtual image of the video is superimposed on an object in front of the sight line of the occupant,
Computer
Vehicle information acquisition means for acquiring the behavior of the vehicle;
Object information acquisition means for acquiring the behavior of the object;
Based on the behavior of the vehicle and the behavior of the object, the displacement of the future position of the object visually recognized by the occupant is predicted, and the display position of the virtual image is corrected based on the displacement of the predicted position. Correction means to
Superimposition state obtaining means for obtaining a superposition state of the object and the virtual image;
Correction switching means for switching the execution of correction by the correction means based on the superimposed state of the object and the virtual image;
Computer program to make it function.
JP2017048160A 2017-03-14 2017-03-14 Virtual image display device and computer program Expired - Fee Related JP6825433B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017048160A JP6825433B2 (en) 2017-03-14 2017-03-14 Virtual image display device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017048160A JP6825433B2 (en) 2017-03-14 2017-03-14 Virtual image display device and computer program

Publications (2)

Publication Number Publication Date
JP2018151903A true JP2018151903A (en) 2018-09-27
JP6825433B2 JP6825433B2 (en) 2021-02-03

Family

ID=63679482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017048160A Expired - Fee Related JP6825433B2 (en) 2017-03-14 2017-03-14 Virtual image display device and computer program

Country Status (1)

Country Link
JP (1) JP6825433B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020050147A (en) * 2018-09-27 2020-04-02 本田技研工業株式会社 Display device, display control method, and program
WO2020158601A1 (en) * 2019-01-29 2020-08-06 日本精機株式会社 Display control device, method, and computer program
JP2020190942A (en) * 2019-05-22 2020-11-26 株式会社デンソー Display controller
CN112218778A (en) * 2018-10-16 2021-01-12 松下知识产权经营株式会社 Display system, display device, and display control method
WO2021070881A1 (en) * 2019-10-11 2021-04-15 株式会社デンソー Control device
CN114572000A (en) * 2020-11-30 2022-06-03 本田技研工业株式会社 Display method and system
CN115917254A (en) * 2021-07-31 2023-04-04 华为技术有限公司 A display method, device and system
JP2024110755A (en) * 2023-02-03 2024-08-16 トヨタ自動車株式会社 Visibility assessment device
CN115917254B (en) * 2021-07-31 2026-02-10 深圳引望智能技术有限公司 A display method, apparatus and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015101311A (en) * 2013-11-28 2015-06-04 日本精機株式会社 Vehicle information projection system
JP2019059248A (en) * 2016-03-28 2019-04-18 マクセル株式会社 Head-up display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015101311A (en) * 2013-11-28 2015-06-04 日本精機株式会社 Vehicle information projection system
JP2019059248A (en) * 2016-03-28 2019-04-18 マクセル株式会社 Head-up display device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020050147A (en) * 2018-09-27 2020-04-02 本田技研工業株式会社 Display device, display control method, and program
US11428931B2 (en) 2018-09-27 2022-08-30 Honda Motor Co., Ltd. Display device, display control method, and storage medium
CN112218778A (en) * 2018-10-16 2021-01-12 松下知识产权经营株式会社 Display system, display device, and display control method
WO2020158601A1 (en) * 2019-01-29 2020-08-06 日本精機株式会社 Display control device, method, and computer program
JP2020190942A (en) * 2019-05-22 2020-11-26 株式会社デンソー Display controller
CN114502433A (en) * 2019-10-11 2022-05-13 株式会社电装 Control device
JP2021064098A (en) * 2019-10-11 2021-04-22 株式会社デンソー Control unit
WO2021070881A1 (en) * 2019-10-11 2021-04-15 株式会社デンソー Control device
JP7328863B2 (en) 2019-10-11 2023-08-17 株式会社デンソー Control device
CN114572000A (en) * 2020-11-30 2022-06-03 本田技研工业株式会社 Display method and system
CN115917254A (en) * 2021-07-31 2023-04-04 华为技术有限公司 A display method, device and system
EP4369177A4 (en) * 2021-07-31 2024-09-18 Huawei Technologies Co., Ltd. DISPLAY METHOD, DEVICE AND SYSTEM
CN115917254B (en) * 2021-07-31 2026-02-10 深圳引望智能技术有限公司 A display method, apparatus and system
JP2024110755A (en) * 2023-02-03 2024-08-16 トヨタ自動車株式会社 Visibility assessment device
JP7708132B2 (en) 2023-02-03 2025-07-15 トヨタ自動車株式会社 Visibility assessment device

Also Published As

Publication number Publication date
JP6825433B2 (en) 2021-02-03

Similar Documents

Publication Publication Date Title
JP6825433B2 (en) Virtual image display device and computer program
EP3015904B1 (en) Head-up display device
JP5327025B2 (en) Vehicle travel guidance device, vehicle travel guidance method, and computer program
JP6350596B2 (en) Display system
JP2017094882A (en) Virtual image generation system, virtual image generation method and computer program
JP4962788B2 (en) Vehicle periphery monitoring device
JP6314584B2 (en) Head-up display device
WO2016067574A1 (en) Display control device and display control program
WO2014208164A1 (en) Head-up display device
JP2014120111A (en) Travel support system, travel support method, and computer program
US11493357B2 (en) Superimposed image display device, superimposed image drawing method, and computer program
WO2019097762A1 (en) Superimposed-image display device and computer program
JP2017056844A (en) Electronic device, image display method, and image display program
US11760202B2 (en) Vehicle display device, display control method, and storage medium
WO2018180756A1 (en) Drive assistance system
JP2014120114A (en) Travel support system, travel support method, and computer program
JP6933189B2 (en) Display control device and display control program
JP6805974B2 (en) Driving support device and computer program
JPWO2020208779A1 (en) Display control device and display control method
JP2017186008A (en) Information display system
JP6337720B2 (en) Virtual image display device
JP2019056884A (en) Superimposed image display device
JP2015074391A (en) Head-up display device
JP6136238B2 (en) Driving support system, driving support method, and computer program
JP2014120113A (en) Travel support system, travel support method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201228

R150 Certificate of patent or registration of utility model

Ref document number: 6825433

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423

LAPS Cancellation because of no payment of annual fees