JP2016090515A - Information display device, control method, program, and storage medium - Google Patents
Information display device, control method, program, and storage medium Download PDFInfo
- Publication number
- JP2016090515A JP2016090515A JP2014228311A JP2014228311A JP2016090515A JP 2016090515 A JP2016090515 A JP 2016090515A JP 2014228311 A JP2014228311 A JP 2014228311A JP 2014228311 A JP2014228311 A JP 2014228311A JP 2016090515 A JP2016090515 A JP 2016090515A
- Authority
- JP
- Japan
- Prior art keywords
- display
- feature
- landscape
- information
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
Abstract
【課題】指定された地点が風景中のどの位置にあたるかを運転者に好適に認識させることが可能な情報表示装置を提供する。
【解決手段】ナビゲーション装置1は、車両Veの周辺の風景に見かけ上で重なるように案内画像をヘッドアップディスプレイ2に表示させる。ナビゲーション装置1は、車両Veが通過予定の次の案内地点を認識し、当該案内地点の周辺に存在する地物を地図データから抽出する。そして、ナビゲーション装置1は、現在位置から地物までの距離を示す地物距離画像を、風景に含まれる地物と対応する位置に、ヘッドアップディスプレイ2により表示させる。
【選択図】図5An information display device that allows a driver to appropriately recognize which position in a landscape a specified point corresponds to is provided.
A navigation apparatus 1 displays a guide image on a head-up display 2 so as to overlap with a scenery around a vehicle Ve. The navigation device 1 recognizes the next guide point where the vehicle Ve is scheduled to pass, and extracts features existing around the guide point from the map data. Then, the navigation device 1 causes the head-up display 2 to display a feature distance image indicating the distance from the current position to the feature at a position corresponding to the feature included in the landscape.
[Selection] Figure 5
Description
本発明は、風景画像に重畳して、または風景に見かけ上で重なるように画像を表示する技術に関する。 The present invention relates to a technique for displaying an image so as to be superimposed on a landscape image or to be superimposed on a landscape.
従来から、経路を案内するナビゲーション装置において、曲がるべき交差点までの距離を運転者に認識させる技術が存在する。例えば、特許文献1には、次に曲がるべき方向を示す矢印画像を、前方を撮影するカメラが生成した画像に重ねて表示する際に、曲がるべき交差点に近付くほど矢印画像を大きく表示するナビゲーション装置が開示されている。 2. Description of the Related Art Conventionally, there is a technology for allowing a driver to recognize a distance to an intersection to be turned in a navigation device that guides a route. For example, in Patent Document 1, when an arrow image indicating the direction to be bent next is displayed on an image generated by a camera that captures the front, the navigation device displays the arrow image larger as it approaches the intersection to be bent. Is disclosed.
特許文献1の技術では、矢印画像の大きさに基づき、曲がるべき交差点が近付いていることを運転者に認識させることができる一方、曲がるべき交差点が風景上のどの位置にあたるかを運転者に正確に認識させることは難しい。そこで、本発明は、指定された地点が風景中のどの位置にあたるかを運転者に好適に認識させることが可能な情報表示装置を提供することを主な目的とする。 With the technique of Patent Document 1, the driver can recognize that the intersection to be bent is approaching based on the size of the arrow image, while the driver can accurately determine the position on the landscape where the intersection to be bent is. It is difficult to make them recognize. Therefore, the main object of the present invention is to provide an information display device that allows the driver to appropriately recognize which position in the landscape the designated point corresponds to.
請求項に記載の発明は、移動体の周辺の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように画像を表示手段に表示させる情報表示装置であって、前記移動体が通過予定の指定地点を取得する地点取得手段と、前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出手段と、前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御手段と、を備えることを特徴とする。 The invention described in claim is an information display device that displays an image on a display unit so as to be superimposed on a landscape image obtained by photographing a landscape around a moving body or to be superimposed on the landscape in appearance. A point acquiring means for acquiring a designated point where the body is scheduled to pass; a feature extracting means for extracting a feature existing around the designated point from a map database; and a distance from the current position of the mobile body to the feature And display control means for causing the display means to display information at a position corresponding to the feature contained in the landscape.
また、請求項に記載の発明は、移動体の周辺の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように画像を表示手段に表示させる情報表示装置が実行する制御方法であって、前記移動体が通過予定の指定地点を取得する地点取得工程と、前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出工程と、前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御工程と、を有することを特徴とする。 The invention described in the claims is a control executed by an information display device that causes a display unit to display an image so as to be superimposed on a landscape image obtained by capturing a landscape around a moving body or to be superimposed on the landscape. A method for obtaining a designated point where the mobile object is scheduled to pass, a feature extracting step for extracting a feature existing around the designated point from a map database, and a current position of the mobile object And a display control step of displaying the distance information from the feature to the feature on the display means at a position corresponding to the feature included in the landscape.
また、請求項に記載の発明は、移動体の周辺の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように画像を表示手段に表示させるコンピュータが実行するプログラムであって、前記移動体が通過予定の指定地点を取得する地点取得手段と、前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出手段と、前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御手段として前記コンピュータを機能させることを特徴とする。 The invention described in the claims is a program executed by a computer that causes a display unit to display an image so as to be superimposed on a landscape image obtained by capturing a landscape around a moving body or to be superimposed on the landscape. A point acquisition unit that acquires a designated point that the mobile object is scheduled to pass through; a feature extraction unit that extracts a feature existing around the designated point from a map database; and The computer is caused to function as display control means for causing the display means to display distance information to an object at a position corresponding to the feature included in the landscape.
本発明の1つの好適な実施形態では、情報表示装置は、移動体の周辺の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように画像を表示手段に表示させる情報表示装置であって、前記移動体が通過予定の指定地点を取得する地点取得手段と、前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出手段と、前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御手段と、を備える。 In one preferred embodiment of the present invention, the information display device superimposes on a landscape image obtained by photographing a landscape around a moving object, or displays information on a display unit so as to overlap the landscape in appearance. A display device for acquiring a designated point where the mobile object is scheduled to pass; a feature extracting means for extracting a feature existing around the designated point from a map database; and a current state of the mobile object Display control means for causing the display means to display distance information from a position to the feature at a position corresponding to the feature included in the landscape.
上記情報表示装置は、移動体の周辺の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように画像を表示手段に表示させる。情報表示装置は、地点取得手段と、地物抽出手段と、表示制御手段と、を有する。地点取得手段は、移動体が通過予定の指定地点を取得する。地物抽出手段は、指定地点の周辺に存在する地物を地図データベースから抽出する。表示制御手段は、移動体の現在位置から地物までの距離情報を、風景に含まれる地物と対応する位置に、表示手段に表示させる。このようにすることで、情報表示装置は、指定地点の周辺に存在する風景中の地物の距離を観察者に好適に認識させることができる。よって、情報表示装置は、指定地点が風景上のどの位置にあたるのかを観察者に好適に把握させることができる。 The information display device causes the display unit to display an image so as to be superimposed on a landscape image obtained by capturing a landscape around the moving body or to overlap the landscape in appearance. The information display device includes point acquisition means, feature extraction means, and display control means. The point acquisition means acquires a designated point where the mobile object is scheduled to pass. The feature extracting means extracts features existing around the designated point from the map database. The display control means causes the display means to display distance information from the current position of the moving object to the feature at a position corresponding to the feature included in the landscape. By doing in this way, the information display apparatus can make an observer recognize the distance of the feature in the scenery which exists around the designated point suitably. Therefore, the information display device can make the observer preferably know which position on the landscape the designated point corresponds to.
上記情報表示装置の一態様では、前記地点取得手段は、目的地までの経路に含まれる案内地点を、前記指定地点として取得し、前記表示制御手段は、前記地物までの距離を、前記風景に含まれる前記地物と対応する位置に表示させるとともに、前記移動体の現在位置から前記案内地点までの距離情報を、前記表示手段に表示させる。このように、情報表示装置は、案内地点までの距離情報と共に、案内地点の周辺に存在する風景中の地物の距離情報を表示することで、案内地点が風景上のどの位置にあたるのかを観察者に好適に把握させることができる。 In one aspect of the information display device, the point acquisition unit acquires a guide point included in a route to a destination as the designated point, and the display control unit determines the distance to the feature as the landscape. And displaying the distance information from the current position of the moving body to the guide point on the display means. In this way, the information display device displays the distance information of the features in the scenery existing around the guidance point along with the distance information to the guidance point, thereby observing which position on the landscape the guidance point corresponds to Can be grasped suitably by a person.
上記情報表示装置の他の一態様では、情報表示装置は、目的地までの経路を案内する情報を音声で出力する音声出力手段をさらに備え、前記地点取得手段は、前記経路に含まれる案内地点を指定地点として取得し、前記表示制御手段は、前記地物までの距離を、前記風景に含まれる前記地物と対応する位置に表示させるとともに、前記移動体の現在位置から前記案内地点までの距離情報を、前記音声出力手段より出力させる。このように、情報表示装置は、案内地点までの距離情報を観察者に音声で通知すると共に、案内地点の周辺に存在する風景中の地物の距離情報を表示する態様であっても、案内地点が風景上のどの位置にあたるのかを観察者に好適に把握させることができる。 In another aspect of the information display device, the information display device further includes voice output means for outputting information for guiding the route to the destination by voice, and the point acquisition means is a guide point included in the route. The display control means displays the distance to the feature at a position corresponding to the feature included in the landscape, and from the current position of the moving body to the guidance point. Distance information is output from the audio output means. As described above, the information display device notifies the observer of the distance information to the guide point by voice, and also displays the distance information of the feature in the scenery existing around the guide point. It is possible for the observer to appropriately grasp which position on the landscape the point corresponds to.
上記情報表示装置の他の一態様では、前記地物抽出手段は、前記移動体の現在位置からの距離が前記指定地点よりも近い地物、および前記指定地点よりも遠い地物を、それぞれ1つ以上抽出する。この態様により、情報表示装置は、指定地点の前後にある地物の距離を運転者に把握させて、指定地点に対する距離感を好適に掴ませることができる。 In another aspect of the information display device, the feature extraction unit is configured to detect a feature whose distance from the current position of the mobile body is closer to the designated point and a feature farther than the designated point, respectively. Extract one or more. By this aspect, the information display apparatus can make a driver | operator grasp | ascertain the distance of the feature in front and behind a designated point, and can grasp | ascertain the distance feeling with respect to a designated point suitably.
上記情報表示装置の他の一態様では、前記地物抽出手段は、前記移動体の周辺の風景を撮影した風景画像に含まれていない地物を除外しつつ、前記指定地点の周辺に存在する地物を抽出する。この態様により、情報表示装置は、観察者が見えない地物に対して距離情報を表示することに起因して観察者に違和感を与えるのを好適に抑制することができる。 In another aspect of the information display device, the feature extracting means exists in the vicinity of the designated point while excluding features that are not included in the landscape image obtained by photographing the scenery around the moving body. Extract features. According to this aspect, the information display device can suitably suppress giving an uncomfortable feeling to the observer due to displaying the distance information on the feature that the observer cannot see.
本発明の他の好適な実施形態では、移動体の周辺の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように画像を表示手段に表示させる情報表示装置が実行する制御方法であって、前記移動体が通過予定の指定地点を取得する地点取得工程と、前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出工程と、前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御工程と、を有する。情報表示装置は、この制御方法を実行することで、指定地点が風景上のどの位置にあたるのかを観察者に好適に把握させることができる。 In another preferred embodiment of the present invention, an information display device is executed that displays an image on a display unit so as to be superimposed on a landscape image obtained by capturing a landscape around a moving body or to be superimposed on the landscape. It is a control method, and a point acquisition step for acquiring a designated point that the moving body is scheduled to pass through, a feature extraction step for extracting features existing around the designated point from a map database, and a current state of the moving body A display control step of displaying distance information from a position to the feature on the display unit at a position corresponding to the feature included in the landscape. By executing this control method, the information display device can make the observer preferably know which position on the landscape the designated point corresponds to.
本発明のさらに別の実施形態では、移動体の周辺の風景を撮影した風景画像に重畳して、または前記風景に見かけ上で重なるように画像を表示手段に表示させるコンピュータが実行するプログラムであって、前記移動体が通過予定の指定地点を取得する地点取得手段と、前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出手段と、前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御手段として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、指定地点が風景上のどの位置にあたるのかを観察者に好適に把握させることができる。好適には、上記プログラムは、記憶媒体に記憶される。 In still another embodiment of the present invention, there is provided a program executed by a computer that causes a display unit to display an image so as to be superimposed on a landscape image obtained by capturing a landscape around a moving body or to be superimposed on the landscape. A point acquisition unit that acquires a designated point that the mobile object is scheduled to pass through; a feature extraction unit that extracts a feature existing around the designated point from a map database; and The computer is caused to function as display control means for causing the display means to display distance information to an object at a position corresponding to the feature included in the landscape. By executing this program, the computer can allow the observer to appropriately grasp which position on the landscape the designated point is. Preferably, the program is stored in a storage medium.
以下、図面を参照して本発明の好適な実施例について説明する。なお、以後において、「地物」とは、地図上で表現可能な物を指し、例えば、施設、店舗、看板、標識、信号機、ポスト、木などを含む。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, “feature” refers to an object that can be expressed on a map, and includes, for example, facilities, stores, signboards, signs, traffic lights, posts, trees, and the like.
[概略構成]
(1)システム構成
図1は、実施例に係る表示システム100の構成例を示す。図1に示すように、表示システム100は、車両Veに搭載され、ナビゲーション装置1と、ヘッドアップディスプレイ2とを備える。そして、表示システム100は、次の案内地点(即ち右左折地点)の周辺にある地物への距離を示す虚像を、実風景上の地物に対応付けて表示することで、案内地点までの距離感を正確に運転者に掴ませる。
[Schematic configuration]
(1) System Configuration FIG. 1 shows a configuration example of a display system 100 according to the embodiment. As shown in FIG. 1, the display system 100 is mounted on a vehicle Ve, and includes a navigation device 1 and a head-up display 2. Then, the display system 100 displays a virtual image indicating the distance to the feature in the vicinity of the next guidance point (that is, the right / left turn point) in association with the feature on the real landscape, thereby displaying the distance to the guidance point. Make the driver sense the distance accurately.
ナビゲーション装置1は、出発地から目的地までのルート案内を行う機能などを有する。ナビゲーション装置1は、例えば、車両Veに設置される据え置き型のナビゲーション装置、PND(Portable Navigation Device)、又はスマートフォンなどの携帯端末とすることができる。 The navigation device 1 has a function of performing route guidance from a departure place to a destination. The navigation device 1 can be, for example, a stationary navigation device installed in the vehicle Ve, a portable terminal such as a PND (Portable Navigation Device), or a smartphone.
ヘッドアップディスプレイ2は、運転を補助する情報を表示する画像(「案内画像」とも呼ぶ。)を生成し、当該案内画像を運転者の目の位置(アイポイント)から虚像として視認させる。本実施例では、ヘッドアップディスプレイ2は、案内画像として、案内地点付近の地物に対する距離を示した画像(単に「地物距離画像」とも呼ぶ。)、案内経路を示す画像、次の案内地点までの距離や当該案内地点での進行方向を示す画像、車速などの車両Veの走行に関する情報を表示する画像、施設マークを示す画像などを表示する。ヘッドアップディスプレイ2には、案内画像の表示に必要な各種情報がナビゲーション装置1から供給される。ヘッドアップディスプレイ2は、本発明における「表示手段」の一例である。 The head-up display 2 generates an image (also referred to as “guide image”) that displays information for assisting driving, and visually recognizes the guide image as a virtual image from the position (eye point) of the driver's eyes. In the present embodiment, the head-up display 2 displays, as a guide image, an image indicating a distance to a feature near the guide point (also simply referred to as “feature distance image”), an image indicating a guide route, and the next guide point. An image indicating the distance to the vehicle and the direction of travel at the guide point, an image displaying information related to the traveling of the vehicle Ve such as the vehicle speed, and an image indicating a facility mark. Various information necessary for displaying the guidance image is supplied from the navigation device 1 to the head-up display 2. The head-up display 2 is an example of the “display unit” in the present invention.
なお、ナビゲーション装置1がスマートフォンなどの携帯端末である場合、ナビゲーション装置1は、クレードルなどによって保持されても良い。この場合、ナビゲーション装置1は、クレードルなどを介して、ヘッドアップディスプレイ2と情報の授受を行うこととしても良い。 When the navigation device 1 is a mobile terminal such as a smartphone, the navigation device 1 may be held by a cradle or the like. In this case, the navigation device 1 may exchange information with the head-up display 2 via a cradle or the like.
(2)ナビゲーション装置の構成
図2は、ナビゲーション装置1の構成を示す。図2に示すように、ナビゲーション装置1は、自立測位装置10、GPS受信機18、システムコントローラ20、ディスクドライブ31、データ記憶ユニット36、通信用インタフェース37、通信装置38、インタフェース39、表示ユニット40、音声出力ユニット50、及び入力装置60を備える。
(2) Configuration of Navigation Device FIG. 2 shows the configuration of the navigation device 1. As shown in FIG. 2, the navigation device 1 includes a self-supporting positioning device 10, a GPS receiver 18, a system controller 20, a disk drive 31, a data storage unit 36, a communication interface 37, a communication device 38, an interface 39, and a display unit 40. A voice output unit 50 and an input device 60.
自立測位装置10は、加速度センサ11、角速度センサ12及び距離センサ13を備える。加速度センサ11は、例えば圧電素子からなり、車両Veの加速度を検出し、加速度データを出力する。角速度センサ12は、例えば振動ジャイロからなり、車両Veの方向変換時における車両Veの角速度を検出し、角速度データ及び相対方位データを出力する。距離センサ13は、車両Veの車輪の回転に伴って発生されているパルス信号からなる車速パルスを計測する。 The autonomous positioning device 10 includes an acceleration sensor 11, an angular velocity sensor 12, and a distance sensor 13. The acceleration sensor 11 is made of, for example, a piezoelectric element, detects the acceleration of the vehicle Ve, and outputs acceleration data. The angular velocity sensor 12 is composed of, for example, a vibrating gyroscope, detects the angular velocity of the vehicle Ve when the direction of the vehicle Ve is changed, and outputs angular velocity data and relative azimuth data. The distance sensor 13 measures a vehicle speed pulse composed of a pulse signal generated with the rotation of the wheel of the vehicle Ve.
GPS受信機18は、複数のGPS衛星から、測位用データを含む下り回線データを搬送する電波19を受信する。測位用データは、緯度及び経度情報等から車両Veの絶対的な位置(即ち現在位置)を検出するために用いられる。 The GPS receiver 18 receives radio waves 19 carrying downlink data including positioning data from a plurality of GPS satellites. The positioning data is used to detect the absolute position (ie, current position) of the vehicle Ve from latitude and longitude information.
システムコントローラ20は、インタフェース21、CPU(Central Processing Unit)22、ROM(Read Only Memory)23及びRAM(Random Access Memory)24を含んでおり、ナビゲーション装置1全体の制御を行う。 The system controller 20 includes an interface 21, a CPU (Central Processing Unit) 22, a ROM (Read Only Memory) 23, and a RAM (Random Access Memory) 24, and controls the entire navigation apparatus 1.
例えば、本実施例では、システムコントローラ20は、ユーザ入力により設定された目的地への経路案内時に、ヘッドアップディスプレイ2に表示させる案内画像を生成する。具体的には、本実施例では、システムコントローラ20は、次の案内地点までの距離が所定距離以内になったときに、案内画像として地物距離画像を生成し、ヘッドアップディスプレイ2に表示させる。この場合、まず、システムコントローラ20は、GPS受信機18の測定情報及び自立測位装置10の測定情報に基づき、車両Veの位置及び進行方向を認識する。そして、制御部55は、フロントウィンドウ25を介して運転者が視認可能な位置に存在し、かつ、次の案内地点の周辺にある地物を、データ記憶ユニット36が記憶する地図データから抽出する。そして、システムコントローラ20は、現在位置と上述の認識した地物との距離を算出し、当該距離を示す地物距離画像を生成する。そして、システムコントローラ20は、施設マークを風景上の施設に対応付けて表示するのと同様の方法により、地物距離画像を、対象となる風景上の地物に対応付けて、ヘッドアップディスプレイ2に表示させる。 For example, in the present embodiment, the system controller 20 generates a guidance image to be displayed on the head-up display 2 at the time of route guidance to the destination set by user input. Specifically, in this embodiment, the system controller 20 generates a feature distance image as a guide image and displays it on the head-up display 2 when the distance to the next guide point is within a predetermined distance. . In this case, first, the system controller 20 recognizes the position and traveling direction of the vehicle Ve based on the measurement information of the GPS receiver 18 and the measurement information of the autonomous positioning device 10. Then, the control unit 55 extracts, from the map data stored in the data storage unit 36, the features that are present at a position that can be visually recognized by the driver via the front window 25 and that are in the vicinity of the next guide point. . Then, the system controller 20 calculates the distance between the current position and the above recognized feature, and generates a feature distance image indicating the distance. Then, the system controller 20 associates the feature distance image with the feature on the target landscape by the same method as displaying the facility mark in association with the facility on the landscape, and the head-up display 2. To display.
システムコントローラ20は、本発明における「地点取得手段」、「地物抽出手段」、「表示制御手段」、「音声出力手段」及びプログラムを実行するコンピュータとして機能する。 The system controller 20 functions as a “point acquisition unit”, “feature extraction unit”, “display control unit”, “voice output unit”, and a computer that executes a program in the present invention.
インタフェース21は、加速度センサ11、角速度センサ12及び距離センサ13並びにGPS受信機18とのインタフェース動作を行う。そして、これらから、車速パルス、加速度データ、相対方位データ、角速度データ、GPS測位データ、絶対方位データ等をシステムコントローラ20に入力する。CPU22は、システムコントローラ20全体を制御する。ROM23は、システムコントローラ20を制御する制御プログラム等が格納された図示しない不揮発性メモリ等を有する。RAM24は、入力装置60を介して使用者により予め設定された経路データ等の各種データを読み出し可能に格納したり、CPU22に対してワーキングエリアを提供したりする。 The interface 21 performs an interface operation with the acceleration sensor 11, the angular velocity sensor 12, the distance sensor 13, and the GPS receiver 18. From these, vehicle speed pulses, acceleration data, relative azimuth data, angular velocity data, GPS positioning data, absolute azimuth data, and the like are input to the system controller 20. The CPU 22 controls the entire system controller 20. The ROM 23 includes a nonvolatile memory (not shown) in which a control program for controlling the system controller 20 is stored. The RAM 24 stores various data such as route data preset by the user via the input device 60 so as to be readable, and provides a working area to the CPU 22.
システムコントローラ20、CD−ROMドライブ又はDVD−ROMドライブなどのディスクドライブ31、データ記憶ユニット36、通信用インタフェース37、表示ユニット40、音声出力ユニット50及び入力装置60は、バスライン30を介して相互に接続されている。 A system controller 20, a disk drive 31 such as a CD-ROM drive or a DVD-ROM drive, a data storage unit 36, a communication interface 37, a display unit 40, an audio output unit 50, and an input device 60 are mutually connected via a bus line 30. It is connected to the.
ディスクドライブ31は、システムコントローラ20の制御の下、CD又はDVDといったディスク33から、音楽データ、映像データなどのコンテンツデータを読み出し、出力する。なお、ディスクドライブ31は、CD−ROMドライブ又はDVD−ROMドライブのうち、いずれか一方としてもよいし、CD及びDVDコンパチブルのドライブとしてもよい。 The disk drive 31 reads and outputs content data such as music data and video data from a disk 33 such as a CD or DVD under the control of the system controller 20. The disk drive 31 may be either a CD-ROM drive or a DVD-ROM drive, or may be a CD and DVD compatible drive.
データ記憶ユニット36は、例えば、HDDなどにより構成され、地図データベース(単に「地図データ」とも呼ぶ。)などのナビゲーション処理に用いられる各種データを記憶するユニットである。地図データは、道路に相当するリンクと、道路の接続部分に相当するノードとにより表された道路データや、各地物に関する地物情報などを含む。地物情報には、例えば、地物の位置情報や外観(形状)情報などが含まれている。 The data storage unit 36 is configured by, for example, an HDD or the like, and stores various data used for navigation processing such as a map database (also simply referred to as “map data”). The map data includes road data represented by links corresponding to roads and nodes corresponding to road connecting portions, and feature information about each feature. The feature information includes, for example, position information and appearance (shape) information of the feature.
通信装置38は、例えば、FMチューナやビーコンレシーバ、携帯端末や専用の通信モジュールなどにより構成され、通信用インタフェース37を介して、VICS(登録商標、Vehicle Information Communication System)センタから配信される渋滞や交通情報などの道路交通情報、その他の情報を受信する。また、通信装置38は、システムコントローラ20が生成した案内画像及び案内画像の表示位置などに関する情報を、ヘッドアップディスプレイ2へ送信する。 The communication device 38 includes, for example, an FM tuner, a beacon receiver, a portable terminal, a dedicated communication module, and the like, and via a communication interface 37, a traffic jam distributed from a VICS (registered trademark, Vehicle Information Communication System) center Receive road traffic information such as traffic information and other information. Further, the communication device 38 transmits to the head-up display 2 information related to the guide image generated by the system controller 20 and the display position of the guide image.
表示ユニット40は、システムコントローラ20の制御の下、各種表示データをディスプレイなどの表示装置に表示する。具体的には、システムコントローラ20は、データ記憶ユニット36から地図データを読み出す。表示ユニット40は、システムコントローラ20によってデータ記憶ユニット36から読み出された地図データに基づく地図などを表示画面上に表示する。表示ユニット40は、バスライン30を介してCPU22から送られる制御データに基づいて表示ユニット40全体の制御を行うグラフィックコントローラ41と、VRAM(Video RAM)等のメモリからなり即時表示可能な画像情報を一時的に記憶するバッファメモリ42と、グラフィックコントローラ41から出力される画像データに基づいて、液晶、CRT(Cathode Ray Tube)等のディスプレイ44を表示制御する表示制御部43と、ディスプレイ44とを備える。ディスプレイ44は、画像表示部として機能し、例えば対角5〜10インチ程度の液晶表示装置等からなり、車内のフロントパネル付近に装着される。 The display unit 40 displays various display data on a display device such as a display under the control of the system controller 20. Specifically, the system controller 20 reads map data from the data storage unit 36. The display unit 40 displays a map or the like based on the map data read from the data storage unit 36 by the system controller 20 on the display screen. The display unit 40 includes a graphic controller 41 that controls the entire display unit 40 based on control data sent from the CPU 22 via the bus line 30 and a memory such as a VRAM (Video RAM), and can display image information that can be displayed immediately. A buffer memory 42 that temporarily stores, a display control unit 43 that controls display of a display 44 such as a liquid crystal display or a CRT (Cathode Ray Tube) based on image data output from the graphic controller 41, and a display 44 are provided. . The display 44 functions as an image display unit, and includes, for example, a liquid crystal display device having a diagonal size of about 5 to 10 inches and is mounted near the front panel in the vehicle.
音声出力ユニット50は、システムコントローラ20の制御の下、CD−ROMドライブ31又はDVD−ROM32、若しくはRAM24等からバスライン30を介して送られる音声デジタルデータのD/A(Digital to Analog)変換を行うD/Aコンバータ51と、D/Aコンバータ51から出力される音声アナログ信号を増幅する増幅器(AMP)52と、増幅された音声アナログ信号を音声に変換して車内に出力するスピーカ53とを備えて構成されている。 The audio output unit 50 performs D / A (Digital to Analog) conversion of audio digital data sent from the CD-ROM drive 31, DVD-ROM 32, RAM 24, or the like via the bus line 30 under the control of the system controller 20. A D / A converter 51 to perform, an amplifier (AMP) 52 that amplifies the audio analog signal output from the D / A converter 51, and a speaker 53 that converts the amplified audio analog signal into sound and outputs the sound into the vehicle. It is prepared for.
入力装置60は、各種コマンドやデータを入力するための、キー、スイッチ、ボタン、リモコン、タッチパネル、音声入力装置等から構成されている。入力装置60は、据置型のナビゲーション装置の場合、車内に搭載された当該車載用電子システムの本体のフロントパネルやディスプレイ44の周囲に配置される。 The input device 60 includes keys, switches, buttons, a remote controller, a touch panel, a voice input device, and the like for inputting various commands and data. In the case of a stationary navigation device, the input device 60 is disposed around the front panel and the display 44 of the main body of the in-vehicle electronic system mounted in the vehicle.
(3)ヘッドアップディスプレイの構成
図3は、ヘッドアップディスプレイ2の概略構成図である。図3に示すように、本実施例に係るヘッドアップディスプレイ2は、主に、光源ユニット4と、凹面鏡8と、を備え、フロントウィンドウ25と、天井部27と、ボンネット28と、ダッシュボード29とを備える車両Veに取り付けられる。
(3) Configuration of Head-Up Display FIG. 3 is a schematic configuration diagram of the head-up display 2. As shown in FIG. 3, the head-up display 2 according to the present embodiment mainly includes a light source unit 4 and a concave mirror 8, and includes a front window 25, a ceiling portion 27, a bonnet 28, and a dashboard 29. It is attached to vehicle Ve provided with.
光源ユニット4は、ダッシュボード29内に設けられ、表示像を構成する光(単に「表示光」とも呼ぶ。)を、ダッシュボード29内に設けられた凹面鏡8に向けて出射する。この場合、凹面鏡8で反射した表示光は、ダッシュボード29に設けられた開口部89を介してフロントウィンドウ25へ到達し、さらにフロントウィンドウ25で反射することで運転者の目の位置に到達する。このように、光源ユニット4は、表示光を運転者の目の位置へ到達させて、運転者に虚像「Iv」を視認させる。 The light source unit 4 is provided in the dashboard 29 and emits light constituting the display image (also simply referred to as “display light”) toward the concave mirror 8 provided in the dashboard 29. In this case, the display light reflected by the concave mirror 8 reaches the front window 25 through the opening 89 provided in the dashboard 29, and further reaches the position of the driver's eyes by being reflected by the front window 25. . In this way, the light source unit 4 causes the display light to reach the position of the driver's eyes and causes the driver to visually recognize the virtual image “Iv”.
凹面鏡8は、光源ユニット4から出射された表示光を、ダッシュボード29に設けられた開口部89に向けて反射し、フロントウィンドウ25へ到達させる。この場合、凹面鏡8は、表示光が示す画像を拡大して反射する。 The concave mirror 8 reflects the display light emitted from the light source unit 4 toward the opening 89 provided in the dashboard 29 and reaches the front window 25. In this case, the concave mirror 8 magnifies and reflects the image indicated by the display light.
(4)光源ユニットの構成
図4は、光源ユニット4の構成を概略的に示した図である。図4に示すように、光源ユニット4は、光源54と、制御部55と、通信部56とを有する。
(4) Configuration of Light Source Unit FIG. 4 is a diagram schematically showing the configuration of the light source unit 4. As shown in FIG. 4, the light source unit 4 includes a light source 54, a control unit 55, and a communication unit 56.
光源54は、例えば赤色、青色及び緑色の各色のレーザ光源を有し、制御部55の制御に基づき、案内画像を虚像Ivとして表示させるための表示光を出射する。 The light source 54 includes, for example, red, blue, and green laser light sources, and emits display light for displaying the guide image as a virtual image Iv based on the control of the control unit 55.
通信部56は、制御部55の制御に基づき、ナビゲーション処理に用いられる各種情報をナビゲーション装置1から受信する。例えば、通信部56は、ナビゲーション装置1から案内ルートの情報や現在位置の情報などの案内画像の生成に必要な情報を受信する。 The communication unit 56 receives various types of information used for navigation processing from the navigation device 1 based on the control of the control unit 55. For example, the communication unit 56 receives information necessary for generating a guidance image such as guidance route information and current position information from the navigation device 1.
制御部55は、CPU、CPUが実行する制御プログラムやデータなどを記憶するROM、CPUが動作する際のワークメモリとして各種データが逐次読み書きされるRAMなどを有し、ヘッドアップディスプレイ2の全般的な制御を行う。例えば、制御部65は、ナビゲーション装置1から受信した情報に基づき、案内画像の表示光を光源54に出射させる。ここで、案内画像として地物距離画像を表示する場合、制御部65は、表示対象となる地物の実風景上の位置に対応する位置に地物距離画像をフロントウィンドウ25を介して表示する。 The control unit 55 includes a CPU, a ROM that stores a control program executed by the CPU, data, and the like, and a RAM that sequentially reads and writes various data as a work memory when the CPU operates. Control. For example, the control unit 65 causes the light source 54 to emit guide light display light based on the information received from the navigation device 1. Here, when displaying the feature distance image as the guide image, the control unit 65 displays the feature distance image through the front window 25 at a position corresponding to the position on the actual scenery of the feature to be displayed. .
[地物距離画像の表示処理]
次に、地物距離画像の表示処理について説明する。概略的には、システムコントローラ20は、次の案内地点に所定距離以内に近付いた場合に、車両Veに対して次の案内地点と同距離に存在する地物、又は、当該案内地点の前後に存在する地物を対象として、地物距離画像をヘッドアップディスプレイ2に表示させる。これにより、システムコントローラ20は、案内地点に対する距離感をユーザに好適に掴ませる。
[Feature distance image display processing]
Next, the display process of the feature distance image will be described. Schematically, when the system controller 20 approaches the next guidance point within a predetermined distance, the system controller 20 is located at the same distance as the next guidance point with respect to the vehicle Ve, or before and after the guidance point. A feature distance image is displayed on the head-up display 2 for existing features. Thereby, the system controller 20 makes a user grasp the feeling of distance with respect to a guidance point suitably.
(1)処理フロー
図5は、本実施例に係る地物距離画像の表示処理の手順を示すフローチャートである。システムコントローラ20は、図5に示す処理を、目的地設定後の経路案内中に繰り返し実行する。
(1) Process Flow FIG. 5 is a flowchart showing the procedure of the feature distance image display process according to this embodiment. The system controller 20 repeatedly executes the process shown in FIG. 5 during route guidance after setting the destination.
まず、システムコントローラ20は、経路案内中では、次の案内地点までの距離及び当該案内地点での進行方向をヘッドアップディスプレイ2に案内画像として表示させるか、これらの情報を音声出力ユニット50により音声出力する(ステップS100)。なお、システムコントローラ20は、ステップS100のヘッドアップディスプレイ2による表示又は音声出力を、対象の案内地点を通過するまで継続的又は断続的に実行する。 First, during the route guidance, the system controller 20 displays the distance to the next guidance point and the traveling direction at the guidance point as a guidance image on the head-up display 2, or the information is voiced by the voice output unit 50. Output (step S100). In addition, the system controller 20 performs the display or audio | voice output by the head-up display 2 of step S100 continuously or intermittently until it passes the target guidance point.
次に、システムコントローラ20は、次の案内地点まで所定距離以内であるか否か判定する(ステップS101)。「所定距離」は、例えば、次の案内地点をユーザが認識する必要が生じる距離に実験等に基づき予め設定される。そして、システムコントローラ20は、次の案内地点まで所定距離以内である場合(ステップS101;Yes)、ステップS102へ処理を進める。一方、次の案内地点まで所定距離より離れている場合(ステップS101;No)、引き続き、ステップS101を実行する。 Next, the system controller 20 determines whether or not it is within a predetermined distance to the next guidance point (step S101). The “predetermined distance” is set in advance based on an experiment or the like, for example, at a distance that requires the user to recognize the next guide point. If the system controller 20 is within a predetermined distance to the next guide point (step S101; Yes), the system controller 20 advances the process to step S102. On the other hand, when it is further than the predetermined distance to the next guide point (step S101; No), step S101 is subsequently executed.
次に、システムコントローラ20は、次の案内地点と同距離にある地物が地図データに登録されているか否か判定する(ステップS102)。この場合、システムコントローラ20は、GPS受信機18から取得した現在位置情報等に基づき、次の案内地点と略同一地点に標識、信号機等の地物が地図データに登録されているか否か判定する。そして、システムコントローラ20は、次の案内地点と同距離にある地物が地図データに登録されていると判断した場合(ステップS102;Yes)、該当する地物に対する距離を示す地物距離画像を、風景上の当該地物に対応付けたフロントウィンドウ25上の位置に、ヘッドアップディスプレイ2により表示する(ステップS103)。例えば、システムコントローラ20は、次の案内地点が50m先にあり、同じ50m先に地物が存在する場合、当該地物に対する地物距離画像を、当該地物に対応付けてヘッドアップディスプレイ2に表示させる。これにより、システムコントローラ20は、目印となる地物を好適に運転者に認識させることができるため、複数の交差点が近接して存在する場合であっても、次に右左折すべき交差点の位置を、運転者に好適に把握させることができる。 Next, the system controller 20 determines whether or not a feature located at the same distance as the next guide point is registered in the map data (step S102). In this case, the system controller 20 determines whether or not a feature such as a sign or a traffic light is registered in the map data at the substantially same point as the next guide point based on the current position information obtained from the GPS receiver 18. . When the system controller 20 determines that a feature at the same distance as the next guide point is registered in the map data (step S102; Yes), a feature distance image indicating the distance to the corresponding feature is displayed. Then, it is displayed by the head-up display 2 at a position on the front window 25 associated with the feature on the landscape (step S103). For example, when the next guide point is 50 m ahead and a feature exists in the same 50 m ahead, the system controller 20 associates the feature distance image for the feature with the head-up display 2 in association with the feature. Display. As a result, the system controller 20 can suitably make the driver recognize the landmark feature, so that even when there are a plurality of intersections close to each other, the position of the intersection to be turned right or left next time Can be suitably grasped by the driver.
一方、システムコントローラ20は、次の案内地点と同距離にある地物が地図データに登録されていない場合(ステップS102;No)、次の案内地点の前後にある各地物に対する距離を示す地物距離画像を、風景上のこれらの地物に対応付けて、ヘッドアップディスプレイ2により表示する(ステップS104)。この場合、まず、システムコントローラ20は、走行中の道路沿いにおいて、案内地点よりも奥に存在する地物のうち最も案内地点に近い地物と、案内地点よりも手前に存在する地物のうち最も案内地点に近い地物とを、それぞれ地図データから抽出する。そして、システムコントローラ20は、抽出した各地物に対する距離を示す地物距離画像を生成し、ヘッドアップディスプレイ2に表示させる。この場合、システムコントローラ20は、次の案内地点前後の地物までの距離を運転者に好適に把握させることができるため、実風景上における当該案内地点までの距離感を好適に掴ませることができる。 On the other hand, when the feature at the same distance as the next guide point is not registered in the map data (step S102; No), the system controller 20 shows the distance to each feature before and after the next guide point. The distance image is displayed on the head-up display 2 in association with these features on the landscape (step S104). In this case, first, the system controller 20, along the traveling road, out of the features that are closest to the guide point among the features that are present behind the guide point and the features that are present in front of the guide point. The feature closest to the guide point is extracted from the map data. And the system controller 20 produces | generates the feature distance image which shows the distance with respect to the extracted each feature, and displays it on the head-up display 2. FIG. In this case, since the system controller 20 can cause the driver to appropriately grasp the distance to the feature before and after the next guidance point, the system controller 20 can suitably grasp the sense of distance to the guidance point on the actual landscape. it can.
なお、好適には、ステップS103及びステップS104では、システムコントローラ20は、走行中の道路沿いにおいて、次の案内地点よりも手前にある地物が地図データに登録されていた場合、当該地物までの距離を表す地物距離画像をさらにヘッドアップディスプレイ2に表示させるとよい。これにより、システムコントローラ20は、次の案内地点に対する距離感をより細やかに運転者に掴ませることができる。 Preferably, in step S103 and step S104, the system controller 20 determines that if a feature in front of the next guide point is registered in the map data along the road being traveled, It is preferable to further display a feature distance image representing the distance on the head-up display 2. Thereby, the system controller 20 can make a driver | operator grasp the distance feeling with respect to the next guidance point more finely.
(2)表示例
図6は、図5の地物距離画像の表示処理に基づくフロントウィンドウ25の表示例である。図6の例では、システムコントローラ20は、案内画像として、地物距離画像71〜73、次の案内地点までの距離及び進行方向を示す矢印画像74、及び案内経路を示す経路画像75を、ヘッドアップディスプレイ2に虚像Ivとして前方風景に重ねて表示させている。
(2) Display Example FIG. 6 is a display example of the front window 25 based on the feature distance image display process of FIG. In the example of FIG. 6, the system controller 20 uses the feature distance images 71 to 73, the arrow image 74 indicating the distance to the next guide point and the traveling direction, and the route image 75 indicating the guide route as head images. The up-display 2 is displayed as a virtual image Iv superimposed on the front landscape.
図6の例では、システムコントローラ20は、図5のステップS100に基づき、次の案内地点が50m先である旨及び当該案内地点で右折すべき旨を示した矢印画像74及び経路画像75をヘッドアップディスプレイ2に表示させている。 In the example of FIG. 6, the system controller 20 heads the arrow image 74 and the route image 75 indicating that the next guidance point is 50 m ahead and that it should turn right at the guidance point, based on step S <b> 100 of FIG. 5. It is displayed on the up display 2.
また、システムコントローラ20は、ステップS101の所定距離よりも次の案内地点である交差点60までの距離が短いと判断し、地物距離画像を表示する必要があると判断する。この場合、システムコントローラ20は、交差点60と同距離にある地物が存在しないことから、ステップS104に基づき、交差点60の前後に存在する建物61及び信号機62に対する地物距離画像71〜72を表示している。 Further, the system controller 20 determines that the distance to the intersection 60, which is the next guide point, is shorter than the predetermined distance in step S101, and determines that it is necessary to display the feature distance image. In this case, since there is no feature at the same distance as the intersection 60, the system controller 20 displays the feature distance images 71 to 72 for the buildings 61 and the traffic lights 62 existing before and after the intersection 60 based on step S104. doing.
ここで、地物距離画像71〜72の表示処理について具体的に説明する。まず、システムコントローラ20は、走行中の道路沿いにおいて、交差点60よりも手前にある地物のうち交差点60に最も近い建物61、及び、交差点60よりも奥に存在する地物のうち交差点60に最も近い信号機62を、地図データから抽出する。そして、システムコントローラ20は、建物61の現在位置からの距離(40m)を示す地物距離画像71を、風景上の建物61の位置に対応付けてヘッドアップディスプレイ2に表示させると共に、信号機62の現在位置からの距離(60m)を示す地物距離画像72を、風景上の信号機62の位置に対応付けてヘッドアップディスプレイ2に表示させる。これにより、システムコントローラ20は、交差点60の前後にある地物の距離を運転者に好適に把握させることができるため、実風景上における交差点60までの距離感を好適に掴ませることができる。 Here, the display processing of the feature distance images 71 to 72 will be specifically described. First, the system controller 20 sets the building 61 closest to the intersection 60 among the features in front of the intersection 60 and the intersection 60 among the features existing behind the intersection 60 along the traveling road. The nearest traffic light 62 is extracted from the map data. The system controller 20 displays the feature distance image 71 indicating the distance (40 m) from the current position of the building 61 on the head-up display 2 in association with the position of the building 61 on the landscape, and A feature distance image 72 indicating the distance (60 m) from the current position is displayed on the head-up display 2 in association with the position of the traffic light 62 on the landscape. As a result, the system controller 20 can cause the driver to appropriately grasp the distance between the features before and after the intersection 60, and thus can appropriately grasp the sense of distance to the intersection 60 on the actual landscape.
また、システムコントローラ20は、地物距離画像71〜72に加えて、交差点60よりも車両Ve側に存在するポスト63に対する距離を示す地物距離画像73を、ヘッドアップディスプレイ2に表示させている。これにより、システムコントローラ20は、交差点60に対する距離感をより細やかに運転者に掴ませることができる。 In addition to the feature distance images 71 to 72, the system controller 20 causes the head-up display 2 to display a feature distance image 73 indicating the distance to the post 63 existing on the vehicle Ve side from the intersection 60. . Thereby, the system controller 20 can make a driver | operator grasp the feeling of distance with respect to the intersection 60 more finely.
また、地物距離画像は、現在位置から地物までの距離を直接示すものに限定されず、距離に対応する図形や記号などであってもよい。例えば、10m以上20m未満の範囲は「○」、20m以上30m未満の範囲は「◎」などの様に、予め距離に対応する記号を設定しておき、地物までの距離に応じてこれらの記号を表示するようにしてもよい。 Further, the feature distance image is not limited to the one directly indicating the distance from the current position to the feature, and may be a figure or a symbol corresponding to the distance. For example, a symbol corresponding to a distance is set in advance, such as “◯” for a range of 10 m or more and less than 20 m, and “◎” for a range of 20 m or more and less than 30 m, and depending on the distance to the feature, A symbol may be displayed.
以上説明したように、本実施例に係るナビゲーション装置1は、車両Veの周辺の風景に見かけ上で重なるように案内画像をヘッドアップディスプレイ2に表示させる。ナビゲーション装置1は、車両Veが通過予定の次の案内地点を認識し、当該案内地点の周辺に存在する地物を地図データから抽出する。そして、ナビゲーション装置1は、現在位置から地物までの距離を示す地物距離画像を、風景に含まれる地物と対応する位置に、ヘッドアップディスプレイ2により表示させる。これにより、ナビゲーション装置1は、案内地点の周辺に存在する風景中の地物の距離を運転者に好適に認識させることができる。よって、ナビゲーション装置1は、案内地点が風景上のどの位置にあたるのかを運転者に好適に把握させることができる。 As described above, the navigation device 1 according to the present embodiment causes the head-up display 2 to display the guide image so as to overlap the scenery around the vehicle Ve. The navigation device 1 recognizes the next guide point where the vehicle Ve is scheduled to pass, and extracts features existing around the guide point from the map data. Then, the navigation device 1 causes the head-up display 2 to display a feature distance image indicating the distance from the current position to the feature at a position corresponding to the feature included in the landscape. Thereby, the navigation apparatus 1 can make a driver | operator recognize suitably the distance of the feature in the scenery which exists around a guidance point. Therefore, the navigation apparatus 1 can make a driver | operator grasp | ascertain suitably which position on a landscape the guidance point is.
[変形例]
以下、上述の実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
[Modification]
Hereinafter, modified examples suitable for the above-described embodiments will be described. The following modifications may be applied in any combination to the above-described embodiments.
(変形例1)
システムコントローラ20は、建物や他車両などに遮蔽されて運転者が視認できない地物を検出し、当該地物については、地物距離画像の表示対象から外してもよい。
(Modification 1)
The system controller 20 may detect a feature that is shielded by a driver due to being blocked by a building or other vehicle, and may exclude the feature from being displayed as a feature distance image.
図7は、本変形例に係る表示システム100Aの概略構成を示す。表示システム100Aは、車両Veの前方風景を撮影するカメラ3を備える。そして、ナビゲーション装置1は、カメラ3が生成した撮影画像「Im」に基づき、建物や他車両などの視界を妨げる対象物を検出する。そして、ナビゲーション装置1は、撮影画像Im及び地図データに含まれる地物情報に基づき、検出した対象物に遮蔽される地物を検出する。例えば、ナビゲーション装置1は、カメラ3がステレオカメラである場合には、検出した対象物の三次元位置を認識すると共に、当該対象物により遮蔽される3次元空間を認識する。そして、ナビゲーション装置1は、地図データに含まれる地物情報に基づき、遮蔽される3次元空間に所定割合以上属すると判断される地物を検出し、地物距離画像の表示対象から除外する。 FIG. 7 shows a schematic configuration of a display system 100A according to this modification. The display system 100A includes a camera 3 that captures a landscape in front of the vehicle Ve. The navigation device 1 detects an object that obstructs the field of view, such as a building or another vehicle, based on the captured image “Im” generated by the camera 3. And the navigation apparatus 1 detects the feature obstruct | occluded by the detected target object based on the feature information contained in the picked-up image Im and map data. For example, when the camera 3 is a stereo camera, the navigation device 1 recognizes the three-dimensional position of the detected object and recognizes the three-dimensional space shielded by the object. And the navigation apparatus 1 detects the feature judged to belong to the shielded three-dimensional space more than the predetermined ratio based on the feature information included in the map data, and excludes it from the display target of the feature distance image.
このように、本変形例によれば、表示システム100Aは、実際には遮蔽されて見えない地物に対する地物距離画像を表示するのを好適に抑制することができる。 Thus, according to the present modification, the display system 100A can suitably suppress displaying the feature distance image for the feature that is actually shielded and cannot be seen.
(変形例2)
図5のステップS103及びステップS104では、システムコントローラ20は、次の案内地点と同距離にある地物、又は、次の案内地点の前後にある地物のいずれかに対応する地物距離画像をヘッドアップディスプレイ2に表示させた。これに代えて、システムコントローラ20は、ステップS103では、次の案内地点と同距離にある地物に加えて、次の案内地点の前後にある地物の各々に対応する地物距離画像を同時にヘッドアップディスプレイ2に表示させてもよい。
(Modification 2)
In step S103 and step S104 of FIG. 5, the system controller 20 displays a feature distance image corresponding to either a feature at the same distance as the next guidance point or a feature before and after the next guidance point. Displayed on the head-up display 2. Instead, in step S103, the system controller 20 simultaneously displays the feature distance images corresponding to the respective features before and after the next guidance point in addition to the feature at the same distance as the next guidance point. You may display on the head-up display 2.
(変形例3)
システムコントローラ20は、同時に表示する地物距離画像の最大数、又は/及び、地物距離画像の表示対象となる地物の種類等を指定する入力を入力装置60により受け付けてもよい。
(Modification 3)
The system controller 20 may accept an input for designating the maximum number of feature distance images to be displayed at the same time and / or the type of feature to be displayed for the feature distance image, from the input device 60.
例えば、同時に表示する地物距離画像の最大数を指定する入力があった場合、システムコントローラ20は、ユーザ入力により指定された地物距離画像の最大数を超えない範囲で、地物距離画像をヘッドアップディスプレイ2に表示させる。この場合、システムコントローラ20は、例えば、次の案内地点の周辺又は当該案内地点よりも手前に存在する地物のうち、当該案内地点に近い地物ほど、優先的に地物距離画像の表示対象に定める。 For example, when there is an input for designating the maximum number of feature distance images to be displayed at the same time, the system controller 20 displays the feature distance images within a range not exceeding the maximum number of feature distance images designated by the user input. It is displayed on the head-up display 2. In this case, the system controller 20 preferentially displays the feature distance image as the feature closer to the guide point among the features that exist around the next guide point or in front of the guide point. Stipulated in
また、地物距離画像の表示対象となる地物の種類等を指定する入力があった場合、システムコントローラ20は、指定された種類の地物のみを地物距離画像の表示対象にする。例えば、地物距離画像の表示対象を施設に定める入力があった場合、システムコントローラ20は、施設として地図データに登録されている地物から、地物距離画像の表示対象とする地物を選択する。 In addition, when there is an input for designating the type or the like of the feature that is the display target of the feature distance image, the system controller 20 sets only the specified type of feature as the display target of the feature distance image. For example, when there is an input to determine the display target of the feature distance image in the facility, the system controller 20 selects the feature to be displayed as the feature distance image from the features registered in the map data as the facility. To do.
(変形例4)
システムコントローラ20は、経路案内を実行中でない場合であっても、次の右左折地点を認識した場合には、当該右左折地点の周辺等にある地物に対する地物距離画像をヘッドアップディスプレイ2により表示してもよい。
(Modification 4)
Even when the route guidance is not being executed, when the next right / left turn point is recognized, the system controller 20 displays the feature distance image for the feature in the vicinity of the right / left turn point or the like in the head-up display 2. May be displayed.
図8は、同乗者が運転者に対して経路案内を口頭で行う場合の本変形例における処理の概要を示す図である。図8の例では、入力装置60は音声入力装置を含み、システムコントローラ20は、入力装置60から入力された音声データを解析することで、次の右左折地点を認識し、認識した右左折地点に応じた地物距離画像をヘッドアップディスプレイ2に表示させている。 FIG. 8 is a diagram illustrating an outline of processing in the present modification in the case where the passenger performs route guidance verbally to the driver. In the example of FIG. 8, the input device 60 includes a voice input device, and the system controller 20 recognizes the next right / left turn point by analyzing the voice data input from the input device 60, and recognizes the recognized right / left turn point. A feature distance image corresponding to the above is displayed on the head-up display 2.
まず、システムコントローラ20は、入力装置60から入力された音声データが示す発話内容から、距離に関わる単語を抽出する。図8の例では、システムコントローラ20は、公知の音声認識技術に基づき、「50m」という単語を認識する。この場合、システムコントローラ20は、車両Veが走行中の道路に沿って50m先の地点を基準として、実施例と同様に、地物距離画像を表示すべき地物を決定する。図8の例では、システムコントローラ20は、現在位置から50m先の交差点60の前後に存在する建物61及び信号機62を、地物距離画像の表示対象として認識し、これらに対応付けて地物距離画像71及び地物距離画像72をヘッドアップディスプレイ2に表示させている。 First, the system controller 20 extracts words related to the distance from the utterance content indicated by the voice data input from the input device 60. In the example of FIG. 8, the system controller 20 recognizes the word “50 m” based on a known voice recognition technique. In this case, the system controller 20 determines the feature on which the feature distance image is to be displayed in the same manner as in the embodiment, with a point 50 m ahead along the road on which the vehicle Ve is traveling. In the example of FIG. 8, the system controller 20 recognizes the buildings 61 and traffic lights 62 that exist before and after the intersection 60 that is 50 m ahead of the current position as display targets of the feature distance image, and associates them with the feature distances. An image 71 and a feature distance image 72 are displayed on the head-up display 2.
このように、本変形例によれば、システムコントローラ20は、経路案内を実行中でない場合であっても、次の右左折地点を認識した場合に、地物距離画像をヘッドアップディスプレイ2に表示させる。これにより、次の右左折地点の距離感を運転者に好適に掴ませることができる。本変形例では、システムコントローラ20は、本発明における「音声認識手段」の一例である。 As described above, according to this modification, the system controller 20 displays the feature distance image on the head-up display 2 when the next right / left turn point is recognized even when the route guidance is not being executed. Let As a result, the driver can properly grasp the sense of distance at the next right / left turn point. In this modification, the system controller 20 is an example of the “voice recognition unit” in the present invention.
(変形例5)
図3では、光源ユニット4は、フロントウィンドウ25に表示像を構成する光を出射し、当該光を運転者に向けて反射させることで、虚像Ivを表示させた。しかし、本発明が適用可能な構成は、これに限定されない。
(Modification 5)
In FIG. 3, the light source unit 4 displays the virtual image Iv by emitting light constituting the display image to the front window 25 and reflecting the light toward the driver. However, the configuration to which the present invention is applicable is not limited to this.
図9は、変形例に係るヘッドアップディスプレイ2Aの概略図を示す。図9に示すヘッドアップディスプレイ2Aは、虚像Ivを表示させるためのコンバイナ9を備える。図9に示すコンバイナ9は、天井部27に設置され、コンバイナ9よりも運転者側の天井部27に設置された光源ユニット4から出射される表示像が投影されると共に、表示像を運転者の目の位置へ反射することで当該表示像を虚像Ivとして表示させる。この構成であっても、ヘッドアップディスプレイ2Aは、運転者に対し、地物距離画像などの案内画像を虚像Ivとして好適に視認させることができる。 FIG. 9 shows a schematic diagram of a head-up display 2A according to a modification. The head-up display 2A shown in FIG. 9 includes a combiner 9 for displaying a virtual image Iv. The combiner 9 shown in FIG. 9 is installed on the ceiling 27, and a display image emitted from the light source unit 4 installed on the ceiling 27 closer to the driver than the combiner 9 is projected, and the display image is displayed to the driver. The display image is displayed as a virtual image Iv by reflection to the eye position. Even with this configuration, the head-up display 2 </ b> A can allow the driver to visually recognize a guide image such as a feature distance image as the virtual image Iv.
(変形例6)
ナビゲーション装置1は、ヘッドアップディスプレイ2に案内画像を表示するのに代えて、車両Veの前方を撮影するカメラが撮影した画像に重ねて、案内画像をディスプレイ44に表示させてもよい。この場合、表示システム100は、ヘッドアップディスプレイ2を有さず、ナビゲーション装置1及びカメラから構成されてもよい。また、この場合、ナビゲーション装置1は、例えば、表示部と背面カメラを備える携帯端末であってもよい。
(Modification 6)
Instead of displaying the guidance image on the head-up display 2, the navigation device 1 may display the guidance image on the display 44 so as to overlap the image captured by the camera that captures the front of the vehicle Ve. In this case, the display system 100 may not include the head-up display 2 but may include the navigation device 1 and the camera. In this case, the navigation device 1 may be a portable terminal including a display unit and a rear camera, for example.
(変形例7)
実施例で説明したシステムコントローラ20が実行する処理の一部を、光源ユニット4が実行してもよい。
(Modification 7)
The light source unit 4 may execute part of the processing executed by the system controller 20 described in the embodiment.
例えば、図5の処理を光源ユニット4が実行する場合、光源ユニット4は、経路情報及び現在位置情報等をナビゲーション装置1から受信することで、次の案内地点を認識する。そして、光源ユニット4は、次の案内地点までの距離及び当該案内地点での進行方向を示す案内画像を生成し、当該案内画像の表示光を射出する。また、光源ユニット4は、次の案内地点に所定距離以内に近付いた場合、ナビゲーション装置1から受信する現在位置周辺に関する地図データから、案内地点の周辺等に存在する地物を認識する。そして、光源ユニット4は、当該地物に対する地物距離画像を生成してフロントウィンドウ25に表示させる。 For example, when the light source unit 4 executes the process of FIG. 5, the light source unit 4 recognizes the next guide point by receiving route information, current position information, and the like from the navigation device 1. And the light source unit 4 produces | generates the guidance image which shows the distance to the next guidance point, and the advancing direction in the said guidance point, and inject | emits the display light of the said guidance image. In addition, when the light source unit 4 approaches the next guide point within a predetermined distance, the light source unit 4 recognizes a feature existing around the guide point from the map data about the current position received from the navigation device 1. Then, the light source unit 4 generates a feature distance image for the feature and displays it on the front window 25.
他の例では、光源ユニット4は、経路案内機能などのナビゲーション装置1の機能を全て有してもよい。この場合、光源ユニット4は、入力装置、自立測位装置、GPS受信機などを有し、ユーザが入力した目的地までの案内経路を決定して経路案内を行うと共に、図5に示す地物距離画像の表示処理を実行する。 In another example, the light source unit 4 may have all the functions of the navigation device 1 such as a route guidance function. In this case, the light source unit 4 includes an input device, a self-supporting positioning device, a GPS receiver, and the like, determines a guide route to the destination input by the user, and performs route guidance, and the feature distance shown in FIG. Executes image display processing.
さらに別の例では、光源ユニット4は、図示しないサーバ装置とネットワークを介して接続している場合には、当該サーバ装置から案内すべき経路情報や地図データなどを適宜受信してもよい。 In yet another example, when the light source unit 4 is connected to a server device (not shown) via a network, the light source unit 4 may appropriately receive route information, map data, and the like to be guided from the server device.
このように、本変形例では、光源ユニット4の制御部55は、本発明における「地点取得手段」、「地物抽出手段」、「表示制御手段」、「音声出力手段」及びプログラムを実行するコンピュータとして機能し、フロントウィンドウ25は、本発明における「表示手段」として機能する。 Thus, in the present modification, the control unit 55 of the light source unit 4 executes the “spot acquisition unit”, “feature extraction unit”, “display control unit”, “sound output unit”, and program according to the present invention. The front window 25 functions as a “display unit” in the present invention.
1 ナビゲーション装置
2、2A ヘッドアップディスプレイ
3 カメラ
4 光源ユニット
9 コンバイナ
25 フロントウィンドウ
28 ボンネット
29 ダッシュボード
100、100A 表示システム
DESCRIPTION OF SYMBOLS 1 Navigation apparatus 2, 2A Head-up display 3 Camera 4 Light source unit 9 Combiner 25 Front window 28 Bonnet 29 Dashboard 100, 100A Display system
Claims (9)
前記移動体が通過予定の指定地点を取得する地点取得手段と、
前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出手段と、
前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御手段と、
を備えることを特徴とする情報表示装置。 An information display device for displaying an image on a display unit so as to be superimposed on a landscape image obtained by capturing a landscape around a moving body or to be superimposed on the landscape.
Point acquisition means for acquiring a designated point where the moving object is scheduled to pass;
A feature extracting means for extracting features existing around the designated point from the map database;
Display control means for causing the display means to display distance information from the current position of the mobile body to the feature at a position corresponding to the feature included in the landscape;
An information display device comprising:
前記表示制御手段は、前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に表示させるとともに、前記移動体の現在位置から前記案内地点までの距離情報を、前記表示手段に表示させることを特徴とする請求項1に記載の情報表示装置。 The point acquisition means acquires a guide point included in the route to the destination as the designated point,
The display control means displays distance information to the feature at a position corresponding to the feature included in the landscape, and also displays distance information from the current position of the moving body to the guidance point. The information display apparatus according to claim 1, wherein the information display apparatus displays the information on a means.
前記地点取得手段は、前記経路に含まれる案内地点を指定地点として取得し、
前記表示制御手段は、前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に表示させるとともに、前記移動体の現在位置から前記案内地点までの距離情報を、前記音声出力手段より出力させることを特徴とする請求項1に記載の情報表示装置。 Voice output means for outputting information for guiding the route to the destination by voice;
The point acquisition means acquires a guide point included in the route as a designated point,
The display control means displays distance information to the feature at a position corresponding to the feature included in the landscape, and displays the distance information from the current position of the moving body to the guide point as the voice. 2. The information display device according to claim 1, wherein the information is output from an output means.
前記地点取得手段は、前記音声に含まれる距離に関連する情報に基づいて、前記指定地点を取得することを特徴とする請求項1に記載の情報表示装置。 Voice recognition means for recognizing information related to the distance included in the voice uttered by the passenger of the mobile body;
The information display apparatus according to claim 1, wherein the point acquisition unit acquires the designated point based on information related to a distance included in the voice.
前記移動体が通過予定の指定地点を取得する地点取得工程と、
前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出工程と、
前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御工程と、
を有することを特徴とする制御方法。 A control method executed by an information display apparatus that causes a display unit to display an image so as to overlap a landscape image obtained by capturing a landscape around a moving body or to overlap the landscape in appearance,
A point acquisition step in which the mobile object acquires a designated point scheduled to pass; and
A feature extraction step of extracting features existing around the designated point from the map database;
A display control step of displaying distance information from the current position of the moving body to the feature on the display unit at a position corresponding to the feature included in the landscape;
A control method characterized by comprising:
前記移動体が通過予定の指定地点を取得する地点取得手段と、
前記指定地点の周辺に存在する地物を地図データベースから抽出する地物抽出手段と、
前記移動体の現在位置から前記地物までの距離情報を、前記風景に含まれる前記地物と対応する位置に、前記表示手段に表示させる表示制御手段
として前記コンピュータを機能させることを特徴とするプログラム。 A program executed by a computer that causes a display unit to display an image so as to be superimposed on a landscape image obtained by capturing a landscape around a moving object or to be superimposed on the landscape.
Point acquisition means for acquiring a designated point where the moving object is scheduled to pass;
A feature extracting means for extracting features existing around the designated point from the map database;
The computer is caused to function as display control means for causing the display means to display distance information from the current position of the moving body to the feature at a position corresponding to the feature included in the landscape. program.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014228311A JP6627214B2 (en) | 2014-11-10 | 2014-11-10 | Information display device, control method, program, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014228311A JP6627214B2 (en) | 2014-11-10 | 2014-11-10 | Information display device, control method, program, and storage medium |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2016090515A true JP2016090515A (en) | 2016-05-23 |
| JP2016090515A5 JP2016090515A5 (en) | 2017-06-22 |
| JP6627214B2 JP6627214B2 (en) | 2020-01-08 |
Family
ID=56018411
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2014228311A Active JP6627214B2 (en) | 2014-11-10 | 2014-11-10 | Information display device, control method, program, and storage medium |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6627214B2 (en) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017223567A (en) * | 2016-06-16 | 2017-12-21 | 三菱電機株式会社 | Mobile terminal with popup information function and popup information system |
| JP2018173315A (en) * | 2017-03-31 | 2018-11-08 | アイシン・エィ・ダブリュ株式会社 | Display device |
| JP2020506387A (en) * | 2017-02-02 | 2020-02-27 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | Method for locating a more highly automated, eg, highly automated vehicle (HAF) with a digital location map |
| WO2021095198A1 (en) * | 2019-11-14 | 2021-05-20 | 三菱電機株式会社 | Meetup assistance device and meetup assistance method |
| WO2021124641A1 (en) * | 2019-12-20 | 2021-06-24 | Nsウエスト株式会社 | Display light emitting device |
| JP2022063276A (en) * | 2017-06-30 | 2022-04-21 | パナソニックIpマネジメント株式会社 | Display system and control method of display system |
Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002277271A (en) * | 2001-03-16 | 2002-09-25 | Aisin Aw Co Ltd | Navigation apparatus |
| JP2004350006A (en) * | 2003-05-22 | 2004-12-09 | Nec Corp | Guide information providing method, server, guide information display, guide information providing program, and guide information display control program |
| JP2005207777A (en) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | Image display apparatus, method, and program for vehicle |
| JP2006119120A (en) * | 2004-09-27 | 2006-05-11 | Denso Corp | Car navigation system |
| JP2007256048A (en) * | 2006-03-23 | 2007-10-04 | Matsushita Electric Ind Co Ltd | Navigation device |
| WO2009014081A1 (en) * | 2007-07-23 | 2009-01-29 | Clarion Co., Ltd. | Navigation device |
| JP2009025675A (en) * | 2007-07-23 | 2009-02-05 | Clarion Co Ltd | Navigation system |
| JP2010008162A (en) * | 2008-06-25 | 2010-01-14 | Denso It Laboratory Inc | Surrounding information displaying device and surrounding information displaying method |
| JP2013044637A (en) * | 2011-08-24 | 2013-03-04 | Alpine Electronics Inc | Navigation device |
| WO2013054375A1 (en) * | 2011-10-12 | 2013-04-18 | 三菱電機株式会社 | Navigation device, method and program |
| JP2013079930A (en) * | 2012-02-07 | 2013-05-02 | Pioneer Electronic Corp | Head-up display, control method, and display device |
| WO2013136453A1 (en) * | 2012-03-13 | 2013-09-19 | パイオニア株式会社 | Display information generation device, display information generation method, program for display information generation, and information recording medium |
| JP2014013989A (en) * | 2012-07-04 | 2014-01-23 | Alpine Electronics Inc | Augmented reality system |
-
2014
- 2014-11-10 JP JP2014228311A patent/JP6627214B2/en active Active
Patent Citations (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002277271A (en) * | 2001-03-16 | 2002-09-25 | Aisin Aw Co Ltd | Navigation apparatus |
| JP2004350006A (en) * | 2003-05-22 | 2004-12-09 | Nec Corp | Guide information providing method, server, guide information display, guide information providing program, and guide information display control program |
| JP2005207777A (en) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | Image display apparatus, method, and program for vehicle |
| JP2006119120A (en) * | 2004-09-27 | 2006-05-11 | Denso Corp | Car navigation system |
| JP2007256048A (en) * | 2006-03-23 | 2007-10-04 | Matsushita Electric Ind Co Ltd | Navigation device |
| WO2009014081A1 (en) * | 2007-07-23 | 2009-01-29 | Clarion Co., Ltd. | Navigation device |
| JP2009025675A (en) * | 2007-07-23 | 2009-02-05 | Clarion Co Ltd | Navigation system |
| JP2010008162A (en) * | 2008-06-25 | 2010-01-14 | Denso It Laboratory Inc | Surrounding information displaying device and surrounding information displaying method |
| JP2013044637A (en) * | 2011-08-24 | 2013-03-04 | Alpine Electronics Inc | Navigation device |
| WO2013054375A1 (en) * | 2011-10-12 | 2013-04-18 | 三菱電機株式会社 | Navigation device, method and program |
| JP2013079930A (en) * | 2012-02-07 | 2013-05-02 | Pioneer Electronic Corp | Head-up display, control method, and display device |
| WO2013136453A1 (en) * | 2012-03-13 | 2013-09-19 | パイオニア株式会社 | Display information generation device, display information generation method, program for display information generation, and information recording medium |
| JP2014013989A (en) * | 2012-07-04 | 2014-01-23 | Alpine Electronics Inc | Augmented reality system |
Cited By (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017223567A (en) * | 2016-06-16 | 2017-12-21 | 三菱電機株式会社 | Mobile terminal with popup information function and popup information system |
| JP2020506387A (en) * | 2017-02-02 | 2020-02-27 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | Method for locating a more highly automated, eg, highly automated vehicle (HAF) with a digital location map |
| US11120281B2 (en) | 2017-02-02 | 2021-09-14 | Robert Bosch Gmbh | Method for localizing a more automated, e.g., highly automated vehicle (HAV) in a digital localization map |
| JP2018173315A (en) * | 2017-03-31 | 2018-11-08 | アイシン・エィ・ダブリュ株式会社 | Display device |
| JP2022063276A (en) * | 2017-06-30 | 2022-04-21 | パナソニックIpマネジメント株式会社 | Display system and control method of display system |
| JP7266257B2 (en) | 2017-06-30 | 2023-04-28 | パナソニックIpマネジメント株式会社 | DISPLAY SYSTEM AND METHOD OF CONTROLLING DISPLAY SYSTEM |
| WO2021095198A1 (en) * | 2019-11-14 | 2021-05-20 | 三菱電機株式会社 | Meetup assistance device and meetup assistance method |
| JPWO2021095198A1 (en) * | 2019-11-14 | 2021-05-20 | ||
| JP2021098411A (en) * | 2019-12-20 | 2021-07-01 | Nsウエスト株式会社 | Display light emission device |
| CN114845899A (en) * | 2019-12-20 | 2022-08-02 | Ns西日本株式会社 | Display light emitting device |
| WO2021124641A1 (en) * | 2019-12-20 | 2021-06-24 | Nsウエスト株式会社 | Display light emitting device |
| US12078503B2 (en) | 2019-12-20 | 2024-09-03 | Ns West Inc. | Display light emitting device |
| JP7545205B2 (en) | 2019-12-20 | 2024-09-04 | Nsウエスト株式会社 | Display light emitting device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6627214B2 (en) | 2020-01-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6627214B2 (en) | Information display device, control method, program, and storage medium | |
| JPWO2017056210A1 (en) | Vehicle display device | |
| JP2015172548A (en) | Display control device, control method, program, and recording medium | |
| US20140156181A1 (en) | Navigation device, navigation method, and navigation program | |
| JP5735658B2 (en) | Display device and display method | |
| JP2015128956A (en) | Head-up display, control method, program and storage medium | |
| WO2015045112A1 (en) | Driving-assistance apparatus, control method, program, and storage medium | |
| JP5795386B2 (en) | Display device and control method | |
| JP2015141155A (en) | virtual image display device, control method, program, and storage medium | |
| JP2018128466A (en) | Navigation device, head-up display, control method, program, and storage medium | |
| JP6444508B2 (en) | Display control device and navigation device | |
| JP2008039596A (en) | System, method, program for providing information and memory medium | |
| WO2015114807A1 (en) | Virtual image display, control method, program, and storage medium | |
| JP2023120221A (en) | Head-up display, control method, program, and storage medium | |
| WO2014076841A1 (en) | Display apparatus, control method, program, and recording medium | |
| JP5702476B2 (en) | Display device, control method, program, storage medium | |
| CN102564446B (en) | For vehicle driver determines the method and apparatus that destination navigation is pointed out | |
| JP2015152467A (en) | display control device, control method, program, and storage medium | |
| JP6401925B2 (en) | Virtual image display device, control method, program, and storage medium | |
| WO2013069141A1 (en) | Head-up display, display method, and guide device | |
| JP2016176962A (en) | Display device, head-up display, control method, program, and storage medium | |
| WO2014192135A1 (en) | Display device, display method and display program | |
| JP6058123B2 (en) | Display device, control method, program, and storage medium | |
| JP2014235054A (en) | Display device, method, and program | |
| JP2018158725A (en) | Head-up display, control method, program and storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170508 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171010 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180719 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180904 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190514 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190723 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191011 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191105 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191118 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6627214 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |