JP2018190410A - 拡張現実を用いた車線案内 - Google Patents
拡張現実を用いた車線案内 Download PDFInfo
- Publication number
- JP2018190410A JP2018190410A JP2018083353A JP2018083353A JP2018190410A JP 2018190410 A JP2018190410 A JP 2018190410A JP 2018083353 A JP2018083353 A JP 2018083353A JP 2018083353 A JP2018083353 A JP 2018083353A JP 2018190410 A JP2018190410 A JP 2018190410A
- Authority
- JP
- Japan
- Prior art keywords
- data
- vehicle
- driver
- boundary line
- lane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3658—Lane guidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Controls And Circuits For Display Device (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Instrument Panels (AREA)
Abstract
Description
本出願は、「AUGMENTED REALITY FOR VEHICLE LANE GUIDANCE」と題し、2017年5
月9日に出願された米国特許出願第15/591,100号の優先権を主張する。これらの特許出願は、その全体が参照によって本願明細書に援用される。
動作を行うように構成することができる。
AR視覚装置がARゴーグルと3D−HUDのうちの少なくとも1つである方法。
車両の運転者が車線境界線を識別できることを環境データが示しているかどうかの判定がオブジェクト事前情報の使用に基づくものである方法。
運転者が車線境界線を識別できることを環境データが示していることに応答して、所定の時間量が経過したかどうか判定するステップと、所定の時間量が経過したことに応答して、車両の運転者が道路上の車線境界線を識別できることを環境データが示しているかどうか判定するステップとをさらに含む方法。
環境データおよびGPSデータから境界線データを生成するステップが、狭域通信(本明細書では「DSRC」という)準拠のGPSユニットから車両の現在位置のGPSデータを取得するステップと、地理的領域の車線境界線を記述する車線マップの現在位置のGPSデータに対応する部分を決定するステップと、車線マップの部分に基づいて境界線データを生成するステップと、を含む方法。
(1)外部センサから受信した環境データ、(2)車両のDSRC準拠のGPSユニットから受信したGPSデータ、および(3)位置推定マップのうちの1つまたは複数に基づいて車両の現在位置を決定するステップをさらに含む方法。
AR視覚装置にグラフィックオーバーレイを表示するよう命令しないと決定したことに応答して、所定の時間量が経過したかどうか判定するステップと、所定の時間量が経過したことに応答して、AR視覚装置と関連付けられた頭部位置データに基づいて、AR視覚装置にグラフィックオーバーレイを表示するよう命令するかどうか決定するステップとをさらに含む方法。
運転者が現在危険にさらされているかどうか判定するステップと、運転者が現在危険にさらされていると判定したことに応答して、運転者のための警告、および警告を表示するよう求めるAR視覚装置への命令を生成するステップとをさらに含む方法。
ARデータをAR視覚装置と関連付けられたバッファに格納するステップをさらに含む方法。
、AR視覚装置と関連付けられた頭部位置データに基づいて、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令するかどうか決定させ、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令すると決定したことに応答して、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令させる、車載コンピュータシステムと、車載コンピュータシステムに結合されたAR視覚装置であって、車載コンピュータシステムから車線境界線を描写するグラフィックオーバーレイを受信し、車線境界線を描写するグラフィックオーバーレイを表示するように動作する、AR視覚装置と、を含む。
AR視覚装置がARゴーグルと3D−HUDのうちの少なくとも1つであるシステム。
コードが、車載コンピュータシステムによって実行された場合に、車載コンピュータシステムに、運転者が車線境界線を識別できることを環境データが示していることに応答して、所定の時間量が経過したかどうか判定させ、所定の時間量が経過したことに応答して、車両の運転者が道路上の車線境界線を識別できることを環境データが示しているかどうか判定させる、システム。
環境データおよびGPSデータから境界線データを生成することが、DSRC準拠のGPSユニットから車両の現在位置のGPSデータを取得することと、地理的領域の車線境界線を記述する車線マップの現在位置のGPSデータに対応する部分を決定することと、車線マップの部分に基づいて境界線データを生成することと、含む、システム。
車載コンピュータシステムによって実行された場合に、車載コンピュータシステムに、(1)外部センサから受信した環境データ、(2)車両のDSRC準拠のGPSユニットから受信したGPSデータ、および(3)位置推定マップのうちの1つまたは複数に基づいて車両の現在位置を決定させる追加的なコードを車載コンピュータシステムが含む、システム。
コンピュータ実行可能コードが車載コンピュータシステムに、運転者が車線境界線を識別できることを環境データが示していることに応答して、所定の時間量が経過したかどうか判定させ、所定の時間量が経過したことに応答して、車両の運転者が道路上の車線境界線を識別できることを環境データが示しているかどうか判定させる、コンピュータプログラム製品。
環境データおよびGPSデータから境界線データを生成することが、DSRC準拠のGPSユニットから車両の現在位置のGPSデータを取得することと、地理的領域の車線境界線を記述する車線マップの現在位置のGPSデータに対応する部分を決定することと、車線マップの部分に基づいて境界線データを生成することと、を含む、コンピュータプロ
グラム製品。
コンピュータ実行可能コードが車載コンピュータシステムに、(1)外部センサから受信した環境データ、(2)車両のDSRC準拠のGPSユニットから受信したGPSデータ、および(3)位置推定マップのうちの1つまたは複数に基づいて車両の現在位置を決定させる、コンピュータプログラム製品。
コンピュータ実行可能コードが車載コンピュータシステムに、AR視覚装置にグラフィックオーバーレイを表示するよう命令しないと決定したことに応答して、所定の時間量が経過したかどうか判定させ、所定の時間量が経過したことに応答して、AR視覚装置と関連付けられた頭部位置データに基づいて、AR視覚装置にグラフィックオーバーレイを表示するよう命令するかどうか決定させる、コンピュータプログラム製品。
センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定ステップと、前記判定ステップにて、前記車両の運転者が前記車線境界線を識別できないと判定された場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成ステップと、前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成ステップと、前記ARデータを前記AR視覚装置に提供する提供ステップと、前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示ステップと、を含むことを特徴とする。
また、前記車両の現在位置を取得する位置取得ステップをさらに含み、前記第一の生成ステップでは、車線境界線の位置情報が記録された車線マップから、前記車両の現在位置に対応する情報を抽出し、前記情報に基づいて前記境界線データを生成することを特徴としてもよい。
また、前記位置取得ステップでは、DSRC準拠のGPSユニットを用いて前記車両の現在位置を取得することを特徴としてもよい。
また、前記位置取得ステップでは、道路をセンシングして得られた情報をさらに用いて前記車両の現在位置を取得することを特徴としてもよい。
また、前記第一の生成ステップでは、道路をセンシングして得られた情報をさらに加味して前記境界線データを生成することを特徴としてもよい。
また、前記提供ステップでは、前記表示ステップが行った判断の内容にかかわらず、前記ARデータを前記AR視覚装置のバッファに格納することを特徴としてもよい。
センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定手段と、前記判定手段が、前記車両の運転者が前記車線境界線を識別できないと判定した場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成手段と、前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成手段と、前記ARデータを前記AR視覚装置に提供する提供手段と、前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示手段と、を有することを特徴とする。
ARと仮想現実(VR)は同じものではない。VRでは、ユーザは、外界を見ることができないVRゴーグルセットと、VRゴーグルセットが表示する画像に対応する音声を提供するヘッドフォンとを着用する。その考え方は、ユーザが現実世界を完全に忘れるようにユーザをVR世界に没頭させることである。
図1を参照すると、いくつかの実施形態による車両123のARシステム199のための動作環境100が示されている。動作環境100は、車両123およびサーバ107のうちの1つまたは複数を含む。これらの要素は、ネットワーク105を介して相互に通信可能に結合されていてよい。図1には、1台の車両123、1台のサーバ107、および1つのネットワーク105が示されているが、実際には動作環境100は、1台または複数の車両123、1台または複数のサーバ107、および1つまたは複数のネットワーク105を含んでいてよい。
いくつかの実施形態では、プロセッサ125およびメモリ127は、車載コンピュータシステム(図2に関連して以下で説明するコンピュータシステム200など)の要素である。車載コンピュータシステムはARシステム199の動作を行わせ、または制御するように動作することができる。車載コンピュータシステムは、メモリ127に格納されたデ
ータにアクセスし、データを実行して、ARシステム199またはARシステム199の要素(例えば、図2参照)について本明細書に記載する機能を提供するように動作することができる。車載コンピュータシステムは、車載コンピュータシステムに、図7に関連して後述する方法700のステップのうちの1つまたは複数を実行させるARシステム199を実行するように動作することができる。
)・デバイス、スタティック・ランダム・アクセス・メモリ(SRAM)・デバイス、フラッシュメモリ、または何らかの他のメモリデバイスとすることができる。いくつかの実施形態では、メモリ127は、ハード・ディスク・ドライブ、フロッピー・ディスク・ドライブ、CD−ROMデバイス、DVD−ROMデバイス、DVD−RAMデバイス、DVD−RWデバイス、フラッシュ・メモリ・デバイス、またはより永続的に情報を格納するための何らかの他の大容量記憶装置を含む、不揮発性メモリまたは類似した永続記憶装置および媒体も含む。メモリ127の一部分が、バッファまたは仮想ランダム・アクセス・メモリ(仮想RAM)として使用するために確保されてもよい。車両123は1つまたは複数のメモリ127を含むことができる。
きを記述する。例えば、頭部位置データ189は、ロール座標、ピッチ座標およびヨー座標を有する回転ベクトルを含む。ARシステム199は、頭部位置データ189に基づいて、運転者がどこを見ているか、およびどのようにしてAR視覚装置198に車線境界線を含むオーバーレイを位置決めするよう命令するかを決定する。
RTTT applications(review);2014年8月28日に出願された、「Full−Duplex Coordination System」という名称の米国特許出願第14/471387号明細書(以下、387号明細書)に記載されている通信方法;または別の適切な無線通信方法。
納することができる。
いくつかの実施形態では、サーバ107は、ARマネージャ194、メモリ127B、プロセッサ125B、および通信ユニット145Bを含むクラウドサーバである。メモリ127は、この特定の車両123の運転者が通常は利用できないはずの新しい車両機能または異なる車両機能をARシステム199およびAR視覚装置198が車両123に提供するのに必要な任意のデータを格納する。例えば、メモリ127は、地理的領域における車線境界線を記述する車線マップデータ185を含む。ARシステム199は車線マップデータ185を生成することができるが、ARシステム199が車線マップデータ185を同時に生成する必要がなければ、ARシステム199は車線境界線を描写するグラフィックオーバーレイをより速く生成することができる。
次に図2を参照すると、いくつかの実施形態によるARシステム199を含むコンピュータシステムの例200を示すブロック図が描かれている。
ス可能、実行可能とすることができる。可視性モジュール204は、信号線224を介してプロセッサ125およびコンピュータシステム200の他の構成要素と協働し、通信するように適応させることができる。
ュール206は、GPSデータなどのDSRC準拠のGPSユニット150から受信したGPSデータ186を使用して、道路上の車両123の位置の初期推定値を決定することができる。位置推定モジュール206は、環境データ184および位置推定マップに基づいて道路上の車両123の位置を修正することができる。位置推定マップは、道路インフラストラクチャの3D形状や道路塗料または反射器の位置など、道路に関する3D情報を含むことができる。位置推定モジュール206は、環境データ184と位置推定マップとの間の偏差を計算することによって車両123の位置を修正し、その偏差を使用して車両123の現在位置を決定することができる。
できる。
は所定の時間量だけ待機してから決定するステップを再度行う。例えば、頭部位置モジュール210は、頭部位置モジュール210がAR視覚装置198に、車線境界線を描写するグラフィックオーバーレイを表示するよう命令すると決定するまで、2秒ごと(または1秒ごと、1ミリ秒ごとなど)に決定ループを行う。
図6を参照すると、AR視覚装置198が3D−HUDである実施形態におけるAR視覚装置198を示すブロック図が示されている。
現実世界の3次元空間に存在する現実物体(611a、611bとして示す)であるかのように、運転者610に知覚される。
次に図7を参照すると、いくつかの実施形態によるARシステム199を使用して車両に新しい車両機能または異なる車両機能を提供するための方法の例700の流れ図が示されている。車両機能は、図1に関連して上述した車両123の構成要素によって提供されてもよい。
データ188は、AR視覚装置198に車線境界線を表示させるグラフィックデータを記述する。AR視覚装置198は、ARゴーグルまたは3D−HUDを含むことができる。ステップ725で、AR視覚装置198はARデータ188を提供される。
しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気または光学式カード、USBキーを含む不揮発性フラッシュメモリ、電子的命令を格納するために適した任意のタイプの媒体などの、非一時的なコンピュータ可読記憶媒体に記憶される。
ュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。さらに、当業者であれば、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できることを理解できるであろう。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、どのような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、本発明の実装は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。以上のように、上記の本発明の説明は限定的なものではなく例示的なものであり、本発明の範囲は添付の特許請求の範囲にしたがって定められる。
123 車両
125 プロセッサ
127 メモリ
145 通信ユニット
150 DSRC準拠のGPSユニット
155 外部センサ
159 内部センサ
180 ADASシステム
184 環境データ
185 車線マップデータ
186 GPSデータ
187 境界線データ
188 ARデータ
189 頭部位置データ
194 ARマネージャ
198 AR視覚装置
199 ARシステム
Claims (9)
- センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定ステップと、
前記判定ステップにて、前記車両の運転者が前記車線境界線を識別できないと判定された場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成ステップと、
前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成ステップと、
前記ARデータを前記AR視覚装置に提供する提供ステップと、
前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示ステップと、
を含む方法。 - 前記表示ステップでは、前記運転者の頭部位置に基づいて、前記運転者が前記AR視覚装置を通して視認できる車線境界線の部分のみを前記AR視覚装置に表示させる、
請求項1に記載の方法。 - 前記車両の現在位置を取得する位置取得ステップをさらに含み、
前記第一の生成ステップでは、車線境界線の位置情報が記録された車線マップから、前記車両の現在位置に対応する情報を抽出し、前記情報に基づいて前記境界線データを生成する、
請求項1または2に記載の方法。 - 前記位置取得ステップでは、DSRC準拠のGPSユニットを用いて前記車両の現在位置を取得する、
請求項3に記載の方法。 - 前記位置取得ステップでは、道路をセンシングして得られた情報をさらに用いて前記車両の現在位置を取得する、
請求項4に記載の方法。 - 前記第一の生成ステップでは、道路をセンシングして得られた情報をさらに加味して前記境界線データを生成する、
請求項3から5のいずれかに記載の方法。 - 前記提供ステップでは、前記表示ステップが行った判断の内容にかかわらず、前記ARデータを前記AR視覚装置のバッファに格納する、
請求項1から6のいずれかに記載の方法。 - 請求項1から7のいずれかに記載の方法をコンピュータに実行させるためのプログラム。
- センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定手段と、
前記判定手段が、前記車両の運転者が前記車線境界線を識別できないと判定した場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成手段と、
前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成手段と、
前記ARデータを前記AR視覚装置に提供する提供手段と、
前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示手段と、
を有するシステム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/591,100 US10168174B2 (en) | 2017-05-09 | 2017-05-09 | Augmented reality for vehicle lane guidance |
| US15/591,100 | 2017-05-09 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2018190410A true JP2018190410A (ja) | 2018-11-29 |
| JP6844581B2 JP6844581B2 (ja) | 2021-03-17 |
Family
ID=63962485
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018083353A Active JP6844581B2 (ja) | 2017-05-09 | 2018-04-24 | 拡張現実を用いた車線案内 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US10168174B2 (ja) |
| JP (1) | JP6844581B2 (ja) |
| DE (1) | DE102018110971A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109931944A (zh) * | 2019-04-02 | 2019-06-25 | 百度在线网络技术(北京)有限公司 | 一种ar导航方法、装置、车端设备、服务端及介质 |
| JPWO2020202356A1 (ja) * | 2019-03-29 | 2020-10-08 | ||
| WO2021020033A1 (ja) * | 2019-07-29 | 2021-02-04 | 株式会社デンソー | 表示制御装置、表示制御方法、および表示制御プログラム |
| WO2024080419A1 (ko) * | 2022-10-14 | 2024-04-18 | 엘지전자 주식회사 | 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치 |
Families Citing this family (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12403932B2 (en) * | 2016-06-21 | 2025-09-02 | Robert C. Brasher | Autonomous vehicle navigation of bypass merge lanes |
| CN110892233B (zh) | 2017-05-22 | 2024-06-21 | Drnc控股公司 | 用于传感器范围和视场的车载增强可视化的方法和装置 |
| US10580302B2 (en) | 2017-06-30 | 2020-03-03 | Toyota Jidosha Kabushiki Kaisha | Optimization of a motion profile for a vehicle |
| US10838420B2 (en) * | 2017-07-07 | 2020-11-17 | Toyota Jidosha Kabushiki Kaisha | Vehicular PSM-based estimation of pedestrian density data |
| CN110019580B (zh) * | 2017-08-25 | 2022-07-12 | 腾讯科技(深圳)有限公司 | 地图显示方法、装置、存储介质及终端 |
| US10588009B2 (en) * | 2017-10-27 | 2020-03-10 | Toyota Jidosha Kabushiki Kaisha | PSM message-based device discovery for a vehicular mesh network |
| US10843689B2 (en) * | 2018-06-13 | 2020-11-24 | Toyota Jidosha Kabushiki Kaisha | Collision avoidance for a connected vehicle based on a digital behavioral twin |
| US10870351B2 (en) * | 2018-12-12 | 2020-12-22 | Here Global B.V. | Method and apparatus for augmented reality based on localization and environmental conditions |
| CN109668575A (zh) * | 2019-01-29 | 2019-04-23 | 苏州车萝卜汽车电子科技有限公司 | 用于增强现实抬头显示装置的导航信息处理方法及装置、设备、系统 |
| DE102019202583A1 (de) * | 2019-02-26 | 2020-08-27 | Volkswagen Aktiengesellschaft | Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem |
| CN110455298B (zh) * | 2019-08-14 | 2022-02-08 | 灵动科技(北京)有限公司 | 车辆用定位方法及定位系统 |
| CN110619674B (zh) * | 2019-08-15 | 2020-12-04 | 重庆特斯联智慧科技股份有限公司 | 用于事故和警情场景还原的三维增强现实设备及方法 |
| US11514273B2 (en) * | 2019-09-19 | 2022-11-29 | Ford Global Technologies, Llc | Vehicle debris strike mitigation |
| CN112558299A (zh) * | 2019-09-26 | 2021-03-26 | 光宝电子(广州)有限公司 | 用于扩充实境的抬头显示装置 |
| KR20210097869A (ko) | 2020-01-30 | 2021-08-10 | 현대자동차주식회사 | 이동체에서 주행 가이드 라인 제어 방법 및 장치 |
| CN111272182B (zh) * | 2020-02-20 | 2021-05-28 | 武汉科信云图信息技术有限公司 | 采用区块链数据库的地图绘制系统 |
| US11562576B2 (en) * | 2020-08-05 | 2023-01-24 | GM Global Technology Operations LLC | Dynamic adjustment of augmented reality image |
| KR20220037026A (ko) | 2020-09-16 | 2022-03-24 | 현대자동차주식회사 | 증강 현실 기반의 정보 표시 장치 |
| CN115617156A (zh) * | 2021-07-16 | 2023-01-17 | 逸驾智能科技有限公司 | 用于信息显示的方法、装置、设备和计算机可读存储介质 |
| TWI804956B (zh) * | 2021-08-23 | 2023-06-11 | 久秉實業股份有限公司 | 能指示正確車道的導航系統及方法 |
| KR20230074360A (ko) * | 2021-11-19 | 2023-05-30 | 현대자동차주식회사 | 차량 및 그 제어 방법 |
| CN114212079B (zh) * | 2022-02-18 | 2022-05-20 | 国汽智控(北京)科技有限公司 | 基于acc的车辆控制方法、装置及系统 |
| US11766938B1 (en) * | 2022-03-23 | 2023-09-26 | GM Global Technology Operations LLC | Augmented reality head-up display for overlaying a notification symbol over a visually imperceptible object |
| US20230358558A1 (en) * | 2022-05-03 | 2023-11-09 | Here Global B.V. | Method, apparatus, and system for determining a lane marking confusion index based on lane confusion event detections |
| US12246597B2 (en) * | 2022-05-18 | 2025-03-11 | Regents Of The University Of Minnesota | Snowplow driver assist system |
| FR3142405A1 (fr) * | 2022-11-28 | 2024-05-31 | Psa Automobiles Sa | Procédé et dispositif d’affichage en temps réel d’une image de synthèse de l’environnement d’un véhicule automobile |
| JP2024084885A (ja) * | 2022-12-14 | 2024-06-26 | フォルシアクラリオン・エレクトロニクス株式会社 | 表示制御装置及び表示制御方法 |
| CN120029468B (zh) * | 2025-04-22 | 2025-08-12 | 北京视游互动科技有限公司 | 一种基于yts引擎的双光路车载arhud系统的数据处理方法 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006350617A (ja) * | 2005-06-15 | 2006-12-28 | Denso Corp | 車両用走行支援装置 |
| US20140091989A1 (en) * | 2009-04-02 | 2014-04-03 | GM Global Technology Operations LLC | Peripheral salient feature enhancement on full-windshield head-up display |
| JP2015210764A (ja) * | 2014-04-30 | 2015-11-24 | 日産自動車株式会社 | 走行車線認識装置、走行車線認識方法 |
| JP2016511860A (ja) * | 2013-01-06 | 2016-04-21 | アイオンロード テクノロジーズ リミテッドIonroad Technologies Ltd. | 運転サポート |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5708449B2 (ja) | 2011-11-08 | 2015-04-30 | アイシン・エィ・ダブリュ株式会社 | レーン案内表示システム、方法およびプログラム |
| EP2807454A4 (en) | 2012-01-26 | 2015-08-19 | Telecomm Systems Inc | NAVIGATION GUIDANCE |
| DE112013007344T5 (de) * | 2013-08-19 | 2016-05-04 | Mitsubishi Electric Corporation | Fahrzeugmontierte Anzeigesteuervorrichtung |
| US9031758B1 (en) * | 2014-03-04 | 2015-05-12 | Nissan North America, Inc. | On-board vehicle control system and method for determining whether a vehicle is within a geographical area of interest |
| KR101714185B1 (ko) * | 2015-08-05 | 2017-03-22 | 엘지전자 주식회사 | 차량 운전 보조장치 및 이를 포함하는 차량 |
-
2017
- 2017-05-09 US US15/591,100 patent/US10168174B2/en active Active
-
2018
- 2018-04-24 JP JP2018083353A patent/JP6844581B2/ja active Active
- 2018-05-08 DE DE102018110971.7A patent/DE102018110971A1/de active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006350617A (ja) * | 2005-06-15 | 2006-12-28 | Denso Corp | 車両用走行支援装置 |
| US20140091989A1 (en) * | 2009-04-02 | 2014-04-03 | GM Global Technology Operations LLC | Peripheral salient feature enhancement on full-windshield head-up display |
| JP2016511860A (ja) * | 2013-01-06 | 2016-04-21 | アイオンロード テクノロジーズ リミテッドIonroad Technologies Ltd. | 運転サポート |
| JP2015210764A (ja) * | 2014-04-30 | 2015-11-24 | 日産自動車株式会社 | 走行車線認識装置、走行車線認識方法 |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2020202356A1 (ja) * | 2019-03-29 | 2020-10-08 | ||
| WO2020202356A1 (ja) * | 2019-03-29 | 2020-10-08 | 本田技研工業株式会社 | 情報提供装置、情報共有システム、プログラムおよび情報提供方法 |
| JP7137692B2 (ja) | 2019-03-29 | 2022-09-14 | 本田技研工業株式会社 | 情報提供装置、情報共有システム、プログラムおよび情報提供方法 |
| CN109931944A (zh) * | 2019-04-02 | 2019-06-25 | 百度在线网络技术(北京)有限公司 | 一种ar导航方法、装置、车端设备、服务端及介质 |
| WO2021020033A1 (ja) * | 2019-07-29 | 2021-02-04 | 株式会社デンソー | 表示制御装置、表示制御方法、および表示制御プログラム |
| JP2021022229A (ja) * | 2019-07-29 | 2021-02-18 | 株式会社デンソー | 表示制御装置、表示制御方法、および表示制御プログラム |
| JP7001085B2 (ja) | 2019-07-29 | 2022-01-19 | 株式会社デンソー | 表示制御装置、表示制御方法、および表示制御プログラム |
| WO2024080419A1 (ko) * | 2022-10-14 | 2024-04-18 | 엘지전자 주식회사 | 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6844581B2 (ja) | 2021-03-17 |
| US20180328752A1 (en) | 2018-11-15 |
| US10168174B2 (en) | 2019-01-01 |
| DE102018110971A1 (de) | 2018-11-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6844581B2 (ja) | 拡張現実を用いた車線案内 | |
| JP6428876B2 (ja) | 車載拡張現実システム向けの遮蔽調整システム | |
| JP7200832B2 (ja) | デジタル行動ツインに基づくコネクティッド車両のための衝突回避 | |
| US10083547B1 (en) | Traffic situation awareness for an autonomous vehicle | |
| JP6801701B2 (ja) | 高度自律車両向けの経路選択方法、および車両 | |
| EP3309640B1 (en) | Group driving style learning framework for autonomous vehicles | |
| US11758111B2 (en) | 3D lidar system using a dichroic mirror for autonomous driving vehicles | |
| US10366473B2 (en) | Providing traffic mirror content to a driver | |
| US10452930B2 (en) | Information display device mounted in vehicle including detector | |
| US10527849B2 (en) | Augmented reality vehicular assistance for color blindness | |
| JP6402684B2 (ja) | 表示装置 | |
| EP2990936A1 (en) | Communication of spatial information based on driver attention assessment | |
| EP3690396B1 (en) | Method and device for providing advanced pedestrian assistance system to protect pedestrian distracted by their smartphone | |
| JP2019212297A (ja) | 車線変更タイミングインジケータ | |
| CN117836828A (zh) | 基于预测的驾驶员辅助系统和方法 | |
| US9409519B2 (en) | Generating spatial information for a heads-up display | |
| WO2020105685A1 (ja) | 表示制御装置、方法、及びコンピュータ・プログラム | |
| CN112987053A (zh) | 监测偏航传感器的方法和设备 | |
| US11257363B2 (en) | XR-based slot reservation system for connected vehicles traveling through intersections | |
| EP4520060A1 (en) | Method and user device for detecting an environment of the user device | |
| JP2025099409A (ja) | 表示制御装置、方法およびプログラム | |
| JP2020086882A (ja) | 表示制御装置、方法、及びコンピュータ・プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180425 |
|
| AA79 | Non-delivery of priority document |
Free format text: JAPANESE INTERMEDIATE CODE: A24379 Effective date: 20180918 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190312 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190313 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190513 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200106 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200630 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200825 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210126 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210208 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6844581 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |