[go: up one dir, main page]

JP2018190410A - 拡張現実を用いた車線案内 - Google Patents

拡張現実を用いた車線案内 Download PDF

Info

Publication number
JP2018190410A
JP2018190410A JP2018083353A JP2018083353A JP2018190410A JP 2018190410 A JP2018190410 A JP 2018190410A JP 2018083353 A JP2018083353 A JP 2018083353A JP 2018083353 A JP2018083353 A JP 2018083353A JP 2018190410 A JP2018190410 A JP 2018190410A
Authority
JP
Japan
Prior art keywords
data
vehicle
driver
boundary line
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018083353A
Other languages
English (en)
Other versions
JP6844581B2 (ja
Inventor
信幸 東松
Nobuyuki Tomatsu
信幸 東松
祐介 加芝
Yusuke KASHIBA
祐介 加芝
ダイ,シユアン
Siyuan Dai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JP2018190410A publication Critical patent/JP2018190410A/ja
Application granted granted Critical
Publication of JP6844581B2 publication Critical patent/JP6844581B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Abstract

【課題】車線境界線の位置を運転者に正確に識別させる。【解決手段】センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定ステップと、前記判定ステップにて、前記車両の運転者が前記車線境界線を識別できないと判定された場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成ステップと、前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成ステップと、前記ARデータを前記AR視覚装置に提供する提供ステップと、前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示ステップと、を含む。【選択図】図1

Description

(関連出願への相互参照)
本出願は、「AUGMENTED REALITY FOR VEHICLE LANE GUIDANCE」と題し、2017年5
月9日に出願された米国特許出願第15/591,100号の優先権を主張する。これらの特許出願は、その全体が参照によって本願明細書に援用される。
本明細書は、車線案内を提供するための拡張現実に関する。
環境条件によって、車両の運転者が道路の車線(車線境界線)を認識するのが困難になる場合がある。例えば、猛吹雪により車線が完全に見えなくなることがある。別の例として、大雨の夜間において、水で道路が反射し、車線境界線が見えにくくなることもある。さらに別の例として、道路補修用ゴムが太陽光を反射し、車線境界線の認識を困難にすることもある。別の例として、道路によっては車線自体が描かれていない場所もある。その結果、車線境界線がわかりにくくなり、運転者の運転に困難をきたすことになる。
本明細書で記載するのは、車両に新しい車両機能または異なる車両機能を提供するように動作する拡張現実システム(ARシステムと称する)である。本明細書では、拡張現実を単にARとも呼ぶ。
ARシステムは車両に含めることができる。ARシステムは、車線境界線のグラフィックオーバーレイを表示するARゴーグルまたは三次元ヘッドアップディスプレイ(本明細書では3D−HUDと称する)を含むことができる。
本明細書に記載するARシステムは、車両の性能および運転者の安全性を向上させる多くの利点を提供することができる。例えば、ARシステムは、例えば、雪、雨、照明条件、道路上のゴムなどのため、運転者が車線境界線を認識できないと判定する。ARシステムは、運転者に車線境界線の位置が分かるように、車線境界線を表したオーバーレイを生成する。これにより、運転者が車線境界線の位置を心配する必要がなくなるので、運転者の安全性が向上し、運転がより快適になる。
別の利点の例として、ARシステムは、車線レベルの精度の全地球測位システム(本明細書ではGPSと称する)データを使用して、運転をより安全にする。運転者は、ある車線境界線が見え、ある車線境界線は見えないような特定の角度で道路を見ることがある。例えば、運転者には、ある1つ以上の車線の車線境界線を(物理的に)見ることができない場合がある。ARシステムが、運転者から本来見えない車線境界線を運転者に提供した場合、紛らわしく、運転者の混乱に起因する潜在的な安全上の問題を招くことになる。代わりに、ARシステムは運転者に、運転者に見えるはずである車線境界線のみを有するオーバーレイを含むAR体験を提示する。
1台または複数のコンピュータのシステムを、動作に際してシステムに特定の操作または動作を行わせるソフトウェア、ファームウェア、ハードウェア、またはそれらの組み合わせをシステム上にインストールすることによってそれらの動作を行うように構成することができる。1つまたは複数のコンピュータプログラムを、データ処理装置によって実行された場合に、装置に特定の操作または動作を行わせる命令を含むことによってそれらの
動作を行うように構成することができる。
1つの一般的な態様は、車両の運転者が車両前方の道路上の車線境界線を識別できることを環境データが示しているかどうか判定するステップと、車両の運転者が車線境界線を識別できることを環境データが示していないことに応答して、環境データと車両の現在位置を記述するGPSデータとに基づく境界線データを生成するステップと、境界線データに基づいて、AR視覚装置に車線境界線を表示させるグラフィックデータを記述する拡張現実データを生成するステップと、ARデータをAR視覚装置に提供するステップと、AR視覚装置と関連付けられた頭部位置データに基づいて、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令するかどうか決定するステップと、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令すると決定したことに応答して、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令するステップと、を含む方法を含む。
各実施態様は以下の特徴のうちの1つまたは複数を含むことができる。
AR視覚装置がARゴーグルと3D−HUDのうちの少なくとも1つである方法。
車両の運転者が車線境界線を識別できることを環境データが示しているかどうかの判定がオブジェクト事前情報の使用に基づくものである方法。
運転者が車線境界線を識別できることを環境データが示していることに応答して、所定の時間量が経過したかどうか判定するステップと、所定の時間量が経過したことに応答して、車両の運転者が道路上の車線境界線を識別できることを環境データが示しているかどうか判定するステップとをさらに含む方法。
環境データおよびGPSデータから境界線データを生成するステップが、狭域通信(本明細書では「DSRC」という)準拠のGPSユニットから車両の現在位置のGPSデータを取得するステップと、地理的領域の車線境界線を記述する車線マップの現在位置のGPSデータに対応する部分を決定するステップと、車線マップの部分に基づいて境界線データを生成するステップと、を含む方法。
(1)外部センサから受信した環境データ、(2)車両のDSRC準拠のGPSユニットから受信したGPSデータ、および(3)位置推定マップのうちの1つまたは複数に基づいて車両の現在位置を決定するステップをさらに含む方法。
AR視覚装置にグラフィックオーバーレイを表示するよう命令しないと決定したことに応答して、所定の時間量が経過したかどうか判定するステップと、所定の時間量が経過したことに応答して、AR視覚装置と関連付けられた頭部位置データに基づいて、AR視覚装置にグラフィックオーバーレイを表示するよう命令するかどうか決定するステップとをさらに含む方法。
運転者が現在危険にさらされているかどうか判定するステップと、運転者が現在危険にさらされていると判定したことに応答して、運転者のための警告、および警告を表示するよう求めるAR視覚装置への命令を生成するステップとをさらに含む方法。
ARデータをAR視覚装置と関連付けられたバッファに格納するステップをさらに含む方法。
1つの一般的態様はシステムを含み、本システムは、コンピュータコードを格納した非一時的メモリを含む車載コンピュータシステムであって、コンピュータコードは、車載コンピュータシステムによって実行された場合に、車載コンピュータシステムに、車両の運転者が車両前方の道路上の車線境界線を識別できることを環境データが示しているかどうか判定させ、車両の運転者が車線境界線を識別できることを環境データが示していないことに応答して、環境データと車両の現在位置を記述するGPSデータとに基づく境界線データを生成させ、境界線データに基づいて、AR視覚装置に車線境界線を表示させるグラフィックデータを記述するARデータを生成させ、ARデータをAR視覚装置に提供させ
、AR視覚装置と関連付けられた頭部位置データに基づいて、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令するかどうか決定させ、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令すると決定したことに応答して、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令させる、車載コンピュータシステムと、車載コンピュータシステムに結合されたAR視覚装置であって、車載コンピュータシステムから車線境界線を描写するグラフィックオーバーレイを受信し、車線境界線を描写するグラフィックオーバーレイを表示するように動作する、AR視覚装置と、を含む。
各実施態様は以下の特徴のうちの1つまたは複数を含むことができる。
AR視覚装置がARゴーグルと3D−HUDのうちの少なくとも1つであるシステム。
コードが、車載コンピュータシステムによって実行された場合に、車載コンピュータシステムに、運転者が車線境界線を識別できることを環境データが示していることに応答して、所定の時間量が経過したかどうか判定させ、所定の時間量が経過したことに応答して、車両の運転者が道路上の車線境界線を識別できることを環境データが示しているかどうか判定させる、システム。
環境データおよびGPSデータから境界線データを生成することが、DSRC準拠のGPSユニットから車両の現在位置のGPSデータを取得することと、地理的領域の車線境界線を記述する車線マップの現在位置のGPSデータに対応する部分を決定することと、車線マップの部分に基づいて境界線データを生成することと、含む、システム。
車載コンピュータシステムによって実行された場合に、車載コンピュータシステムに、(1)外部センサから受信した環境データ、(2)車両のDSRC準拠のGPSユニットから受信したGPSデータ、および(3)位置推定マップのうちの1つまたは複数に基づいて車両の現在位置を決定させる追加的なコードを車載コンピュータシステムが含む、システム。
1つの一般的態様は、車載コンピュータシステムによって実行された場合に、車載コンピュータシステムに、車両の運転者が車両前方の道路上の車線境界線を識別できることを環境データが示しているかどうか判定させ、車両の運転者が車線境界線を識別できることを環境データが指示できなかったことに応答して、環境データおよび車両の現在位置を記述するGPSデータに基づく境界線データを生成させ、境界線データに基づいて、AR視覚装置に車線境界線を表示させるグラフィックデータを記述するARデータを生成させ、ARデータをAR視覚装置に提供させ、AR視覚装置と関連付けられた頭部位置データに基づいて、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令するかどうか決定させ、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令すると決定したことに応答して、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令させるコンピュータ実行可能コードを格納した車両の車載コンピュータシステムの非一時的メモリを含むコンピュータプログラム製品を含む。
各実施態様は以下の特徴のうちの1つまたは複数を含むことができる。
コンピュータ実行可能コードが車載コンピュータシステムに、運転者が車線境界線を識別できることを環境データが示していることに応答して、所定の時間量が経過したかどうか判定させ、所定の時間量が経過したことに応答して、車両の運転者が道路上の車線境界線を識別できることを環境データが示しているかどうか判定させる、コンピュータプログラム製品。
環境データおよびGPSデータから境界線データを生成することが、DSRC準拠のGPSユニットから車両の現在位置のGPSデータを取得することと、地理的領域の車線境界線を記述する車線マップの現在位置のGPSデータに対応する部分を決定することと、車線マップの部分に基づいて境界線データを生成することと、を含む、コンピュータプロ
グラム製品。
コンピュータ実行可能コードが車載コンピュータシステムに、(1)外部センサから受信した環境データ、(2)車両のDSRC準拠のGPSユニットから受信したGPSデータ、および(3)位置推定マップのうちの1つまたは複数に基づいて車両の現在位置を決定させる、コンピュータプログラム製品。
コンピュータ実行可能コードが車載コンピュータシステムに、AR視覚装置にグラフィックオーバーレイを表示するよう命令しないと決定したことに応答して、所定の時間量が経過したかどうか判定させ、所定の時間量が経過したことに応答して、AR視覚装置と関連付けられた頭部位置データに基づいて、AR視覚装置にグラフィックオーバーレイを表示するよう命令するかどうか決定させる、コンピュータプログラム製品。
また、本発明に係る方法は、
センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定ステップと、前記判定ステップにて、前記車両の運転者が前記車線境界線を識別できないと判定された場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成ステップと、前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成ステップと、前記ARデータを前記AR視覚装置に提供する提供ステップと、前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示ステップと、を含むことを特徴とする。
また、前記表示ステップでは、前記運転者の頭部位置に基づいて、前記運転者が前記AR視覚装置を通して視認できる車線境界線の部分のみを前記AR視覚装置に表示させることを特徴としてもよい。
また、前記車両の現在位置を取得する位置取得ステップをさらに含み、前記第一の生成ステップでは、車線境界線の位置情報が記録された車線マップから、前記車両の現在位置に対応する情報を抽出し、前記情報に基づいて前記境界線データを生成することを特徴としてもよい。
また、前記位置取得ステップでは、DSRC準拠のGPSユニットを用いて前記車両の現在位置を取得することを特徴としてもよい。
また、前記位置取得ステップでは、道路をセンシングして得られた情報をさらに用いて前記車両の現在位置を取得することを特徴としてもよい。
また、前記第一の生成ステップでは、道路をセンシングして得られた情報をさらに加味して前記境界線データを生成することを特徴としてもよい。
また、前記提供ステップでは、前記表示ステップが行った判断の内容にかかわらず、前記ARデータを前記AR視覚装置のバッファに格納することを特徴としてもよい。
また、本発明に係るシステムは、
センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定手段と、前記判定手段が、前記車両の運転者が前記車線境界線を識別できないと判定した場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成手段と、前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成手段と、前記ARデータを前記AR視覚装置に提供する提供手段と、前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示手段と、を有することを特徴とする。
本開示は、限定のためではなく例として、添付の図面の各図に示されており、図面において類似した参照符号は類似した要素を指すのに用いられている。
いくつかの実施形態による車両のARシステムの動作環境を示すブロック図である。 いくつかの実施形態による車両のARシステムを含むコンピュータシステムの例を示すブロック図である。 いくつかの実施形態による境界線データがGPSデータからどのように生成され、ARデータが境界線データからどのように生成されるかを示すブロック図である。 道路上の車線境界線を描写するグラフィックオーバーレイの例である。 道路上の車線境界線を描写するグラフィックオーバーレイの例である。 いくつかの実施形態による3D−HUDを示すブロック図である。 いくつかの実施形態による道路上の車線境界線を描写するグラフィックオーバーレイを生成するための方法の流れ図の例である。
本明細書で記載するのは、車両に含まれるARシステムの実施形態である。ARシステムは、ネットワークに通信可能に結合される。ARシステムは、車両に新しい車両機能または異なる車両機能を提供する。
車両機能とは、車両が車両の運転者に機能を提供する仕組みを含む。例えば、車両機能には、運転者が車両を制御するのを補助する車線境界線のグラフィックオーバーレイの生成が含まれる。別の例として、車両機能には、車両の先進運転者支援システム(本明細書ではADASシステムと称する)によって提供される機能が含まれる。ADASシステムによって提供される機能を、本明細書ではADAS機能と呼ぶ。
上述したように、ARシステムは、環境データおよびGPSデータに基づいて境界線データを生成することにより、運転者が車両前方の道路上の車線境界線を識別できない場合の車両の車両機能を向上させ、または変更する。ARシステムは境界線データに基づいてARデータを生成する。ARデータとは、AR視覚装置に車線境界線を表示させるグラフィックを生成させるためのデータである。
境界線データは2つの方法で生成することができる。第1の例では、車両はGPSデータを生成するのに使用されるDSRC準拠のGPSユニットを備えている。ARシステムは環境データおよびGPSデータを使用して車線マップを生成する。車線マップは、地理的領域における車線境界線を含んだマップである。ARシステムは車線マップを使用して境界線データを生成する。第2の例では、ARシステムは、外部センサから受信した環境データ、DSRC準拠のGPSユニットから受信したGPSデータ、および位置推定マップから車両の現在位置を決定する。ARシステムは、車両の現在位置および環境データを使用して境界線データを生成する。
いくつかの実施形態では、AR視覚装置はARゴーグルまたは3D−HUDを含む。ARシステムはAR視覚装置にARデータを提供する。AR視覚装置は、迅速なアクセスのためにARデータをバッファに格納する。ARシステムは、AR視覚装置と関連付けられた頭部位置データを受信する。ARシステムは、頭部位置データに基づいて、AR視覚装置に車線境界線を描写するグラフィックオーバーレイを表示するよう命令するか否かを決定する。例えば、ARシステムが道路は車線境界線を見えにくくするほどの雪で覆われていると判定した場合、ARシステムは、運転者には車線境界線が見えないと判定する。ARシステムがAR視覚装置にグラフィックオーバーレイを表示させると決定した場合、ARシステムは車線境界線を描写するグラフィックオーバーレイを表示するよう求める、AR視覚装置への命令を提供する。
次に、ARシステムについてより詳細に説明する。以下の説明は、ARシステムを使用した車線境界線を描写するグラフィックオーバーレイの生成に焦点を当てている。しかし、実際にはARシステムは、先進運転者支援システム(ADASシステム)を使用した運転者のための警告の生成など、他の種類の車両機能を車両に提供するのに使用することもできる。
(拡張現実と仮想現実との区別)
ARと仮想現実(VR)は同じものではない。VRでは、ユーザは、外界を見ることができないVRゴーグルセットと、VRゴーグルセットが表示する画像に対応する音声を提供するヘッドフォンとを着用する。その考え方は、ユーザが現実世界を完全に忘れるようにユーザをVR世界に没頭させることである。
VRは、運転者の注意を車道からそらし、よって、安全上の問題があるため、車両での配備に適さない。この理由により、本発明にはVRは関与しない。
ARでは、ユーザは、現実世界を完全に見ることができる透明なARゴーグル(または眼鏡や透過HUD)を着用する。ARゴーグルは、現実世界の見え方を強化するグラフィックオーバーレイを表示する。グラフィックオーバーレイは、視覚的には、透明、半透明、不透明、または立体的に見える。グラフィックオーバーレイは、ARゴーグルを通して見たときの現実世界の見え方を強化し、または修正する。またユーザは、現実世界の感じ方を強化するARグローブを着用してもよい。その結果、ARはユーザに現実世界を忘れさせることなく現実世界に体験を付加することになる。
(動作環境の例)
図1を参照すると、いくつかの実施形態による車両123のARシステム199のための動作環境100が示されている。動作環境100は、車両123およびサーバ107のうちの1つまたは複数を含む。これらの要素は、ネットワーク105を介して相互に通信可能に結合されていてよい。図1には、1台の車両123、1台のサーバ107、および1つのネットワーク105が示されているが、実際には動作環境100は、1台または複数の車両123、1台または複数のサーバ107、および1つまたは複数のネットワーク105を含んでいてよい。
ネットワーク105は従来型の有線または無線とすることができ、スター型構成、トークンリング構成、または他の構成を含む多くの異なる構成を有していてよい。さらに、ネットワーク105は、ローカル・エリア・ネットワーク(LAN)、広域ネットワーク(WAN)(例えばインターネット)、または、複数の機器および/またはエンティティが通信するための他の相互接続データパスを含むことができる。いくつかの実施形態では、ネットワーク105は、ピアツーピアネットワークを含む。またネットワーク105は、多種多様な通信プロトコルでデータを送信するための電気通信ネットワークの各部分に結合されていてもよく、これらを含んでいてもよい。いくつかの実施形態では、ネットワーク105は、Bluetooth(登録商標)通信ネットワーク、またはショート・メッセージ・サービス(SMS)、マルチメディア・メッセージング・サービス(MMS)、ハイパーテキスト転送プロトコル(HTTP)、直接データ接続、ワイヤレス・アプリケーション・プロトコル(WAP)、電子メール、DSRC、全二重無線通信などによるものを含むデータを送受信するためのセルラ通信ネットワークを含む。またネットワーク105は、3G、4G、LTE、LTE−V2X、VoLTEまたは任意の他のモバイル・データ・ネットワークもしくはモバイル・データ・ネットワークの組み合わせを含むモバイル・データ・ネットワークを含んでいてもよい。さらに、ネットワーク105は1つまたは複数のIEEE802.11無線ネットワークを含んでいてもよい。
いくつかの実施形態では、車両123はDSRC搭載車両である。ネットワーク105は、車両123とサーバ107との間で共有される1つまたは複数の通信路を含むことができる。通信路は、DSRC、LTE−V2X(LTE vehicle to everything)、全二重無線通信または任意の他の無線通信プロトコルを含んでいてよい。例えば、ネットワーク105は、DSRCメッセージ、DSRCプローブ、基本安全メッセージ(BSM)、または本明細書に記載するデータのいずれかを含む全二重メッセージを送信するのに使用される。
車両123は任意の種類の車両である。例えば、車両123は、自動車、トラック、スポーツ・ユーティリティ・ビークル、バス、トレーラトラック、ドローンまたは任意の他の車道を走る乗り物を含む。
いくつかの実施形態では、車両123は自律型車両または半自律型車両である。例えば、車両123はADASシステム180を含む。ADASシステム180は、自律機能を提供する機能の一部または全部を提供するように動作することができる。
いくつかの実施形態では、車両123は、プロセッサ125A、メモリ127A、通信ユニット145A、DSRC準拠のGPSユニット150、外部センサ155、内部センサ159、ADASシステム180、AR視覚装置198、およびARシステム199の各要素のうちの1つまたは複数を含む。車両123のこれらの要素は、バス120Aを介して相互に通信可能に結合されている。
サーバ107は、プロセッサベースのコンピューティングデバイスである。例えば、サーバ107は、以下の種類のプロセッサベースのコンピューティングデバイス、すなわち、パーソナルコンピュータ、ラップトップ、メインフレーム、またはサーバとして機能するように動作する任意の他のプロセッサベースのコンピューティングデバイスのうちの1つまたは複数を含む。サーバ107は、ハードウェアサーバを含むことができる。
いくつかの実施形態では、サーバ107は、プロセッサ125B、メモリ127B、通信ユニット145B、およびARマネージャ194の各要素のうちの1つまたは複数を含む。サーバ107のこれらの要素は、バス120Bを介して相互に通信可能に結合されている。
本明細書では、車両123のプロセッサ125Aおよびサーバ107のプロセッサ125Bをまとめて、または個別に「プロセッサ125」と呼ぶこともある。というのは、例えば、車両123のプロセッサ125Aは車両123の構成要素に、サーバ107のプロセッサ125Bが提供するのと同様の機能を提供するからである。同様の理由で、本明細書で提供する説明では、車両123とサーバ107とに共通する要素を指す場合に、すなわち、メモリ127Aとメモリ127Bとをまとめて、または個別に指す場合の「メモリ127」、および通信ユニット145Aと通信ユニット145Bとをまとめて、または個別に指す場合の「通信ユニット145」の各用語を使用する。
次に、車両123およびサーバ107について説明する。
(車両123)
いくつかの実施形態では、プロセッサ125およびメモリ127は、車載コンピュータシステム(図2に関連して以下で説明するコンピュータシステム200など)の要素である。車載コンピュータシステムはARシステム199の動作を行わせ、または制御するように動作することができる。車載コンピュータシステムは、メモリ127に格納されたデ
ータにアクセスし、データを実行して、ARシステム199またはARシステム199の要素(例えば、図2参照)について本明細書に記載する機能を提供するように動作することができる。車載コンピュータシステムは、車載コンピュータシステムに、図7に関連して後述する方法700のステップのうちの1つまたは複数を実行させるARシステム199を実行するように動作することができる。
DSRC準拠のGPSユニット150は、1つまたは複数の異なる時刻における車両123の1つまたは複数の位置を記述するGPSデータ186を記録するように動作することができる。GPSデータ186は、車両123が特定の位置にあった時刻を指示するようにタイムスタンプを付けることができる。例えば、GPSデータ186は、車線レベルの精度で車両123の位置を記述し、それによってより正確な境界線データ187が生成される。GPSデータ186はメモリ127に格納される。DSRC準拠のGPSユニット150は、DSRCアンテナなど、GPSをDSRCに準拠させるハードウェアを含む。
外部センサ155は、車両123の外部の物理環境を測定するように動作する1台または複数のセンサを含むことができる。例えば、外部センサ155は、車両123に近接した物理環境の1つまたは複数の物理特性を取得する。外部センサ155のセンサは、環境データ184を生成することができる。環境データ184は、外部センサ155によって測定された記録を表すデータである。例えば、外部センサ155は、カメラによって取り込まれた画像など、外部センサ155によって取り込まれた画像を、環境データ184としてメモリ127に格納する。
いくつかの実施形態では、外部センサ155には以下の車両センサのうちの1台または複数が含まれる。カメラ、LIDARセンサ、レーザ高度計、赤外線検知器、動き検知器、サーモスタット、聴音器、一酸化炭素センサ、二酸化炭素センサ、酸素センサ、質量空気流量センサ、エンジン冷却剤温度センサ、スロットル位置センサ、クランクシャフト位置センサ、自動車エンジンセンサ、バルブタイマ、空気燃焼比メータ、死角メータ、カーブフィーラ、不具合検出器、ホール効果センサ、マニホールド絶対圧センサ、駐車センサ、レーダガン、速度計、速度センサ、タイヤ空気圧モニタリングセンサ、トルクセンサ、トランスミッション油温センサ、タービン速度センサ(TSS)、可変リラクタンスセンサ、車両速度センサ(VSS)、水センサ、車輪速度センサ、および任意の他の種類の自動車センサ。
内部センサ159は、運転者の頭の位置または角度(以下、頭部位置と称する)をモニタして頭部位置データ189を生成するセンサである。いくつかの実施形態では、内部センサ159は、AR視覚装置198の一部である。
プロセッサ125は、計算処理を行い、表示装置に電子表示信号を提供するための算術論理演算装置、マイクロプロセッサ、汎用コントローラ、または何らかの他のプロセッサアレイを含む。プロセッサ125はデータ信号を処理し、複雑命令セットコンピュータ(CISC)アーキテクチャ、縮小命令セットコンピュータ(RISC)アーキテクチャ、または命令セットの組み合わせを実施するアーキテクチャを含む様々なコンピューティングアーキテクチャを含むことができる。車両123は1つまたは複数のプロセッサ125を含むことができる。他のプロセッサ、オペレーティングシステム、センサ、ディスプレイ、および物理構成も可能である。
メモリ127はプロセッサ125によってアクセスされ、実行されうる命令またはデータを格納する。命令またはデータは、本明細書に記載する技法を行うためのコードを含むことができる。メモリ127は、ダイナミック・ランダム・アクセス・メモリ(DRAM
)・デバイス、スタティック・ランダム・アクセス・メモリ(SRAM)・デバイス、フラッシュメモリ、または何らかの他のメモリデバイスとすることができる。いくつかの実施形態では、メモリ127は、ハード・ディスク・ドライブ、フロッピー・ディスク・ドライブ、CD−ROMデバイス、DVD−ROMデバイス、DVD−RAMデバイス、DVD−RWデバイス、フラッシュ・メモリ・デバイス、またはより永続的に情報を格納するための何らかの他の大容量記憶装置を含む、不揮発性メモリまたは類似した永続記憶装置および媒体も含む。メモリ127の一部分が、バッファまたは仮想ランダム・アクセス・メモリ(仮想RAM)として使用するために確保されてもよい。車両123は1つまたは複数のメモリ127を含むことができる。
車両123のメモリ127は、環境データ184、車線マップデータ185、GPSデータ186、境界線データ187、ARデータ188、および頭部位置データ189の各要素のうちの1つまたは複数を格納することができる。
環境データ184は、車両123の外部の環境を表すデータである。外部センサ155は環境データ184を生成する。例えば、環境データ184は、外部センサ155によって取り込まれた画像を含む。ARシステム199は、環境データ184を分析して、運転者が道路上の車線境界線が見えないことを示しているかどうかを判定する。
車線マップデータ185は地理的領域における車線境界線を記述するデータである。いくつかの実施形態では、車線マップデータ185はサーバ107から受信される。いくつかの実施形態では、ARシステム199は車線マップデータ185を生成する。車線マップデータ185は、地理的位置に対応する車線境界線を容易に取得するためのGPSデータなど、位置データによって索引付けすることができる。
GPSデータ186は、車両123の現在位置に関する情報を含む。GPSデータ186は、DSRC準拠のGPSユニット150から受信することができ、特定の車線内の車両123の位置を識別できる精度で車両123の現在位置を記述することができる。
DSRC準拠のGPSユニット150からのGPSデータ186は、車道上の車両の位置の初期推定値を提供する。この推定値は、外部センサ155によって提供される環境データ184および位置推定マップを使用することで改善される。位置推定マップは、道路インフラストラクチャ、周囲の建物、道路塗料などといった道路の3D情報を含むことができる。例えば、位置推定マップは、道路インフラストラクチャの3D形状や道路塗料または道路反射器の位置を含む。環境データ184はまた、部分的に見えている道路塗料の画像など、外部センサ155によって取り込まれた3D情報も含むことができる。
境界線データ187は、道路上の特定の位置にある車線境界線の位置に関する情報である。境界線データ187は、車線マップデータ185およびGPSデータ186に基づいて生成することができる。例えば、ARシステム199は、車両123の現在位置を記述するGPSデータ186を使用して、車両123の現在位置についての車線マップデータ185内の境界線データ187を識別する。いくつかの実施形態では、ARシステム199は、車両123の現在位置を記述するGPSデータ186をARマネージャ194に提供し、ARシステム199は対応する境界線データ187を受信する。
ARデータ188は、AR視覚装置198に車線境界線を表示させるグラフィックデータを記述する。例えば、ARデータ188は、道路のビューの上にAR視覚装置198によって表示されるべき車線境界線を描写するグラフィックオーバーレイを記述する。
頭部位置データ189は、AR視覚装置198を着用している運転者の頭部の位置や向
きを記述する。例えば、頭部位置データ189は、ロール座標、ピッチ座標およびヨー座標を有する回転ベクトルを含む。ARシステム199は、頭部位置データ189に基づいて、運転者がどこを見ているか、およびどのようにしてAR視覚装置198に車線境界線を含むオーバーレイを位置決めするよう命令するかを決定する。
ARシステム199は、車両の現在位置のGPS座標を取得し、車両が位置する地理的位置における車線境界線を記述する車線マップデータ185から境界線データ187を取得することができる。ARシステム199は、AR視覚装置198が境界線データ187の最新の情報を受信するように、このプロセスをリアルタイムで繰り返すことができる。
通信ユニット145は、ネットワーク105または別の通信路との間でデータを送受信する。いくつかの実施形態では、通信ユニット145は、DSRC送受信機、DSRC受信機、および車両123(またはサーバ107などの他の何らかの装置)をDSRC対応装置にするのに必要な他のハードウェアまたはソフトウェアを含む。
いくつかの実施形態では、通信ユニット145は、ネットワーク105への、または別の通信路への直接物理接続のためのポートを含む。例えば、通信ユニット145は、ユニバーサル・シリアル・バス(USB)、セキュアデジタル(SD)、CAT−5、またはネットワーク105との有線通信のための類似したポートを含む。いくつかの実施形態では、通信ユニット145は、以下の無線通信方法を含む1つまたは複数の無線通信方法を用いてネットワーク105または他の通信路とデータを交換するための無線送受信機を含む。IEEE802.11;IEEE802.16;BLUETOOTH(登録商標);EN ISO 14906:2004 Electronic Fee Collection−Application interface;EN 11253:2004 Dedicated Short−Range Communication−Physical layer using microwave at 5.8 GHz (review);EN 12795:2002 Dedicated Short−Range Communication(DSRC)−DSRC Data link layer:Medium Access and Logical Link Control(review);EN 12834:2002 Dedicated Short−Range Communication−Application layer(review);EN 13372:2004 Dedicated Short−Range Communication(DSRC)−DSRC profiles for
RTTT applications(review);2014年8月28日に出願された、「Full−Duplex Coordination System」という名称の米国特許出願第14/471387号明細書(以下、387号明細書)に記載されている通信方法;または別の適切な無線通信方法。
いくつかの実施形態では、通信ユニット145は、387号明細書に記載されている全二重協調システムを含む。
いくつかの実施形態では、通信ユニット145は、ショート・メッセージ・サービス(SMS)、マルチメディア・メッセージング・サービス(MMS)、ハイパーテキスト転送プロトコル(HTTP)、直接データ接続、WAP、電子メール、または別の適切な種類の電子通信によるものを含む、セルラ通信ネットワーク上でデータを送受信するためのセルラ通信送受信機を含む。いくつかの実施形態では、通信ユニット145は有線ポートおよび無線送受信機を含む。また通信ユニット145は、TCP/IP、HTTP、HTTPS、およびSMTP、ミリ波、DSRCなどを含む標準ネットワークプロトコルを用いたファイルまたはメディアオブジェクトの配布のためのネットワーク105への他の従来型の接続も提供する。
ADASシステム180は1つまたは複数の先進運転者支援システムを含むことができる。ADASシステム180の例として、車両123の、ACCシステム、アダプティブ・ハイビーム・システム、アダプティブ・ライト・コントロール・システム、自動駐車システム、自動車ナイト・ビジョン・システム、死角モニタ、衝突回避システム、横風安定化システム、運転者居眠り検知システム、運転者モニタリングシステム、緊急時運転者支援システム、前方衝突警告システム、交差点支援システム、速度適応制御システム、車線逸脱警告システム、歩行者保護システム、交通標識認識システム、旋回アシスト、および逆走警告システム、の各要素のうちの1つまたは複数が含まれる。これらの例示的な各ADASシステム180はそれぞれ、本明細書で「ADAS機構」または「ADAS機能」と呼ぶ独自の特徴および機能を提供する。
いくつかの実施形態では、ADASシステム180は、車両123が自律的または半自律的であるように車両123の1つまたは複数の動作を制御する任意のハードウェアまたはソフトウェアを含む。
AR視覚装置198は、任意の従来型のARヘッドセット、ゴーグルまたは眼鏡である。AR視覚装置198の例には、Google(登録商標)Glass、CastAR、Moverio BT−200、Meta、Vuzix M−100、Laster SeeThru、Icis、Optinvent ORA−S、GlassUP、Atheer One、K−Glass、およびMicrosoft(登録商標)Hololensのうちの1つまたは複数が含まれる。AR視覚装置198は、車両123を運転する際に、車両123の運転者が運転に集中できるように構成されている。AR視覚装置198は、AR視覚装置198を着用している運転者の頭部の位置や向きを記述する頭部位置データ189を生成する。いくつかの実施形態では、AR視覚装置198は、AR視覚装置198によって表示される仮想物体を操作するARグローブなどの追加的機器を含む。
いくつかの実施形態では、AR視覚装置198は3D−HUDである。3D−HUDの一例を図6に示す。例えば、車両123の運転者が3D−HUDを見ており、3D−HUDは、ARシステム199によって車両123に提供される車線境界線のグラフィックオーバーレイを表示する。3D−HUDについては、図6に関連して以下でより詳細に説明する。
以下でより詳細に説明するように、AR視覚装置198は、ARシステム199から受信するデータを一時的に格納する非一時的なキャッシュまたはバッファを含むことができる。
いくつかの実施形態では、ARシステム199は、車両123の通信ユニット145を使用して、ネットワーク105を介してサーバ107上に格納されたARマネージャ194と通信するコードまたはルーチンを含む。ARマネージャ194はARシステム199に、ARシステム199およびAR視覚装置198が運転者に車線境界線のグラフィックオーバーレイを含むAR体験を提供するのに必要なデータを提供することができる。例えば、ARマネージャ194は、ARシステム199に車線マップデータ185を提供する。
いくつかの実施形態では、車両123のARシステム199は、フィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向け集積回路(ASIC)を含むハードウェアを用いて実施される。いくつかの他の実施形態では、ARシステム199は、ハードウェアとソフトウェアとの組み合わせを用いて実施される。ARシステム199は装置(例えばサーバや他の装置)の組み合わせに、またはそれらの装置のうちの1台に格
納することができる。
ARシステム199は、環境データ184を用いて運転者が道路境界線を見ることができるか否かを判定するために外部環境をモニタする。運転者が道路境界線を見ることができないことを環境データ184が示す場合、ARシステム199はDSRC準拠のGPSユニット150に車両123の現在位置を記述するGPSデータ186を取得させる。ARシステム199はGPSデータ186から境界線データ187を生成する。ARシステム199は次いで、境界線データ187に基づいてARデータ188を生成する。ARデータ188は、AR視覚装置198に境界線データによって記述される車線境界線を表示させるためのグラフィックデータを含む。ARシステム199については、図2、図3、図4A、図4B、図5A、図5B、および図7に関連して以下でより詳細に説明する。
(サーバ107)
いくつかの実施形態では、サーバ107は、ARマネージャ194、メモリ127B、プロセッサ125B、および通信ユニット145Bを含むクラウドサーバである。メモリ127は、この特定の車両123の運転者が通常は利用できないはずの新しい車両機能または異なる車両機能をARシステム199およびAR視覚装置198が車両123に提供するのに必要な任意のデータを格納する。例えば、メモリ127は、地理的領域における車線境界線を記述する車線マップデータ185を含む。ARシステム199は車線マップデータ185を生成することができるが、ARシステム199が車線マップデータ185を同時に生成する必要がなければ、ARシステム199は車線境界線を描写するグラフィックオーバーレイをより速く生成することができる。
サーバ107の、プロセッサ125B、メモリ127B、および通信ユニット145Bの各要素は、車両123について上述した要素と同じまたは同様であり、よって、これはこれらの要素の説明は繰り返さない。通信ユニット145Bは、ネットワーク105を介したサーバ107と車両123との間の通信を処理する。
図1には示されていないが、いくつかの実施形態では、ARマネージャ194は、387号明細書に記載されている全二重協調システムを含む。
ARマネージャ194は、サーバ107のプロセッサ125によって実行された場合に、車線マップを生成し、車線マップおよび他の情報を車線マップデータ185としてメモリ127に格納するように動作するコードおよびルーチンを含む。車線マップは、車道の車線境界線がどこに位置するかを記述する。いくつかの実施形態では、ARマネージャ194は、地理的領域内の車両など、1つまたは複数のソースから道路の画像を受信する。画像は、各画像が撮影された位置と関連付けられている。例えば、画像はGPS座標と関連付けられている。
ARマネージャ194は、画像から車線マップを生成する。例えば、ARマネージャ194は画像の物体認識を行って道路の境界を識別し、画像内において本来見えるべき車線境界線の位置を識別する。車線境界線が存在しないいくつかの実施形態では、ARマネージャ194は、車線境界線が存在すべき位置を推定する。例えば、ARマネージャ194は道路の幅を識別し、車線境界線は、道路の縁(または路肩を設けるように数フィート(約1メートル)離れたところ)と道路の中央にあるはずであると推定する。
ARマネージャ194は車線マップデータ185を車両123に提供する。いくつかの実施形態では、ARマネージャ194は、車両123の位置を受信し、車両123の位置に対応する車線マップデータ185を提供する。
(コンピュータシステムの例)
次に図2を参照すると、いくつかの実施形態によるARシステム199を含むコンピュータシステムの例200を示すブロック図が描かれている。
いくつかの実施形態では、コンピュータシステム200は、図7に関連して後述する方法700の1つまたは複数のステップを行うようにプログラムされた専用コンピュータシステムを含む。
いくつかの実施形態では、コンピュータシステム200の1つまたは複数の構成要素は、サーバ107の一部である。
いくつかの実施形態では、コンピュータシステム200は、車両123の車載コンピュータである。
いくつかの実施形態では、コンピュータシステム200は、車両123の電子制御ユニット、ヘッドユニット、または他のプロセッサベースのコンピューティングデバイスを含む。
コンピュータシステム200は、いくつかの例によれば、ARシステム199、プロセッサ125、メモリ127、通信ユニット145、DSRC準拠のGPSユニット150、外部センサ155、内部センサ159、ADASシステム180、およびAR視覚装置198、の各要素のうちの1つまたは複数を含む。コンピュータシステム200の各構成要素はバス120によって通信可能に結合されている。
図示の実施形態において、プロセッサ125は信号線238を介してバス120に通信可能に結合されている。メモリ127は信号線240を介してバス120に通信可能に結合されている。通信ユニット145は信号線242を介してバス120に通信可能に結合されている。DSRC準拠のGPSユニット150は信号線244を介してバス120に通信可能に結合されている。外部センサ155は、信号線246を介してバス120に通信可能に接続されている。内部センサ159は、信号線248を介してバス120に通信可能に接続されている。ADASシステム180は信号線250を介してバス120に通信可能に結合されている。AR視覚装置198は、信号線252を介してバス120に通信可能に接続されている。
コンピュータシステム200の、プロセッサ125、メモリ127、通信ユニット145、DSRC準拠のGPSユニット150、外部センサ155、内部センサ159、ADASシステム180、およびAR視覚装置198の各要素については、図1に関連して上述したので、ここではそれらの説明を繰り返さない。
メモリ127は、図1に関連して上述したデータのいずれかを格納することができる。メモリ127は、コンピュータシステム200がその機能を提供するのに必要な任意のデータを格納することができる。
ADASシステムの例には、自車の、定速走行・車間距離制御装置(ACC)システム、アダプティブ・ハイビーム・システム、アダプティブ・ライト・コントロール・システム、自動駐車システム、自動車ナイト・ビジョン・システム、死角モニタ、衝突回避システム、横風安定化システム、運転者居眠り検知システム、運転者モニタリングシステム、緊急時運転者支援システム、前方衝突警告システム、交差点支援システム、速度適応制御システム、車線逸脱警告システム、歩行者保護システム、交通標識認識システム、旋回アシスト、および逆走警告システム、の各要素のうちの1つまたは複数が含まれる。
ADASシステムは自車を自律型車両または半自律型車両にする車両に含まれる任意のソフトウェアまたはハードウェアも含むことができる。
図1に関連して本明細書に記載するARシステム199は、車両のADASソフトウェアを起動して、このADASソフトウェアとADASソフトウェアに対応するADASハードウェアとがこの隠れたADAS機能の一部または全部を提供するよう動作するように動作するコードおよびルーチンを含むことができる。さらに、AR視覚装置198は、車両の運転者がこの前もって隠されたADASシステムの動作を関与させ、解除し、またはそれ以外に制御するのに使用できる制御要素の仮想化バージョンを有するグラフィックオーバーレイを表示することもできる。
図2に示す例示の実施形態では、ARシステム199は、通信モジュール202、可視性モジュール204、位置推定モジュール206、ARモジュール208、頭部位置モジュール210、および通知モジュール212を含む。
通信モジュール202は、ARシステム199とコンピュータシステム200の他の構成要素との間の通信を処理するためのルーチンを含むソフトウェアである。いくつかの実施形態では、通信モジュール202は、ARシステム199とコンピュータシステム200の他の構成要素との間の通信を処理するための後述する機能を提供する、プロセッサ125が実行可能な命令セットとすることができる。いくつかの実施形態では、通信モジュール202はコンピュータシステム200のメモリ127に格納することができ、プロセッサ125によってアクセス可能、実行可能とすることができる。通信モジュール202は、信号線222を介してプロセッサ125およびコンピュータシステム200の他の構成要素と協働し、通信するように適応させることができる。
通信モジュール202は、通信ユニット145を介して、動作環境100の1つまたは複数の要素との間でデータを送受信する。例えば、通信モジュール202は、通信ユニット145を介して、環境データ184、車線マップデータ185、GPSデータ186、境界線データ187、ARデータ188、および頭部位置データ189の各要素のうちの1つまたは複数を送受信する。通信モジュール202は、通信ユニット145を介して、図1に関連して上述した、または図3および図7に関連して後述するデータまたはメッセージのいずれかを送受信することができる。
いくつかの実施形態では、通信モジュール202は、ARシステム199の構成要素からデータを受信し、そのデータをメモリ127(またはAR視覚装置198のバッファもしくはキャッシュ)に格納する。例えば、通信モジュール202は、(ネットワーク105を介して)通信ユニット145からメモリ127に関連して上述したデータのいずれかを受信し、このデータをメモリ127(またはAR視覚装置198のバッファもしくはキャッシュ)に格納する。
いくつかの実施形態では、通信モジュール202は、ARシステム199の構成要素間の通信を処理する。例えば、通信モジュール202は、頭部位置モジュール210からARモジュール208に頭部位置データ189を送信する。
可視性モジュール204は、車両123前方の道路の可視性を判定するためのルーチンを含むソフトウェアである。いくつかの実施形態では、可視性モジュール204は、可視性を判定するための後述する機能を提供する、プロセッサ125が実行可能な命令セットとすることができる。いくつかの実施形態では、可視性モジュール204はコンピュータシステム200のメモリ127に格納することができ、プロセッサ125によってアクセ
ス可能、実行可能とすることができる。可視性モジュール204は、信号線224を介してプロセッサ125およびコンピュータシステム200の他の構成要素と協働し、通信するように適応させることができる。
可視性モジュール204は、外部センサ155から環境データ184を受信し、またはメモリ127から環境データ184を取得する。例えば、可視性モジュール204は、車両123前方の道路の画像を受信する。
可視性モジュール204は、車両123の運転者が車両123前方の道路上の車線境界線を識別できることを環境データ184が示しているか否かを判定する。例えば、道路が雪で覆われており、雪で道路の車線境界線が見えにくくなることがある。いくつかの実施形態では、可視性モジュール204は、オブジェクト事前情報に基づいて道路上の車線境界線を識別する。例えば、可視性モジュール204は、環境データ184に含まれる画像上の物体認識を行い、画像内の物体を基準オブジェクトと比較して、画像内の車線境界線の位置を識別する。
可視性モジュール204は、画像内の車線境界線に認識スコアを適用し、認識スコアが所定の閾値を下回る(または、認識スコアがどのように構成されるかに応じて所定の閾値を超える)場合に、運転者は車線境界線を識別できないと判定する。例えば、運転者には道路上の車線境界線の50%未満しか見えないことを認識スコアが示している場合、可視性モジュール204は、運転者は車線境界線を識別できないと判定する。
可視性モジュール204が、運転者が車線境界線を識別できると環境データ184が示していると判定した場合、可視性モジュール204は、所定の時間量だけ待機してから判定ステップを再び行うことができる。例えば、可視性モジュール204は、運転者が車線境界線を識別できないと可視性モジュール204が判定するまで30秒ごとに判定ステップループを行う。運転者が車線境界線を識別できないことを環境データ184が示していると可視性モジュール204が判定した場合、可視性モジュール204は位置推定モジュール206に境界線データ187を生成するよう命令することができる。
位置推定モジュール206は、境界線データ187を生成するためのルーチンを含むソフトウェアである。いくつかの実施形態では、位置推定モジュール206は、境界線データ187を生成するための後述する機能を提供する、プロセッサ125が実行可能な命令セットとすることができる。いくつかの実施形態では、位置推定モジュール206は、コンピュータシステム200のメモリ127に格納することができ、プロセッサ125によってアクセス可能、実行可能とすることができる。位置推定モジュール206は、信号線226を介してプロセッサ125およびコンピュータシステム200の他の構成要素と協働し、通信するように適応させることができる。
位置推定モジュール206は、GPSデータ186を使用して車両123の現在位置を決定することができる。いくつかの実施形態では、GPSデータ186は、DSRC準拠のGPSユニット150によって生成され、車両123の現在位置を記述する。GPSユニットはDSRC準拠のGPSユニット150であり、DSRC規格はすべてのGPSデータが車両123の走行車線を記述するのに十分な精度を含むことを必要とするので、GPSデータは±3メートル以内の精度である。比較すると、非DSRC準拠のGPSユニットのGPSデータは±10メートル以内の精度しかない。
いくつかの実施形態では、位置推定モジュール206は、外部センサ155から受信した環境データ184、DSRC準拠のGPSユニット150から受信したGPSデータ186、および位置推定マップに基づいて車両123の現在位置を決定する。位置推定モジ
ュール206は、GPSデータなどのDSRC準拠のGPSユニット150から受信したGPSデータ186を使用して、道路上の車両123の位置の初期推定値を決定することができる。位置推定モジュール206は、環境データ184および位置推定マップに基づいて道路上の車両123の位置を修正することができる。位置推定マップは、道路インフラストラクチャの3D形状や道路塗料または反射器の位置など、道路に関する3D情報を含むことができる。位置推定モジュール206は、環境データ184と位置推定マップとの間の偏差を計算することによって車両123の位置を修正し、その偏差を使用して車両123の現在位置を決定することができる。
位置推定モジュール206は、GPSデータ186および車線マップデータ185に基づいて境界線データ187を生成する。位置推定モジュール206は、地理的領域における車線境界線を記述する車線マップデータ185を取得することができる。位置推定モジュール206は、外部センサ155から取得した環境データ184から車線マップを生成することができる。別の例として、位置推定モジュール206は、サーバ107に格納されたARマネージャ194から車線マップデータ185を受信することもできる。
位置推定モジュール206は、現在位置のGPSデータに対応する車線マップを抽出することができる。位置推定モジュール206は、抽出した車線マップの部分に基づいて境界線データ187を生成することができる。境界線データ187は、運転者が道路を見た際に見えるはずである車線境界線の位置を記述する。例えば、図3の符号300は、ARシステム199(より具体的には、位置推定モジュール206)が車両123の現在位置に特有の境界線データ187を提供できるように、GPSデータ186を車線マップデータ185に提供することによって、境界線データ187がGPSデータ186からどのように生成されるかを示すブロック図である。位置推定モジュール206は、AR視覚装置198が最新の境界線データ187を有するようにリアルタイムで境界線データ187を生成することができる。
ARモジュール208は、ARデータ188を生成するためのルーチンを含むソフトウェアである。いくつかの実施形態では、ARモジュール208は、ARデータ188を生成するための後述する機能を提供する、プロセッサ125が実行可能な命令セットとすることができる。いくつかの実施形態では、ARモジュール208はコンピュータシステム200のメモリ127に格納することができ、プロセッサ125によってアクセス可能、実行可能とすることができる。ARモジュール208は、信号線228を介してプロセッサ125およびコンピュータシステム200の他の構成要素と協働し、通信するように適応させることができる。
ARモジュール208は、境界線データ187に基づいてARデータ188を生成する。ARデータ188は、AR視覚装置198に、道路のビューと車線境界線とを重畳表示させるグラフィックデータを記述する。例えば、ARモジュール208は、AR視覚装置198が車線境界線を描写するオーバーレイを表示するためのグラフィック命令を生成する。
図3の符号350は、いくつかの実施形態による、ARデータ188が境界線データ187からどのように生成されるかを示すブロック図である。ARシステム199、より具体的にはARモジュール208は、境界線データ187を使用して、道路の縁や車線間の境界線など、車線境界線を記述するARデータ188を含むオーバーレイを生成する。オーバーレイは、追い越しを禁止する実線の車線境界線、追い越しが許可されていることを指示する破線の車線境界線、道路の一方の側の運転者には追い越しが許可されているが、道路の他方の側の運転者には許可されていないことを指示する実線の車線境界線と破線の車線境界線との様々な組み合わせなど、適用可能な様々な種類の車線境界線を含むことが
できる。
図4Aは、車線境界線が雪で見えにくくなった道路の図の例400である。この例では、道路に雪が非常に多いため、運転者は、道路の縁や車線間の境界線を見分けることができない。図4Bは、いくつかの実施形態による道路上の車線境界線を描写するグラフィックオーバーレイ455を有する図4Aの道路の図の例450である。この例では、グラフィックオーバーレイ455は、道路の縁の車線境界線と、運転者が追い越しのために他方の車線を使用できることを指示する中央の破線の車線境界線とを含む。
図5の符号500は、雨により道路上に車線境界線を見えにくくするグレアが生じた夜の道路の図の例である。この例では、ボックス505は、道路上の水が夜間の条件と組み合わさった結果、道路が信号機、街路灯、および車のライトを反射して道路上の車線境界線が見えなくなっている領域を表している。図5の符号550は、いくつかの実施形態による道路上の車線境界線を描写するグラフィックオーバーレイ555を有する道路の図の例である。この例では、グラフィックオーバーレイ555は、道路の縁の車線境界線と、運転者が追い越しのために他方の車線を使用できることを指示する中央の破線の車線境界線とを含む。
ARモジュール208は、ARデータ188をAR視覚装置198に提供する。例えば、ARモジュール208は、運転者の頭部位置が、運転者に現実世界の車線境界線が見えるはずである向きにあるときに、AR視覚装置198がARデータ188を迅速に取得できるように、ARデータ188をAR視覚装置198のバッファにARデータ188を格納する。
頭部位置モジュール210は、頭部位置データ189に基づいてAR視覚装置198にグラフィックオーバーレイを表示するよう命令するかどうか決定するためのルーチンを含むソフトウェアである。いくつかの実施形態では、頭部位置モジュール210は、AR視覚装置198にグラフィックオーバーレイを表示するよう命令するかどうか決定するための後述する機能を提供する、プロセッサ125が実行可能な命令セットとすることができる。いくつかの実施形態では、頭部位置モジュール210は、コンピュータシステム200のメモリ127に格納することができ、プロセッサ125によってアクセス可能、実行可能とすることができる。頭部位置モジュール210は、信号線230を介してプロセッサ125およびコンピュータシステム200の他の構成要素と協働し、通信するように適応させることができる。
頭部位置モジュール210はAR視覚装置198から頭部位置データ189を受信することもでき、または頭部位置モジュール210はメモリ127から頭部位置データ189を取得することもできる。頭部位置データ189は、運転者の頭部の位置や向きを記述する。例えば、頭部位置データ189は、運転者の頭部の位置のロール座標、ピッチ座標、およびヨー座標を記述する。
頭部位置モジュール210は、頭部位置データ189に基づいて、AR視覚装置198に車線境界線を描写するグラフィックオーバーレイを表示するよう命令するかどうか決定する。例えば、運転者が、運転者に道路上の車線境界線が見えるはずの現実世界の部分を見ていることを頭部位置データ189が示している場合、頭部位置モジュール210は、AR視覚装置198に車線境界線を描写するグラフィックオーバーレイを表示するよう命令する。
いくつかの実施形態では、頭部位置モジュール210がAR視覚装置198にグラフィックオーバーレイを表示するよう命令しないと決定した場合、頭部位置モジュール210
は所定の時間量だけ待機してから決定するステップを再度行う。例えば、頭部位置モジュール210は、頭部位置モジュール210がAR視覚装置198に、車線境界線を描写するグラフィックオーバーレイを表示するよう命令すると決定するまで、2秒ごと(または1秒ごと、1ミリ秒ごとなど)に決定ループを行う。
通知モジュール212は、運転者が現在危険にさらされているかどうか判定し、通知を生成するためのルーチンを含むソフトウェアである。いくつかの実施形態では、通知モジュール212は、運転者が危険にさらされているかどうか判定し、通知を生成するための後述する機能を提供する、プロセッサ125が実行可能な命令セットとすることができる。いくつかの実施形態では、通知モジュール212は、コンピュータシステム200のメモリ127に格納することができ、プロセッサ125によってアクセス可能、実行可能とすることができる。通知モジュール212は、信号線232を介してプロセッサ125およびコンピュータシステム200の他の構成要素と協働し、通信するように適応させることができる。
通知モジュール212は、現在の運転状況を分析して、運転者が現在危険にさらされているかどうか判定する。例えば、通知モジュール212は、環境データ184を使用して、雪で道路が見えにくくなっているのは危険な状態である、または道路に沿った路面凍結により自動車が氷でスリップする可能性があると判定する。通知モジュール212が運転者は現在危険にさらされていると判定した場合、通知モジュール212は、運転者に警告を生成し、AR視覚装置198に警告を表示するよう命令することができる。例えば、警告は、「警告:10フィート(約3メートル)先で路面凍結!」と表示される。
通知モジュール212が運転者は現在危険にさらされていないと判定した場合、通知モジュール212は何もしなくてもよく、または通知モジュール212はAR視覚装置198に、「安全」の語を含むオーバーレイなど、ユーザが安全であるという通知を提供するよう命令してもよい。
いくつかの実施形態では、通知モジュール212はADASシステム180がADASシステム180と対話して、ADASシステム180が運転者の現在の危険に適した是正措置を開始できるようにする。例えば、通知モジュール212が車両123から10フィート(約3メートル)先に路面凍結があると判定した場合、通知モジュール212はADASシステム180に通知して、ADASシステム180が車両の減速を開始するようにする。
(3D−HUDの例)
図6を参照すると、AR視覚装置198が3D−HUDである実施形態におけるAR視覚装置198を示すブロック図が示されている。
いくつかの実施形態では、3D−HUDは、プロジェクタ601、可動スクリーン602、スクリーン駆動ユニット603、光学系(レンズ604、606、反射器605などを含む)を含む。プロジェクタ601は、デジタル・ミラー・デバイス(DMD)・プロジェクタ、液晶プロジェクタなど、任意の種類のプロジェクタとすることができる。プロジェクタ601は、可動スクリーン602上に画像(グラフィック)608を投影する。画像608は、グラフィックオーバーレイを含むことができる。例えば、画像608は、図2に関連して上述したような車線境界線を描写するグラフィックオーバーレイである。
可動スクリーン602は透明板を含み、よって、投影画像の光は可動スクリーン602を透過して車両(例えば、車両123)のフロントガラス607に投影される。フロントガラス607に投影された画像は、フロントガラスに投影された物体ではなく、あたかも
現実世界の3次元空間に存在する現実物体(611a、611bとして示す)であるかのように、運転者610に知覚される。
いくつかの実施形態では、3D−HUDは、スクリーン602上の投影位置を調整することによって、運転者610に対する画像の方向(言い換えると、フロントガラスにおける画像位置)を制御することができる。さらに、スクリーン602は、位置603aと位置603bとの間の範囲でスクリーン駆動ユニット603によって移動可能である。スクリーン602の位置を調整することにより、現実世界における運転者610からの投影画像の深さ(距離)を変えることができる。一例では、スクリーン602の可動範囲(位置603aと位置603bとの間の距離)は5mmであり、これは現実世界での5mから無限遠に対応する。3D−HUDの使用により、運転者610は、投影画像が現実世界(3次元空間)に存在していると知覚することができる。例えば、画像が現実物体(歩行者、自動車など)と同じ3次元位置(または少なくとも実質的に同じ深さ)に投影された場合、運転者は投影画像を見るために目の焦点を調節する必要がなく、現実物体を実ながら投影画像を容易に把握することが可能になる。
図6に示す3D−HUDは例として提供されている。他の例も可能である。これらの例には、図6に示す3D−HUDと、程度の差はあるが同様の複雑さを有するヘッドアップディスプレイが含まれる。例えば、将来においては、可動スクリーン602などの可動部品を必要としないヘッドアップディスプレイが出現することが予想される。例えば、移動しない静止スクリーンが配置される可能性もある。配置されるヘッドアップディスプレイが2次元のヘッドアップ・ディスプレイ・ユニットではない可能性もある。いくつかの実施形態では、ARシステム199およびグラフィックオーバーレイは、そのような構成要素で動作するように設計される。
(方法の例)
次に図7を参照すると、いくつかの実施形態によるARシステム199を使用して車両に新しい車両機能または異なる車両機能を提供するための方法の例700の流れ図が示されている。車両機能は、図1に関連して上述した車両123の構成要素によって提供されてもよい。
方法700について本明細書に記載するステップのうちの1つまたは複数は、1台または複数のコンピュータシステム200によって実行することができる。
次に図7を参照する。ステップ705で、車両123の運転者が車両前方の道路上の車線境界線を識別できることを環境データ184が示しているかどうかが判定される。例えば、道路は、道路の亀裂を修復するためのゴムによってかなり覆い隠されているため、車線境界線が見えにくくなっている。運転者が道路上の車線境界線を識別できる場合、ステップ710で、第1の所定の時間量が経過したかどうかが判定される。ステップ710は、第1の所定の時間量が経過し、ステップ705が繰り返されるまで繰り返し行われる。
運転者が道路上の車線境界線を識別できないと判定された場合、ステップ715で、環境データ184と、車両の現在位置を記述するGPSデータ186とに基づいて境界線データ187が生成される。GPSデータ186は、DSRC準拠のGPSユニット150から受信することができる。いくつかの例では、現在位置は、環境データ184および位置推定マップからさらに決定される。いくつかの例では、GPSデータ186は、車両123の現在位置のGPSデータ186に対応する車線マップからの境界線データ187を取得するのに使用される。
ステップ720で、境界線データ187に基づいてARデータ188が生成され、AR
データ188は、AR視覚装置198に車線境界線を表示させるグラフィックデータを記述する。AR視覚装置198は、ARゴーグルまたは3D−HUDを含むことができる。ステップ725で、AR視覚装置198はARデータ188を提供される。
ステップ730で、AR視覚装置198と関連付けられた頭部位置データ189に基づいて、AR視覚装置198に車線境界線を描写するグラフィックオーバーレイを表示するよう命令するかどうかが決定される。AR視覚装置198にグラフィックオーバーレイを表示するよう命令しないと決定された場合、ステップ735で、第2の所定の時間量が経過したかどうかが判定される。ステップ735は、第2の所定の時間量が経過し、ステップ730が繰り返されるまで繰り返し行われる。第1の所定の時間量は第2の所定時間量と異なっていてもよい。
AR視覚装置198にグラフィックオーバーレイを表示するよう命令すると決定された場合、ステップ740で、AR視覚装置198は、車線境界線を描写するグラフィックオーバーレイを表示するよう命令される。
以上の説明では、本発明を十分に理解できるように、多くの詳細について説明した。しかしながら、各実施形態はこれらの具体的な詳細無しでも良いことは当業者にとって明らかであろう。また、説明が不明瞭になることを避けるために、構造や装置をブロック図の形式で表すこともある。たとえば、一実施形態は、ユーザインタフェースおよび特定のハードウェアとともに説明される。しかし、ここでの説明は、データおよびコマンドを受信する任意のタイプのコンピュータシステムおよび任意の周辺機器について適用できる。
本明細書における「一実施形態」または「ある実施形態」等という用語は、その実施形態と関連づけて説明される特定の特徴・構造・性質が少なくとも本発明の一つの実施形態に含まれることを意味する。「一実施形態における」等という用語は本明細書内で複数用いられるが、これらは必ずしも同一の実施形態を示すものとは限らない。
以上の詳細な説明の一部は、非一時的(non-transitory)なコンピュータ可読記憶媒体に記憶されたデータビットに対する動作のアルゴリズムおよび記号的表現として提供される。これらのアルゴリズム的な説明および表現は、データ処理技術分野の当業者によって、他の当業者に対して自らの成果の本質を最も効果的に説明するために用いられるものである。なお、本明細書において(また一般に)アルゴリズムとは、所望の結果を得るための論理的な手順を意味する。処理のステップは、物理量を物理的に操作するものである。必ずしも必須ではないが、通常は、これらの量は記憶・伝送・結合・比較およびその他の処理が可能な電気的または磁気的信号の形式を取る。通例にしたがって、これらの信号をビット・値・要素・エレメント・シンボル・キャラクタ・項・数値などとして称することが簡便である。
なお、これらの用語および類似する用語はいずれも、適切な物理量と関連付いているものであり、これら物理量に対する簡易的なラベルに過ぎないということに留意する必要がある。以下の説明から明らかなように、特に断らない限りは、本明細書において「処理」「計算」「コンピュータ計算(処理)」「判断」「表示」等の用語を用いた説明は、コンピュータシステムや類似の電子的計算装置の動作および処理であって、コンピュータシステムのレジスタやメモリ内の物理的(電子的)量を、他のメモリやレジスタまたは同様の情報ストレージや通信装置、表示装置内の物理量として表される他のデータへ操作および変形する動作および処理を意味する。
本発明は、本明細書で説明される動作を実行する装置にも関する。この装置は要求される目的のために特別に製造されるものであっても良いし、汎用コンピュータを用いて構成
しコンピュータ内に格納されるプログラムによって選択的に実行されたり再構成されたりするものであっても良い。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な、例えばフロッピー(登録商標)ディスク・光ディスク・CD−ROM・磁気ディスクなど任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気または光学式カード、USBキーを含む不揮発性フラッシュメモリ、電子的命令を格納するために適した任意のタイプの媒体などの、非一時的なコンピュータ可読記憶媒体に記憶される。
発明の具体的な実施形態は、完全にハードウェアによって実現されるものでも良いし、完全にソフトウェアによって実現されるものでも良いし、ハードウェアとソフトウェアの両方によって実現されるものでも良い。好ましい実施形態は、ソフトウェアによって実現される。ここでソフトウェアとは、ファームウェア、常駐ソフトウェア、マイクロコードやその他のソフトウェアを含むものである。
さらに、ある実施形態は、コンピュータが利用あるいは読み込み可能な記憶媒体からアクセス可能なコンピュータプログラムプロダクトの形態を取る。この記憶媒体は、コンピュータや任意の命令実行システムによってあるいはそれらと共に利用されるプログラムコードを提供する。コンピュータが利用あるいは読み込み可能な記憶媒体とは、命令実行システムや装置によってあるいはそれらと共に利用されるプログラムを、保持、格納、通信、伝搬および転送可能な任意の装置を指す。
プログラムコードを格納・実行するために適したデータ処理システムは、システムバスを介して記憶素子に直接または間接的に接続された少なくとも1つのプロセッサを有する。記憶素子は、プログラムコードの実際の実行に際して使われるローカルメモリや、大容量記憶装置や、実行中に大容量記憶装置からデータを取得する回数を減らすためにいくつかのプログラムコードを一時的に記憶するキャッシュメモリなどを含む。
入力/出力(I/O)装置は、例えばキーボード、ディスプレイ、ポインティング装置などであるが、これらはI/Oコントローラを介して直接あるいは間接的にシステムに接続される。
システムにはネットワークアダプタも接続されており、これにより、私的ネットワークや公共ネットワークを介して他のデータ処理システムやリモートにあるプリンタや記憶装置に接続される。モデム、ケーブルモデム、イーサネット(登録商標)は、現在利用可能なネットワークアダプタのほんの一例である。
最後に、本明細書において提示されるアルゴリズムおよび表示は特定のコンピュータや他の装置と本来的に関連するものではない。本明細書における説明にしたがったプログラムを有する種々の汎用システムを用いることができるし、また要求された処理ステップを実行するための特定用途の装置を製作することが適した場合もある。これら種々のシステムに要求される構成は、以上の説明において明らかにされる。さらに、本発明は、特定のプログラミング言語と関連づけられるものではない。本明細書で説明される本発明の内容を実装するために種々のプログラミング言語を利用できることは明らかであろう。
実施形態の前述の説明は、例示と説明を目的として行われたものである。したがって、開示された実施形態が本発明の全てではないし、本発明を上記の実施形態に限定するものでもない。本発明は、上記の開示にしたがって、種々の変形が可能である。本発明の範囲は上述の実施形態に限定解釈されるべきではなく、特許請求の範囲にしたがって解釈されるべきである。本発明の技術に詳しい者であれば、本発明はその思想や本質的特徴から離れることなくその他の種々の形態で実現できることを理解できるであろう。同様に、モジ
ュール・処理・特徴・属性・方法およびその他の本発明の態様に関する名前付けや分割方法は必須なものでものないし重要でもない。また、本発明やその特徴を実装する機構は異なる名前や分割方法や構成を備えていても構わない。さらに、当業者であれば、モジュール・処理・特徴・属性・方法およびその他の本発明の態様は、ソフトウェア、ハードウェア、ファームウェアもしくはこれらの組合せとして実装できることを理解できるであろう。また、本発明をソフトウェアとして実装する場合には、モジュールなどの各要素は、どのような様式で実装されても良い。例えば、スタンドアローンのプログラム、大きなプログラムの一部、異なる複数のプログラム、静的あるいは動的なリンクライブラリー、カーネルローダブルモジュール、デバイスドライバー、その他コンピュータプログラミングの当業者にとって既知な方式として実装することができる。さらに、本発明の実装は特定のプログラミング言語に限定されるものではないし、特定のオペレーティングシステムや環境に限定されるものでもない。以上のように、上記の本発明の説明は限定的なものではなく例示的なものであり、本発明の範囲は添付の特許請求の範囲にしたがって定められる。
107 サーバ
123 車両
125 プロセッサ
127 メモリ
145 通信ユニット
150 DSRC準拠のGPSユニット
155 外部センサ
159 内部センサ
180 ADASシステム
184 環境データ
185 車線マップデータ
186 GPSデータ
187 境界線データ
188 ARデータ
189 頭部位置データ
194 ARマネージャ
198 AR視覚装置
199 ARシステム

Claims (9)

  1. センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定ステップと、
    前記判定ステップにて、前記車両の運転者が前記車線境界線を識別できないと判定された場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成ステップと、
    前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成ステップと、
    前記ARデータを前記AR視覚装置に提供する提供ステップと、
    前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示ステップと、
    を含む方法。
  2. 前記表示ステップでは、前記運転者の頭部位置に基づいて、前記運転者が前記AR視覚装置を通して視認できる車線境界線の部分のみを前記AR視覚装置に表示させる、
    請求項1に記載の方法。
  3. 前記車両の現在位置を取得する位置取得ステップをさらに含み、
    前記第一の生成ステップでは、車線境界線の位置情報が記録された車線マップから、前記車両の現在位置に対応する情報を抽出し、前記情報に基づいて前記境界線データを生成する、
    請求項1または2に記載の方法。
  4. 前記位置取得ステップでは、DSRC準拠のGPSユニットを用いて前記車両の現在位置を取得する、
    請求項3に記載の方法。
  5. 前記位置取得ステップでは、道路をセンシングして得られた情報をさらに用いて前記車両の現在位置を取得する、
    請求項4に記載の方法。
  6. 前記第一の生成ステップでは、道路をセンシングして得られた情報をさらに加味して前記境界線データを生成する、
    請求項3から5のいずれかに記載の方法。
  7. 前記提供ステップでは、前記表示ステップが行った判断の内容にかかわらず、前記ARデータを前記AR視覚装置のバッファに格納する、
    請求項1から6のいずれかに記載の方法。
  8. 請求項1から7のいずれかに記載の方法をコンピュータに実行させるためのプログラム。
  9. センサによって取得された環境データに基づいて、車両の運転者が車両前方の道路上の車線境界線を識別できるか否かを判定する判定手段と、
    前記判定手段が、前記車両の運転者が前記車線境界線を識別できないと判定した場合に、前記環境データと、前記車両の現在位置とに基づいて境界線データを生成する第一の生成手段と、
    前記境界線データに基づいて、AR視覚装置に車線境界線をグラフィック表示させるためのARデータを生成する第二の生成手段と、
    前記ARデータを前記AR視覚装置に提供する提供手段と、
    前記車両の運転者の頭部位置に基づいて、前記AR視覚装置に、前記ARデータに基づくグラフィックを生成して表示させる表示手段と、
    を有するシステム。
JP2018083353A 2017-05-09 2018-04-24 拡張現実を用いた車線案内 Active JP6844581B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/591,100 US10168174B2 (en) 2017-05-09 2017-05-09 Augmented reality for vehicle lane guidance
US15/591,100 2017-05-09

Publications (2)

Publication Number Publication Date
JP2018190410A true JP2018190410A (ja) 2018-11-29
JP6844581B2 JP6844581B2 (ja) 2021-03-17

Family

ID=63962485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018083353A Active JP6844581B2 (ja) 2017-05-09 2018-04-24 拡張現実を用いた車線案内

Country Status (3)

Country Link
US (1) US10168174B2 (ja)
JP (1) JP6844581B2 (ja)
DE (1) DE102018110971A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109931944A (zh) * 2019-04-02 2019-06-25 百度在线网络技术(北京)有限公司 一种ar导航方法、装置、车端设备、服务端及介质
JPWO2020202356A1 (ja) * 2019-03-29 2020-10-08
WO2021020033A1 (ja) * 2019-07-29 2021-02-04 株式会社デンソー 表示制御装置、表示制御方法、および表示制御プログラム
WO2024080419A1 (ko) * 2022-10-14 2024-04-18 엘지전자 주식회사 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12403932B2 (en) * 2016-06-21 2025-09-02 Robert C. Brasher Autonomous vehicle navigation of bypass merge lanes
CN110892233B (zh) 2017-05-22 2024-06-21 Drnc控股公司 用于传感器范围和视场的车载增强可视化的方法和装置
US10580302B2 (en) 2017-06-30 2020-03-03 Toyota Jidosha Kabushiki Kaisha Optimization of a motion profile for a vehicle
US10838420B2 (en) * 2017-07-07 2020-11-17 Toyota Jidosha Kabushiki Kaisha Vehicular PSM-based estimation of pedestrian density data
CN110019580B (zh) * 2017-08-25 2022-07-12 腾讯科技(深圳)有限公司 地图显示方法、装置、存储介质及终端
US10588009B2 (en) * 2017-10-27 2020-03-10 Toyota Jidosha Kabushiki Kaisha PSM message-based device discovery for a vehicular mesh network
US10843689B2 (en) * 2018-06-13 2020-11-24 Toyota Jidosha Kabushiki Kaisha Collision avoidance for a connected vehicle based on a digital behavioral twin
US10870351B2 (en) * 2018-12-12 2020-12-22 Here Global B.V. Method and apparatus for augmented reality based on localization and environmental conditions
CN109668575A (zh) * 2019-01-29 2019-04-23 苏州车萝卜汽车电子科技有限公司 用于增强现实抬头显示装置的导航信息处理方法及装置、设备、系统
DE102019202583A1 (de) * 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
CN110455298B (zh) * 2019-08-14 2022-02-08 灵动科技(北京)有限公司 车辆用定位方法及定位系统
CN110619674B (zh) * 2019-08-15 2020-12-04 重庆特斯联智慧科技股份有限公司 用于事故和警情场景还原的三维增强现实设备及方法
US11514273B2 (en) * 2019-09-19 2022-11-29 Ford Global Technologies, Llc Vehicle debris strike mitigation
CN112558299A (zh) * 2019-09-26 2021-03-26 光宝电子(广州)有限公司 用于扩充实境的抬头显示装置
KR20210097869A (ko) 2020-01-30 2021-08-10 현대자동차주식회사 이동체에서 주행 가이드 라인 제어 방법 및 장치
CN111272182B (zh) * 2020-02-20 2021-05-28 武汉科信云图信息技术有限公司 采用区块链数据库的地图绘制系统
US11562576B2 (en) * 2020-08-05 2023-01-24 GM Global Technology Operations LLC Dynamic adjustment of augmented reality image
KR20220037026A (ko) 2020-09-16 2022-03-24 현대자동차주식회사 증강 현실 기반의 정보 표시 장치
CN115617156A (zh) * 2021-07-16 2023-01-17 逸驾智能科技有限公司 用于信息显示的方法、装置、设备和计算机可读存储介质
TWI804956B (zh) * 2021-08-23 2023-06-11 久秉實業股份有限公司 能指示正確車道的導航系統及方法
KR20230074360A (ko) * 2021-11-19 2023-05-30 현대자동차주식회사 차량 및 그 제어 방법
CN114212079B (zh) * 2022-02-18 2022-05-20 国汽智控(北京)科技有限公司 基于acc的车辆控制方法、装置及系统
US11766938B1 (en) * 2022-03-23 2023-09-26 GM Global Technology Operations LLC Augmented reality head-up display for overlaying a notification symbol over a visually imperceptible object
US20230358558A1 (en) * 2022-05-03 2023-11-09 Here Global B.V. Method, apparatus, and system for determining a lane marking confusion index based on lane confusion event detections
US12246597B2 (en) * 2022-05-18 2025-03-11 Regents Of The University Of Minnesota Snowplow driver assist system
FR3142405A1 (fr) * 2022-11-28 2024-05-31 Psa Automobiles Sa Procédé et dispositif d’affichage en temps réel d’une image de synthèse de l’environnement d’un véhicule automobile
JP2024084885A (ja) * 2022-12-14 2024-06-26 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置及び表示制御方法
CN120029468B (zh) * 2025-04-22 2025-08-12 北京视游互动科技有限公司 一种基于yts引擎的双光路车载arhud系统的数据处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350617A (ja) * 2005-06-15 2006-12-28 Denso Corp 車両用走行支援装置
US20140091989A1 (en) * 2009-04-02 2014-04-03 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
JP2015210764A (ja) * 2014-04-30 2015-11-24 日産自動車株式会社 走行車線認識装置、走行車線認識方法
JP2016511860A (ja) * 2013-01-06 2016-04-21 アイオンロード テクノロジーズ リミテッドIonroad Technologies Ltd. 運転サポート

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5708449B2 (ja) 2011-11-08 2015-04-30 アイシン・エィ・ダブリュ株式会社 レーン案内表示システム、方法およびプログラム
EP2807454A4 (en) 2012-01-26 2015-08-19 Telecomm Systems Inc NAVIGATION GUIDANCE
DE112013007344T5 (de) * 2013-08-19 2016-05-04 Mitsubishi Electric Corporation Fahrzeugmontierte Anzeigesteuervorrichtung
US9031758B1 (en) * 2014-03-04 2015-05-12 Nissan North America, Inc. On-board vehicle control system and method for determining whether a vehicle is within a geographical area of interest
KR101714185B1 (ko) * 2015-08-05 2017-03-22 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350617A (ja) * 2005-06-15 2006-12-28 Denso Corp 車両用走行支援装置
US20140091989A1 (en) * 2009-04-02 2014-04-03 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
JP2016511860A (ja) * 2013-01-06 2016-04-21 アイオンロード テクノロジーズ リミテッドIonroad Technologies Ltd. 運転サポート
JP2015210764A (ja) * 2014-04-30 2015-11-24 日産自動車株式会社 走行車線認識装置、走行車線認識方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020202356A1 (ja) * 2019-03-29 2020-10-08
WO2020202356A1 (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 情報提供装置、情報共有システム、プログラムおよび情報提供方法
JP7137692B2 (ja) 2019-03-29 2022-09-14 本田技研工業株式会社 情報提供装置、情報共有システム、プログラムおよび情報提供方法
CN109931944A (zh) * 2019-04-02 2019-06-25 百度在线网络技术(北京)有限公司 一种ar导航方法、装置、车端设备、服务端及介质
WO2021020033A1 (ja) * 2019-07-29 2021-02-04 株式会社デンソー 表示制御装置、表示制御方法、および表示制御プログラム
JP2021022229A (ja) * 2019-07-29 2021-02-18 株式会社デンソー 表示制御装置、表示制御方法、および表示制御プログラム
JP7001085B2 (ja) 2019-07-29 2022-01-19 株式会社デンソー 表示制御装置、表示制御方法、および表示制御プログラム
WO2024080419A1 (ko) * 2022-10-14 2024-04-18 엘지전자 주식회사 신호 처리 장치, 및 이를 구비하는 차량용 디스플레이 장치

Also Published As

Publication number Publication date
JP6844581B2 (ja) 2021-03-17
US20180328752A1 (en) 2018-11-15
US10168174B2 (en) 2019-01-01
DE102018110971A1 (de) 2018-11-15

Similar Documents

Publication Publication Date Title
JP6844581B2 (ja) 拡張現実を用いた車線案内
JP6428876B2 (ja) 車載拡張現実システム向けの遮蔽調整システム
JP7200832B2 (ja) デジタル行動ツインに基づくコネクティッド車両のための衝突回避
US10083547B1 (en) Traffic situation awareness for an autonomous vehicle
JP6801701B2 (ja) 高度自律車両向けの経路選択方法、および車両
EP3309640B1 (en) Group driving style learning framework for autonomous vehicles
US11758111B2 (en) 3D lidar system using a dichroic mirror for autonomous driving vehicles
US10366473B2 (en) Providing traffic mirror content to a driver
US10452930B2 (en) Information display device mounted in vehicle including detector
US10527849B2 (en) Augmented reality vehicular assistance for color blindness
JP6402684B2 (ja) 表示装置
EP2990936A1 (en) Communication of spatial information based on driver attention assessment
EP3690396B1 (en) Method and device for providing advanced pedestrian assistance system to protect pedestrian distracted by their smartphone
JP2019212297A (ja) 車線変更タイミングインジケータ
CN117836828A (zh) 基于预测的驾驶员辅助系统和方法
US9409519B2 (en) Generating spatial information for a heads-up display
WO2020105685A1 (ja) 表示制御装置、方法、及びコンピュータ・プログラム
CN112987053A (zh) 监测偏航传感器的方法和设备
US11257363B2 (en) XR-based slot reservation system for connected vehicles traveling through intersections
EP4520060A1 (en) Method and user device for detecting an environment of the user device
JP2025099409A (ja) 表示制御装置、方法およびプログラム
JP2020086882A (ja) 表示制御装置、方法、及びコンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180425

AA79 Non-delivery of priority document

Free format text: JAPANESE INTERMEDIATE CODE: A24379

Effective date: 20180918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R151 Written notification of patent or utility model registration

Ref document number: 6844581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250