JP2020057080A - 車両用エージェント装置 - Google Patents
車両用エージェント装置 Download PDFInfo
- Publication number
- JP2020057080A JP2020057080A JP2018185749A JP2018185749A JP2020057080A JP 2020057080 A JP2020057080 A JP 2020057080A JP 2018185749 A JP2018185749 A JP 2018185749A JP 2018185749 A JP2018185749 A JP 2018185749A JP 2020057080 A JP2020057080 A JP 2020057080A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- specific
- character
- occupant
- situation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
例えば、乗員と、擬人化されたキャラクタ(いわゆるエージェント)とが、コミュニケーションを図ることが可能な車両用エージェント装置も上記手法の1つとして提案されており、このような車両用エージェント装置として、特許文献1では、乗員の顔の向きまたは視線を検出して、エージェント像を表示制御することが提案されている。
図1、図2に示すように、車両1は、運転席2の車両前方側に設けられるインストルメントパネル3と、運転席2とインストルメントパネル3との間に配置されるステアリングホイール4とを有している。ステアリングホイール4は、ステアリングシャフト(図示省略)を介してステアリングコラム(図示省略)に回転自在に取り付けられている。また、ステアリングホイール4の内部には、車両1が衝突等した際に、ドライバーHに向けて展開するエアバック8が格納されている。
図1、図2に示すように、第1表示用パネル30は、アナログ時計のように構成された指針式メータと、液晶パネルとバックライトとが一体的に設けられたいわゆる液晶ディスプレイ装置とを備えて構成されている。ドライバー(運転者)H(以下、ドライバーH)は、第1表示用パネル30の第1表示領域30aに表示される各種情報を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。
図1、図2に示すように、第2表示用パネル40は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されており、その下端部の左右方向の両端部には、それぞれ、相反する方向に突出する一対の回動軸41が取り付けられている。この回動軸41が支持部材(図示省略)によって軸支されることによって、上方に向けて起立する起立位置と、車両前方へ向けて倒伏する倒伏位置との間で可変自在に取り付けられている。ドライバーHは、第2表示用パネル40の第2表示領域40aに表示される各種画像を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。なお、第2表示用パネル40は、起立位置と倒伏位置との間で可変自在に構成したが、支持部材から起立したまま突出する突出位置と支持部材の内部に格納される格納位置との間で上下に可変自在に構成してもよいし、可変不能に固定されていてもよい。
図1に示すように、第3表示用パネル50は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されている。なお、第3表示用パネル50には地図情報等が表示され、いわゆるカーナビゲーションシステムを担っている。
図2に示すように、操作ボタン60は、上下左右の4方向のキーが設けられた操作デバイスであって、本発明の車両用エージェント装置の制御部110(図3参照)に対して、操作信号を入力可能となっている。これにより、例えば、通常の擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声の音量値の変更や、通常の擬人化キャラクタ画像I1の表示位置の変更等ができるようになっている。
制御部110は、図示しないCPU、ROM、RAM(例えば、リングバッファ)、入出力ポート等を備えており、例えば、入力ポートより情報入力が行われると、ROMから読み出した制御プログラムに基づいて、出力ポートを介して各種デバイス(第2表示用パネル40やスピーカ150)を制御するようになっている。
周辺環境認識部120は、車両1(自車両)の周辺環境を認識するために設けられている。また、周辺環境認識部120は、車外撮影用カメラ120aと、レーダ120bとを備えており、これらのデバイスによって車両1の周辺環境を認識することができるようになっている。
車外撮影用カメラ120aは、例えば、図示しないルームミラーに取り付けられており、車両1の前方、および、車両1の後方を撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、車両1の前方、車両1の後方の状況をリアルタイムおよび事後的に認識することができる。
レーダ120bは、例えば、電波を飛ばして障害物等を検知するミリ波レーダが用いられており、当該ミリ波レーダが車両1のフロントバンパやリアバンパに取り付けられ、車両1の前方監視、車両1の前側方監視、車両1の後側方監視ができるようになっている。そして、監視情報が制御部110に入力されて、制御部110がRAMに監視情報を記憶する。これにより、制御部110は、車両1の前方、車両1の前側方の状況、車両1の後側方の状況をリアルタイムおよび事後的に認識することができる。なお、本実施形態においてはミリ波レーダを用いているが、他のレーダを用いてもよい。例えば、赤外線レーダでもよい。
乗員状態認識部130は、ドライバーHの状態を認識するために設けられている。また、乗員状態認識部130は、乗員撮影用カメラ130aと、バイタルセンサ130bとを備えており、これらのデバイスによってドライバーHの状態を認識することができるようになっている。
乗員撮影用カメラ130aは、例えば、インストルメントパネル3に取り付けられており、ドライバーHを撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。なお、ここでいう、ドライバーHの状態とは、具体的には、ドライバーHの目蓋の状態や、瞬きの回数、視線の方向、顔の向きなどが想定される。
バイタルセンサ130bは、例えば、ステアリングホイール4のドライバーHにより把持される部位に取り付けられ、ドライバーHの心拍数や血圧等のバイタル情報を取得できるようになっている。そして、取得したバイタル情報が制御部110に入力されて、制御部110がRAMにバイタル情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。
車両状態認識部140は、車両1の状態を認識するために設けられている。また、車両状態認識部140は、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eとを備えており、これらのデバイスによって車両1の状態を認識することができるようになっている。
車速センサ140aは、車両1の車速を検出するためのセンサであって、検出された車速が車速信号として制御部110に入力されて、制御部110がRAMに車速情報を記憶する。これにより、制御部110は、車両1の車速をリアルタイムおよび事後的に認識することができる。
ハンドル角センサ140bは、車両1のハンドル角(ステアリングホイール4の角度)を検出するためのセンサであって、検出されたハンドル角が角度信号として制御部110に入力されて、制御部110がRAMに角度情報を記憶する。これにより、制御部110は、車両1のハンドル角(ステアリングホイール4の角度)をリアルタイムおよび事後的に認識することができる。
アクセルペダルセンサ140cは、図示しないアクセルペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のアクセルペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
ブレーキペダルセンサ140dは、図示しないブレーキペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のブレーキペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
Gセンサ140eは、車両1の加速度、減速度及び傾斜を検出するためのセンサであって、加速度が検出された場合は加速度量が、減速度が検出された場合は減速度量が、傾斜が検出された場合は傾斜角度量が、それぞれ加速度量信号、減速度量信号、傾斜角度信号として制御部110に入力されて、制御部110がRAMに加速度情報、減速度情報及び傾斜情報を記憶する。これにより、制御部110は、車両1の加速度、減速度及び傾斜をリアルタイムおよび事後的に認識することができる。
スピーカ150は、例えば、インストルメントパネル3に取り付けられており、通常の擬人化キャラクタ画像I1から発せられるセリフ画像I2に対応する音声が出力される。なお、スピーカ150を設けずに、車両1に内蔵されているオーディオスピーカを用いてもよい。
マイク160は、例えば、インストルメントパネル3に取り付けられており、ドライバーH、その他乗員から発せられる音声が入力される。
記憶部170は、上述した各認識部から取得した情報や、ドライバーHと制御部110とで行われた対話等を記憶することが可能である。制御部110は、これらの情報を記憶部170に蓄積していくことで、ドライバーHの運転傾向(例えば、どのような運転を行うドライバーであるのか)や、ドライバーHの趣味嗜好(例えば、どのようなBGMが好みであるのか)等を認識することができる。また、これらを認識することで、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から能動的に行うこともできる。
送受信機180は、例えば、車載用の無線LANを用いた情報の取得や、衛星測位システムを用いた位置情報の取得などが可能である。制御部110は、これら取得した情報や、上述の記憶部170に蓄積した情報に基づいて、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話を車両用エージェント装置100側(通常の擬人化キャラクタ画像I1)から能動的に行うこともできる。
ステップS10において、制御部110のCPUは、車両状態認識処理を行う。具体的には、車両状態認識部140から入力した情報に基づいて、車両1における状態を認識する。そして、車両状態認識処理を終えると、ステップS20に処理を移行する。
ステップS20において、制御部110のCPUは、周辺環境認識処理を行う。具体的には、周辺環境認識部120から入力した情報に基づいて、車両1における周辺環境を認識する。そして、周辺環境認識処理を終えると、ステップS30に処理を移行する。
ステップS30において、制御部110のCPUは、乗員状態認識処理を行う。具体的には、乗員状態認識部130から入力した情報に基づいて、ドライバーHの状態を認識する。そして、乗員状態認識処理を終えると、ステップS40に処理を移行する。
ステップS40において、制御部110のCPUは、危険因子抽出処理を行う。具体的には、ステップS10〜ステップS30にて各種情報を認識した結果、危険因子が含まれているかを抽出する処理を行う。
ステップS50において、制御部110のCPUは、特定の状況であるか、を判定する。なお、特定の状況とは、各認識部から取得した情報が、所定の閾値を超え、危険因子が含まれている状況をいう。すなわち、ステップS40で危険因子抽出処理を行った結果、危険因子が含まれているかを判定する。そして、特定の状況であると判定した場合は、ステップS60に処理を移行し、特定の状況ではないと判定した場合は、ステップS70に処理を移行する。
ステップS60において、制御部110のCPUは、特定の擬人化キャラクタ(図6(b)で示す擬人化キャラクタ画像I3)への変更処理を行う。具体的には、制御部110のCPUがRAMにおいて、通常の擬人化キャラクタ(図6(a)で示す擬人化キャラクタ画像I1)に対応する識別フラグ「0」に代えて、特定の擬人化キャラクタに対応する識別フラグ「1」をセットする。そして、特定の擬人化キャラクタへの変更処理を終えると、ステップS61に処理を移行する。
ステップS61において、制御部110のCPUは、危険因子の危険度合いの相違に応じて、サポート報知を行うキャラクタ及び報知内容を決定するサポート報知態様作成処理を行う。具体的には、危険因子の危険度合いが低いものは、通常の擬人化キャラクタを決定して、その危険因子を解消するための報知内容の出力データを作成し、危険因子の危険度合いが高いものは、特定の擬人化キャラクタを決定して、その危険因子を解消するための報知内容の出力データを作成する。そして、サポート報知態様作成処理を終えると、ステップS70に処理を移行する。このように、サポート報知(図6(c)、図7(c)参照)を行う場面では、危険度合いの相違に応じて、サポート報知を行うキャラクタを異ならせるようにしている。
ステップS70において、制御部110のCPUは、特定の状況なしか、を判定する。具体的には、ステップS40で危険因子を抽出した結果、危険因子が抽出されなかったか、すなわち、特定の状況になかったかを判定する。そして、特定の状況になかったと判定した場合は、ステップS80に処理を移行し、特定の状況にあったと判定した場合は、ステップS100に処理を移行する。
ステップS80において、制御部110のCPUは、特定の擬人化キャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「0」がセットされていれば、通常の擬人化キャラクタをセット中であると認識し、「1」がセットされていれば、特定の擬人化キャラクタをセット中であると認識する。すなわち、当該処理においては、RAMの識別フラグに「1」がセットされているかを判定する。そして、特定の擬人化キャラクタをセット中であると判定した場合は、ステップS90に処理を移行し、特定の擬人化キャラクタをセット中ではないと判定した場合は、ステップS100に処理を移行する。
ステップS90において、制御部110のCPUは、通常の擬人化されたキャラクタへの変更処理を行う。具体的には、RAMの識別フラグ「1」に代えて、「0」をセットする。このように、危険因子が抽出されなかった場合は、特定の擬人化キャラクタから通常の擬人化キャラクタに変更する。これにより、乗員から会話入力が行われた場合に、車両用エージェント装置100側から応答することが可能となる。そして、通常の擬人化されたキャラクタへの変更処理を終えると、ステップS100に処理を移行する。
ステップS100において、制御部110のCPUは、報知制御処理を行う。なお、報知制御処理は、後に図5を用いて詳述する。そして、報知制御処理を終えると、メイン処理を終了する。
ステップS101において、制御部110のCPUは、特定の擬人化キャラクタをセット中であるか、を判定する。具体的には、RAMの識別フラグを参照して、「1」がセットされているかを判定する。そして、特定の擬人化キャラクタをセット中であると判定した場合は、ステップS105に処理を移行し、特定の擬人化キャラクタをセット中ではないと判定した場合は、ステップS102に処理を移行する。
ステップS102において、制御部110のCPUは、自律型対話制御処理を行う。具体的には、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話を行うための処理を行う。例えば、ドライバーHが乗車して、直線道路を走行している状態になったときなどにおいて、通常の擬人化キャラクタ画像I1から「昨日は、○○様が応援している△△チームが負けてしまいました・・・」などといったことが音声および画像で報知(語りかけ)される。なお、当該語りかけにドライバーHが応答すれば、話題は継続される(後述のステップS103〜ステップS106)。例えば、ドライバーHがマイク160を介して、「今日は、□□選手が出るから勝つよ」などと応答すれば、通常の擬人化キャラクタ画像I1が「そうですね!□□選手は頼もしいですからね!」などといった双方向での対話が可能である。一方、ドライバーHが応答しなければ、所定時間後に別の話題を持ち出して、再度、通常の擬人化キャラクタ画像I1から報知(語りかけ)が行われる。なお、複数回語りかけを行ったものの、ドライバーHからの応答がない場合は、ドライバーHが会話を行いたくない状態にあると認識して、語りかけの頻度を下げることもできる。そして、自律型対話制御処理を終えると、ステップS103に処理を移行する。
ステップS103において、制御部110のCPUは、乗員の会話入力があったかを判定する。具体的には、マイク160の入力ポートより音声入力が行われたかを判定する。なお、制御部110には、図示しない公知の音声認識部が設けられており、当該音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断するようになっている。また、ここでいう乗員とは、ドライバーHに限らず、他の乗員であってもよい。また、マイク160による音声入力に限らず、操作ボタン60による操作入力によって会話入力ができてもよい。ただし、安全性を鑑みて、ワンタッチ操作での会話入力ができることが好ましい。また、当該処理における乗員の会話入力は、上述した受動的なスタイルでの対話も含む。そして、乗員の会話入力があったと判定した場合は、ステップS104に処理を移行し、乗員の会話入力がなかったと判定した場合は、ステップS105に処理を移行する。
ステップS104において、制御部110のCPUは、対応する会話内容の応答制御処理を行う。具体的には、上述の音声認識部により、入力された音声(会話の内容)がどのような内容であるのかを判断して、応答内容を決定し、セリフの表示データ、およびセリフの音声データを生成する。そして、対応する会話内容の応答制御処理を終えると、ステップS105に処理を移行する。
ステップS105において、制御部110のCPUは、画像表示処理を行う。具体的には、ステップS102において決定されたセリフの表示データや、ステップS104で生成したセリフの表示データを出力し、第2表示用パネル40に当該セリフを表示する処理を行う。そして、画像表示処理を終えると、ステップS106に処理を移行する。
ステップS106において、制御部110のCPUは、音出力処理を行う。具体的には、ステップS102において決定されたセリフの音声データや、ステップS104で生成したセリフの音声データを出力し、スピーカ150より当該セリフを出力する処理を行う。そして、音出力処理を終えると、メイン処理を終了する。以上のような処理によって、上述した車両用エージェント装置100側から行う、能動的なスタイルでの対話や、受動的なスタイルでの対話や、危険因子が生じた際の警告報知等が実現される。
以下に、想定される変形例を追記する。
本実施形態において、制御部110は、本発明の、キャラクタを制御するエージェント制御手段を構成する。
Claims (5)
- キャラクタと乗員との双方向のコミュニケーションが可能な車両用エージェント装置であって、
前記キャラクタを制御するエージェント制御手段と、
車両の運転若しくは周辺環境の状況、又は乗員の身体若しくは思考の状況の少なくともいずれかの状況を取得する状況取得手段と、
前記状況取得手段により取得された状況が特定の状況に相当するかを識別する識別手段と、を有し、
前記エージェント制御手段は、
視覚または聴覚的に擬人化された通常の擬人化キャラクタと乗員との双方向のコミュニケーションの制御を行い、
前記通常の擬人化キャラクタを制御しているときに前記識別手段により前記特定の状況に相当すると識別された場合、特定の擬人化キャラクタを制御し、
当該特定の擬人化キャラクタにより、前記特定の状況に係る警告報知を行わせる、
ことを特徴とする車両用エージェント装置。 - 前記エージェント制御手段は、
前記特定の擬人化キャラクタにより前記特定の状況に係る警告報知を行わせているときには、キャラクタからのコミュニケーションを不能とする、
ことを特徴とする請求項1に記載の車両用エージェント装置。 - 前記エージェント制御手段は、
キャラクタと乗員との双方向のコミュニケーションの制御手段として、
乗員からの会話の入力があった場合に、入力した会話の内容を乗員に返答する他律型会話制御手段と、
乗員からの会話の入力の有無にかかわらず、所定の乗員情報に基づいて、乗員に会話をする自律型会話制御手段と、を有し、
前記特定の擬人化キャラクタを制御しているときは、前記自律型会話制御手段による会話または前記他律型会話制御手段による返答を規制する、
ことを特徴とする請求項1に記載の車両用エージェント装置。 - 前記エージェント制御手段は、
前記特定の擬人化キャラクタに前記特定の状況に係る警告報知を行わせた後、前記コミュニケーションが可能な前記通常の擬人化キャラクタを制御し、前記特定の状況に係る警告報知のサポート報知を行わせる、
ことを特徴とする請求項1乃至請求項3のいずれか一項に記載の車両用エージェント装置。 - 前記エージェント制御手段は、
前記特定の状況に相当すると識別された場合、
前記特定の状況が第1のレベルにあると、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知のみを行わせ、
前記特定の状況が前記第1のレベルよりも危険度の高い第2のレベルにあると、前記特定の擬人化キャラクタに前記特定の状況に係る警告報知と当該特定の状況に係る警告報知のサポート報知とを行わせる、
ことを特徴とする請求項1乃至請求項4のいずれか一項に記載の車両用エージェント装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018185749A JP7181744B2 (ja) | 2018-09-28 | 2018-09-28 | 車両用エージェント装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018185749A JP7181744B2 (ja) | 2018-09-28 | 2018-09-28 | 車両用エージェント装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020057080A true JP2020057080A (ja) | 2020-04-09 |
| JP7181744B2 JP7181744B2 (ja) | 2022-12-01 |
Family
ID=70107246
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018185749A Active JP7181744B2 (ja) | 2018-09-28 | 2018-09-28 | 車両用エージェント装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7181744B2 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114852010A (zh) * | 2021-02-04 | 2022-08-05 | 本田技研工业株式会社 | 车辆用安全带装置 |
| WO2022239642A1 (ja) * | 2021-05-13 | 2022-11-17 | 株式会社デンソー | 車両用情報提供装置、車両用情報提供方法、及び車両用情報提供プログラム |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1137766A (ja) * | 1997-07-22 | 1999-02-12 | Aqueous Res:Kk | エージェント装置 |
| JP2003157489A (ja) * | 2002-06-03 | 2003-05-30 | Equos Research Co Ltd | 操作制御装置 |
| JP2005258820A (ja) * | 2004-03-11 | 2005-09-22 | Toyota Motor Corp | 感情誘導装置及び感情誘導方法 |
| JP2012242187A (ja) * | 2011-05-17 | 2012-12-10 | Yupiteru Corp | システム及びプログラム |
-
2018
- 2018-09-28 JP JP2018185749A patent/JP7181744B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1137766A (ja) * | 1997-07-22 | 1999-02-12 | Aqueous Res:Kk | エージェント装置 |
| JP2003157489A (ja) * | 2002-06-03 | 2003-05-30 | Equos Research Co Ltd | 操作制御装置 |
| JP2005258820A (ja) * | 2004-03-11 | 2005-09-22 | Toyota Motor Corp | 感情誘導装置及び感情誘導方法 |
| JP2012242187A (ja) * | 2011-05-17 | 2012-12-10 | Yupiteru Corp | システム及びプログラム |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114852010A (zh) * | 2021-02-04 | 2022-08-05 | 本田技研工业株式会社 | 车辆用安全带装置 |
| JP2022119496A (ja) * | 2021-02-04 | 2022-08-17 | 本田技研工業株式会社 | 車両用シートベルト装置 |
| US11964621B2 (en) | 2021-02-04 | 2024-04-23 | Honda Motor Co., Ltd. | Vehicle seatbelt device |
| WO2022239642A1 (ja) * | 2021-05-13 | 2022-11-17 | 株式会社デンソー | 車両用情報提供装置、車両用情報提供方法、及び車両用情報提供プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7181744B2 (ja) | 2022-12-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN108205731B (zh) | 情境评估车辆系统 | |
| JP6342856B2 (ja) | 車両制御装置 | |
| US20150360608A1 (en) | Systems and methods of improving driver experience | |
| US10207640B2 (en) | Method and system for a warning message in a vehicle | |
| US10674003B1 (en) | Apparatus and system for identifying occupants in a vehicle | |
| JP6631545B2 (ja) | 依存度推定装置 | |
| JP3890996B2 (ja) | 運転支援装置 | |
| US20150310287A1 (en) | Gaze detection and workload estimation for customized content display | |
| WO2015072013A1 (ja) | 表示制御装置、情報表示方法および情報表示システム | |
| JP7358040B2 (ja) | 車両用報知装置 | |
| JP2021172097A (ja) | 車両制御システム | |
| JP2020020987A (ja) | 車内システム | |
| JP7181744B2 (ja) | 車両用エージェント装置 | |
| JP2023160511A (ja) | 運転支援装置 | |
| JP7805179B2 (ja) | エージェント装置 | |
| US10664951B2 (en) | Display control device and display control method | |
| WO2022239642A1 (ja) | 車両用情報提供装置、車両用情報提供方法、及び車両用情報提供プログラム | |
| JP7181743B2 (ja) | 車両用エージェント装置 | |
| JP6428376B2 (ja) | 情報表示装置 | |
| CN213565639U (zh) | 一种基于语音识别的驾驶辅助系统及车辆 | |
| JP2022137590A (ja) | 自動運転車両のテイクオーバーリクエスト通知機能を備えた車載ヘッドマウントディスプレイ装置 | |
| JP7720192B2 (ja) | エージェント装置 | |
| JP7717519B2 (ja) | エージェント装置 | |
| JP7717518B2 (ja) | エージェント装置 | |
| JP7713329B2 (ja) | エージェント装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210823 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220623 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220826 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221025 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221118 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7181744 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |