JP2023019244A - Agent device - Google Patents
Agent device Download PDFInfo
- Publication number
- JP2023019244A JP2023019244A JP2021123830A JP2021123830A JP2023019244A JP 2023019244 A JP2023019244 A JP 2023019244A JP 2021123830 A JP2021123830 A JP 2021123830A JP 2021123830 A JP2021123830 A JP 2021123830A JP 2023019244 A JP2023019244 A JP 2023019244A
- Authority
- JP
- Japan
- Prior art keywords
- agent
- control unit
- driver
- vehicle
- cpu
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、擬人化されたキャラクタによる報知が可能なエージェント装置に関する。 TECHNICAL FIELD The present invention relates to an agent device capable of notification by an anthropomorphic character.
従来から、自動車などの車両での走行環境において、乗員(特に運転者)に注意喚起を促す手法として、様々な手法が提案されている。
このような手法の1つとして、乗員と、擬人化されたキャラクタ(いわゆるエージェント)とが、対話を行いながら、乗員の要求に応じた運転支援に関する情報などを提供するエージェント装置や、運転支援装置が提案されている。
2. Description of the Related Art Conventionally, various methods have been proposed as methods for calling the attention of a passenger (especially a driver) in a driving environment of a vehicle such as an automobile.
As one of such methods, there is an agent device or a driving support device in which a passenger and an anthropomorphic character (a so-called agent) interact with each other to provide information on driving support in response to requests from the passenger. is proposed.
例えば、従来の運転支援装置では、音声などによる危険回避行動の通知では、直感的に伝わり難いと考え、ダッシュボードに小型のロボットを配設し、擬人化されたエージェントとして登場させ、このエージェントに運転者が行うべき危険回避行動を模擬的に実行させるものが提案されている(特許文献1参照)。 For example, with conventional driving support devices, it is difficult to intuitively convey danger avoidance notifications by voice, etc., so we installed a small robot on the dashboard and made it appear as an anthropomorphic agent. A system has been proposed that simulates the danger avoidance behavior that a driver should take (see Patent Literature 1).
しかしながら、従来のエージェントは、無機的なものであったり、突然登場して注意喚起を促すものであったりして、エージェントと、運転者と、の信頼関係が築き難かった。また、エージェントに突然回避行動と同じ動作をとられても、回避行動を取らなければならない原因となったものが解らないと、とっさにその行動を取り難く、特に信頼関係がないと回避行動に繋がらないという問題があった。
特に、走行時に危険回避行動などの運転者に所定の対応処置の必要が発生した場合に、エージェントが突然、回避行動の真似事を行っても、何故エージェントがその行動を行ったのか理解できず、考えているうちに所定の回避行動が間に合わなくなってしまう虞がある。
However, conventional agents are inorganic or appear suddenly to call attention, making it difficult to build a relationship of trust between the agent and the driver. In addition, even if the agent suddenly takes the same action as an evasive action, it is difficult to take that action immediately without knowing what caused the agent to take the evasive action, especially if there is no trusting relationship. I had a problem with not connecting.
In particular, when the driver is required to take a predetermined action such as avoiding danger while driving, even if the agent suddenly mimics the avoidance action, it is difficult to understand why the agent took that action. , while thinking, there is a possibility that the predetermined avoidance action will not be in time.
本発明は、このような従来の問題を解決するためになされたもので、運転者が直感的に理解でき、エージェントの動作により走行環境の把握と同時に、走行環境に適した運転操作を迅速に行わせることができるエージェント装置を提供することを課題とする。 The present invention has been devised to solve such conventional problems. The driver can intuitively understand the driving environment, and at the same time, the driving operation suitable for the driving environment can be quickly performed by the action of the agent. An object of the present invention is to provide an agent device capable of performing
本発明に係るエージェント装置は、シフトポジションを検知するシフトポジション検知部と、周辺状況を取得する周辺状況取得部と、取得した周辺状況により、運転者に対応処置を行わせる必要があるか否かを判断する判断部と、擬人化されたエージェントを制御するエージェント制御部と、を備え、前記エージェント制御部は、運転者に対応処置を行わせる必要があると判断した場合、対応処置を行うことが必要となった原因の方向を、前記エージェントに指差させるとともに、対応処置に応じたジェスチャーを行わせる、ことを特徴とする。 An agent device according to the present invention includes a shift position detection unit that detects a shift position, a surrounding situation acquisition unit that acquires a surrounding situation, and whether or not it is necessary for a driver to take a corresponding action based on the acquired surrounding situation. and an agent control unit for controlling an anthropomorphic agent, wherein the agent control unit performs the corresponding action when determining that the driver needs to take the corresponding action. The agent is made to point in the direction of the cause of the necessity of the action, and is made to make a gesture corresponding to the countermeasure.
本発明によれば、運転者が直感的に理解でき、エージェントの動作により走行環境の把握と同時に、走行環境に適した運転操作を迅速に行わせることができるエージェント装置を提供することができる。 According to the present invention, it is possible to provide an agent device that can be intuitively understood by the driver, and that allows the driver to grasp the driving environment by the action of the agent, and at the same time, allows the driver to quickly perform a driving operation suitable for the driving environment.
以下、本発明の実施の形態について、図面を参照して説明する。
また、以下の説明で、異なる図における同一符号は同一機能の部位を示しており、各図における重複説明は適宜省略する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Also, in the following description, the same reference numerals in different drawings indicate portions having the same function, and duplication of description in each drawing will be omitted as appropriate.
(車室内における各構成)
図1、図2に示すように、車両1は、運転席2の車両前方側に設けられるインストルメントパネル3と、運転席2とインストルメントパネル3との間に配置されるステアリングホイール4と、を有している。ステアリングホイール4は、ステアリングシャフト(図示省略)を介してステアリングコラム(図示省略)に回転自在に取り付けられている。また、ステアリングホイール4の内部には、車両1が衝突等した際に、運転者(以下、ドライバーという)Hに向けて展開するエアバッグ8が格納されている。
なお、本実施の形態のエージェント装置100(後述)およびエージェント200(後述)においては、ドライバーHとの対話やジェスチャー(動作)を基本に説明しているが、他の乗員に対しても同様に行うことができる。
(Each configuration in the passenger compartment)
As shown in FIGS. 1 and 2, a
In addition, in the agent device 100 (described later) and the agent 200 (described later) of the present embodiment, the explanation is based on the interaction and gestures (movements) with the driver H, but the same applies to other passengers. It can be carried out.
図1に示すように、車両1の車室内には、第1表示用パネル30と、第2表示用パネル40と、の2つの表示パネルが設けられている。第1表示用パネル30は、運転席2の前方側のインストルメントパネル3に配置され、第2表示用パネル40は、運転席2の左前方側のインストルメントパネル3に配置されている。
As shown in FIG. 1 , two display panels, that is, a
(第1表示用パネル30)
図1、図2に示すように、第1表示用パネル30は、アナログ時計のように構成された指針式メータと、液晶パネルとバックライトとが一体的に設けられたいわゆる液晶ディスプレイ装置とを備えて構成されている。ドライバーHは、第1表示用パネル30の第1表示領域30aに表示される各種情報を、ステアリングホイール4の上側空間部4aを介して視ることが可能となっている。
(First display panel 30)
As shown in FIGS. 1 and 2, the
図2に示すように、第1表示用パネル30には、第1表示領域30aが設けられており、この第1表示領域30aの左右には、車両1の走行速度(スピードメータ)や、エンジンの単位時間当たりの回転数(タコメータ)などの情報を表示する2つの指針式メータと、2つの指針式メータの間であって第1表示用パネル30の中央部には、一般的な車両情報を示す画像を表示する小型の液晶ディスプレイ装置とが配置される。なお、第1表示用パネル30は、指針式メータを備えずに、全体を1つの液晶ディスプレイ装置で構成してもよい。
As shown in FIG. 2, the
(第2表示用パネル40)
図1に示すように、第2表示用パネル40は、例えば、液晶パネルとバックライトとが一体的に設けられた、いわゆる液晶ディスプレイ装置で構成されている。なお、第2表示用パネル40には地図情報等が表示され、いわゆるカーナビゲーションシステムを担っている。
(Second display panel 40)
As shown in FIG. 1, the
なお、第1表示用パネル30、第2表示用パネル40において構成されている液晶ディスプレイ装置を、プラズマディスプレイや有機EL等の自発光型の表示デバイス、投影型のプロジェクタ等の表示装置で構成してもよい。
It should be noted that the liquid crystal display device constituted by the
(エージェント200)
また、図3に示すように、運転席2の前方側のインストルメントパネル3の上部には、エージェント200が配置されている。
なお、エージェント200は、ドライバーHの周辺視野に入る位置であればどこでもよく、必ずしも運転席の真正面に配置されていなくてもよい。なお、エージェント200は、ドライバーHの周辺視野にあって、ドライバーHの車外の視野等を遮らない位置にあるのが望ましい。また、所定の操作デバイス、または、音声指示等により、エージェント200の配置位置を変更できるようにしてもよい。
(Agent 200)
Further, as shown in FIG. 3, an
The
エージェント200は、擬人化されたキャラクタであり、人型の外形を備えた報知用および対話型の立体物である。なお、本実施の形態において、エージェント200は、人型の実像する立体物としているが、これに限らず、ディスプレイ等の表示装置に表示されたキャラクタであっても、フォログラム等で表現された3次元表示物、仮想立体物等であってもよい。
The
図4に示すように、エージェント200は、頭部211、右眼部212R、左眼部212L、首部213、胸部214、腰部215、臀部216、右肩部221R、左肩部221L、右上腕部222R、左上腕部222L、右肘部223R、左肘部223L、右前腕部224R、左前腕部224L、右手首部225R、左手首部225L、右手部226R、左手部226L、右股関節部231R、左股関節部231L、右大腿部232R、左大腿部232L、右膝部233R、左膝部233L、右下腿部234R、左下腿部234L、右足首部235R、左足首部235L、右足部236R、左足部236Lを有している。
As shown in FIG. 4,
また、エージェント200には、支持コネクタ240が設けられており、エージェント200が、インストルメントパネル3上に立設可能に支持されている。
なお、エージェント200の頭部211の両側部には、耳が設けられている。これにより、ドライバーHの話をエージェント200がよく聴いているように思わせることができる。また、この耳については、実際に設けられていなくても、後述のように、エージェント200がドライバーHの話を聴く際に、エージェント200の頭部211の側部に、右手部226Rまたは左手部226Lを当てることにより、耳に手を当てて聴いているように見せることができ、ドライバーHとの信頼関係を深めることができる。
Further, the
Ears are provided on both sides of the
なお、図4(a)は、エージェント200が、ドライバーH側(車両1の後方側)を向いているときの基本姿勢を示す図であり、図4(b)は、エージェント200が、ドライバーHに背を向けている(車両1の前方側を向いている)ときの基本姿勢を示す図である。
また、基本姿勢において、エージェント200は、右手部226Rの右手掌部226Ra、左手部226Lの左手掌部226Laをエージェント200の内側に向け、右手部226Rの右手甲部226Rb、左手部226Lの左手甲部226Lbをエージェント200の外側に向けて、起立している。
上記のように、エージェント200は、ドライバーH側を向いた前面姿勢と、ドライバーHに背を向けた背面姿勢と、で自由に回転できるようになっている。すなわち、エージェント200は、支持コネクタ240を中心にエージェント200自体が回転するようなものでもよいし、エージェント200を回転体の上にのせて、この回転体を回転させることにより、前面姿勢から背面姿勢、背面姿勢から前面姿勢に回転させるようにしたものであってもよい。
FIG. 4(a) is a diagram showing the basic posture of the
In the basic posture, the
As described above, the
また、エージェント200内には、後述するエージェント制御部190が設けられており、エージェント200の各関節を制御および動作させ、エージェント200が所定の姿勢をとることができるようになっている。エージェント制御部190は、後述する制御部110(ECU)と無線接続されており、制御部110による制御により、エージェント200を動作させるようになっている。なお、本実施の形態では、エージェント制御部190と、制御部110と、を無線接続とするようにしたが、例えば、支持コネクタ240内に通信ラインを通して、有線接続するようにしてもよい。
An
また、エージェント200の頭部211内には、後述するエージェントスピーカ191が設けられており、エージェント制御部190の制御により、音声出力が行われるようになっている。なお、このエージェントスピーカ191は、エージェント200の頭部211内に限らず、エージェント200の他の部位であっても、車両1の他の場所に設けられたものであってもよい。ただし、エージェント200の頭部211内にエージェントスピーカ191が設けられていた方が、ドライバーHに対して、よりリアルにエージェント200からの発話とらえさせることができ、感情移入もし易く、ドライバーHのエージェント200に対する信頼構築に、大きく寄与することができる。
An
次に、本発明におけるエージェント装置100の構成について、図5のブロック図を参照して説明する。
Next, the configuration of the
図5に示すように、エージェント装置100は、制御部110と、周辺環境認識部120と、乗員状態認識部130と、車両状態認識部140と、スピーカ150と、マイク160と、記憶部170と、送受信機180と、エージェント制御部190と、エージェントスピーカ191と、を備えている。
As shown in FIG. 5, the
なお、図5に示すエージェント装置100は一例にすぎず、エージェント装置100の構成要素は適宜変更ができる。例えば、スピーカ150と、エージェントスピーカ191と、はいずれか一方のみでも、本発明のエージェント装置100を実現できる。また、マイク160に加えて、エージェント200内にエージェントマイクを備えても良く、マイク160の代わりに、エージェント200内に備えたエージェントマイクのみを備えたものであっても、本発明のエージェント装置100を実現できる。さらに、本実施の形態においては、制御部110とエージェント制御部190の双方を設けるようにしているが、これに限らず、制御部110、または、エージェント制御部190の一方のみを有し、双方の機能を行うようにしても構わない。
Note that the
(制御部110)
制御部110は、図示しないCPU、ROM、RAM(例えば、リングバッファ)、EEPROM、入出力ポート等を備えており、例えば、入力ポートより情報入力が行われると、ROMから読み出した制御プログラムに基づいて、出力ポートを介して各種デバイスを制御するようになっている。
(control unit 110)
The
なお、制御部110のROMには、エージェント200が行う動作や、セリフのデータテーブル(図示省略)が記憶されている。また、AI等の学習機能を持たせ、記憶されている動作やセリフ以外を行うようにしてもよい。制御部110のCPUは、後述する各認識部から取得した情報や、マイク160から取得した情報に基づいて、エージェント200に行わせる動作やセリフをデータテーブルから決定する。例えば、ドライバーHからの発話をマイク160から取得したら、データテーブルから「うなずき」のジェスチャーを決定し、ドライバーHの発話が終了したら、「了解しました」といったセリフを決定する。なお、エージェント200が行う動作や、セリフのデータテーブルは、エージェント制御部190のROMに記憶させるようにしてもよい。
Note that the ROM of the
(周辺環境認識部120)
周辺環境認識部120は、車両1(自車両)の周辺環境を認識するために設けられている。また、周辺環境認識部120は、車外撮影用カメラ120aと、レーダ120bと、気温センサ120cと、天候センサ120dと、ナビゲーション装置121と、を備えており、これらのデバイスによって車両1の周辺環境および周辺状況を認識することができるようになっている。例えば、周辺環境認識部120は、進行方向のコーナーや曲がり角の存在、接近物の有無などを検知することができるようになっている。
なお、本実施の形態においては、ナビゲーション装置121を、周辺環境認識部120の一部として有する構成としているが、これに限らず、ナビゲーション装置121を周辺環境認識部120とは別体で、単独で有するものであってもよい。
(Surrounding environment recognition unit 120)
The surrounding
In the present embodiment, the
(車外撮影用カメラ120a)
車外撮影用カメラ120aは、例えば、図示しないルームミラーに取り付けられており、車両1の前方、および、車両1の後方を撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、車両1の前方、車両1の後方の状況をリアルタイムおよび事後的に認識することができる。
(
The
(レーダ120b)
レーダ120bは、例えば、電波を飛ばして障害物等を検知するミリ波レーダが用いられており、当該ミリ波レーダが車両1のフロントバンパやリアバンパに取り付けられ、車両1の前方監視、車両1の前側方監視、車両1の後側方監視ができるようになっている。そして、監視情報が制御部110に入力されて、制御部110がRAMに監視情報を記憶する。これにより、制御部110は、車両1の前方、車両1の前側方の状況、車両1の後側方の状況をリアルタイムおよび事後的に認識することができる。なお、本実施の形態においてはミリ波レーダを用いているが、他のレーダを用いてもよい。例えば、赤外線レーダでもよい。
(
The
(気温センサ120c)
気温センサ120cは、例えば、車両1の後部に取り付けられており、車両1の外部の気温を検出できるようになっている。そして、検出した気温が制御部110に入力されて、制御部110がRAMに気温を記憶する。これにより、制御部110は、車両1の外部の気温を認識することができる。
(
The
(天候センサ120d)
天候センサ120dは、例えば、車両1の上部に取り付けられており、車両1にかかる雨の水滴等を検知できるようになっている。そして、検知した水滴情報が制御部110に入力されて、制御部110がRAMに水滴情報を記憶する。これにより、制御部110は、車両1の外部の天候状況を認識することができる。
(
The
(ナビゲーション装置121)
ナビゲーション装置121は、目的地、経由地等に応じて、経路案内を行うものである。また、ナビゲーション装置121は、地図情報やGPS、VICS受信機などを有しており、車両1の現在位置や周辺の地図情報、渋滞情報、道路規制情報、駐車場情報などを取得できるようになっている。したがって、制御部110は、ナビゲーション装置121に加え、車外撮影用カメラ120aやレーダ120bなどが取得した情報をもとに、車両1の周辺状況をリアルタイムに認識することができる。
なお、ナビゲーション装置121は、地図情報についても、随時、受信可能で、最新の地図情報を取得できるようになっている。また、ナビゲーション装置121の送受信部は、後述する送受信機180と兼用するものであっても構わない。
(Navigation device 121)
The
The
以上のようにして、制御部110は、車両1の周辺環境、周辺状況をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の周辺環境、周辺状況の認識に基づいて、エージェント200と、エージェントスピーカ191と、を制御して、車両1の周辺環境、周辺状況の情報をドライバーHに対して報知することができる。例えば、車両1の前方に落下物があれば、「前方に落下物があります」といったジェスチャーおよび音声による報知ができる。これにより、安全性を向上させることができる。
As described above, the
なお、本実施の形態においては、周辺環境認識部120として、車外撮影用カメラ120aと、レーダ120bと、気温センサ120cと、天候センサ120dと、ナビゲーション装置121と、を挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In the present embodiment, as surrounding
(乗員状態認識部130)
乗員状態認識部130は、ドライバーHの状態を認識するために設けられている。また、乗員状態認識部130は、乗員撮影用カメラ130aと、バイタルセンサ130bとを備えており、これらのデバイスによってドライバーHの状態を認識することができるようになっている。
(Occupant state recognition unit 130)
The occupant
(乗員撮影用カメラ130a)
乗員撮影用カメラ130aは、例えば、インストルメントパネル3に取り付けられており、ドライバーHを撮影できるようになっている。そして、撮影した画像情報が制御部110に入力されて、制御部110がRAMに画像情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。なお、ここでいう、ドライバーHの状態とは、具体的には、ドライバーHの目蓋の状態や、瞬きの回数、視線の方向、顔の向き、また、うずくまった状態であるか、動作できない状態であるか、などが想定される。
(
The
(バイタルセンサ130b)
バイタルセンサ130bは、例えば、ステアリングホイール4のドライバーHにより把持される部位に取り付けられ、ドライバーHの心拍数や血圧等のバイタル情報を取得できるようになっている。そして、取得したバイタル情報が制御部110に入力されて、制御部110がRAMにバイタル情報を記憶する。これにより、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。
(
The
以上のようにして、制御部110は、ドライバーHの状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、ドライバーHの状態の認識に基づいて、エージェント200と、エージェントスピーカ191とを制御して、所定の情報をドライバーHに対して報知することができる。例えば、「目蓋が下がっておりますが、休憩しませんか?」といった画像および音声による報知や、「いつもより心拍数が速いですが、休憩しませんか?」といった画像および音声による報知ができる。これにより、安全性の向上に繋がる。
As described above, the
乗員状態認識部130は、乗員撮影用カメラ130aやバイタルセンサ130bから取得した情報や、マイク160から入力した情報に基づいて、ある程度の範囲でドライバーHの思考感情を認識することができる。例えば、乗員撮影用カメラ130aよりドライバーHの顔の表情を取得し、バイタルセンサ130bよりドライバーHの心拍数や血圧を取得し、マイク160より声量および入力内容を取得し、これらの取得した情報からドライバーHが通常の思考感情にあるか、通常とは異なる思考感情(例えば、驚いている、怒っているなど)にあるかを認識することができる。
The occupant
なお、本実施形態においては、乗員状態認識部130として、乗員撮影用カメラ130aと、バイタルセンサ130bと、を挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In this embodiment, the
(車両状態認識部140)
車両状態認識部140は、車両1の状態を認識するために設けられている。また、車両状態認識部140は、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140eと、シフトポジションセンサ140fと、を備えており、これらのデバイスによって車両1の状態を認識することができるようになっている。
(Vehicle state recognition unit 140)
Vehicle
(車速センサ140a)
車速センサ140aは、車両1の車速を検出するためのセンサであって、検出された車速が車速信号として制御部110に入力されて、制御部110がRAMに車速情報を記憶する。これにより、制御部110は、車両1の車速をリアルタイムおよび事後的に認識することができる。
(
The
(ハンドル角センサ140b)
ハンドル角センサ140bは、車両1のハンドル角(ステアリングホイール4の角度)を検出するためのセンサであって、検出されたハンドル角が角度信号として制御部110に入力されて、制御部110がRAMに角度情報を記憶する。これにより、制御部110は、車両1のハンドル角(ステアリングホイール4の角度)をリアルタイムおよび事後的に認識することができる。
(Handle
The steering
(アクセルペダルセンサ140c)
アクセルペダルセンサ140cは、図示しないアクセルペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のアクセルペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(
The
(ブレーキペダルセンサ140d)
ブレーキペダルセンサ140dは、図示しないブレーキペダルの踏み込み量を検出するためのセンサであって、検出された踏み込み量が踏み込み量信号として制御部110に入力されて、制御部110がRAMに踏み込み量情報を記憶する。これにより、制御部110は、車両1のブレーキペダルの踏み込み量をリアルタイムおよび事後的に認識することができる。
(
The
(Gセンサ140e)
Gセンサ140eは、車両1の加速度、減速度及び傾斜を検出するためのセンサであって、加速度が検出された場合は加速度量が、減速度が検出された場合は減速度量が、傾斜が検出された場合は傾斜角度量が、それぞれ加速度量信号、減速度量信号、傾斜角度信号として制御部110に入力されて、制御部110がRAMに加速度情報、減速度情報及び傾斜情報を記憶する。これにより、制御部110は、車両1の加速度、減速度及び傾斜をリアルタイムおよび事後的に認識することができる。
(
The
(シフトポジションセンサ140f)
シフトポジションセンサ140fは、車両1のシフトレンジ(シフトポジション)がどこになっているかを検出するためのセンサである。すなわち、シフトポジションセンサ140fは、シフトレンジが、パーキングレンジ(停車位置)、ドライブレンジ(走行位置)、リバースレンジ(後退位置)、ニュートラルレンジ(中立位置)等の、どの位置に設定されているかを検知するものである。シフトポジションセンサ140fが検知したシフトレンジは、制御部110に入力されて、制御部110がRAMに現在のシフトレンジを記憶する。これにより、制御部110は、シフトレンジがどこに設定されているかを認識することができる。
(
The
以上のようにして、制御部110は、車両1の状態をリアルタイムおよび事後的に認識することができる。これにより、制御部110は、車両1の状態の認識に基づいて、エージェント200と、エージェントスピーカ191と、を制御して、車両1の状態の情報をドライバーHに対して報知することができる。例えば、適切な速度で走行していれば、「適切な速度で走行されていますね」といったジェスチャーおよび音声による報知ができる。これにより、安全性の向上に繋がる。
As described above, the
なお、本実施形態においては、車両状態認識部140として、車速センサ140aと、ハンドル角センサ140bと、アクセルペダルセンサ140cと、ブレーキペダルセンサ140dと、Gセンサ140e、シフトポジションセンサ140fと、を挙げたが、一例にすぎず、他のデバイスを用いても勿論よい。
In this embodiment, the vehicle
(スピーカ150)
スピーカ150は、例えば、インストルメントパネル3に取り付けられており、エージェント200から発せられる音声以外の音声や警告音等が出力される。なお、スピーカ150を設けずに、車両1に内蔵されているオーディオスピーカを用いてもよい。また、後述するように、スピーカ150は、エージェントスピーカ191を兼用するものであってもよい。
(Speaker 150)
The
(マイク160)
マイク160は、例えば、インストルメントパネル3に取り付けられており、ドライバーH、その他乗員から発せられる音声が入力される。
(mic 160)
The
(記憶部170)
記憶部170は、上述した各認識部から取得した情報や、ドライバーHと制御部110とで行われた対話等を記憶することが可能である。制御部110は、これらの情報を記憶部170に蓄積していくことで、ドライバーHの運転傾向(例えば、どのような運転を行うドライバーであるのか)や、ドライバーHの趣味嗜好(例えば、どのようなBGMが好みであるのか)等を認識することができる。また、これらを認識することで、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話をエージェント装置100側(エージェント200)から能動的に行うこともできる。
(storage unit 170)
The
(送受信機180)
送受信機180は、例えば、車載用の無線LANを用いた情報の取得や、衛星測位システムを用いた位置情報の取得などが可能である。制御部110は、これら取得した情報や、上述の記憶部170に蓄積した情報に基づいて、ドライバーHの運転傾向や、ドライバーHの趣味嗜好に併せた対話をエージェント装置100側(エージェント200)から能動的に行うこともできる。
(Transceiver 180)
The transmitter/
(エージェント制御部190)
エージェント制御部190は、図示しないCPU、ROM、RAM、入出力ポート等を備えており、例えば、制御部110から情報入力が行われると、エージェント200の各部を動作させたり、エージェントスピーカ191に対して所定の音声出力を行わせたりできるようになっている。
(Agent control unit 190)
The
(エージェントスピーカ191)
エージェントスピーカ191は、前述のように、エージェント200の頭部211内に設けられており、エージェント200から発せられる音声等が出力される。なお、本実施の形態のように、エージェントスピーカ191をエージェント200の頭部211内、特に口にあたる部分に設けることで、よりリアルになり信頼関係の構築に寄与するものであるが、エージェント200が小さいものであり、頭部211内に設けることが困難である場合などには、前述のスピーカ150で代用したり、車両1内の他の部分にエージェントスピーカ191、または、その代用品となるスピーカを設けたりしてもよい。
(Agent speaker 191)
The
次に、エージェント装置100におけるエージェント200の動作および対話について、説明する。エージェント200の動作および対話は、制御部110による制御処理によって行われ、エージェント制御部190によりエージェント200の各部が動作されるとともに、エージェントスピーカ191から音声が出力される。なお、制御処理を行う制御フローは、制御部110のROMに記憶されており、制御部110のCPUがROMから読み出して各種処理を行う。
Next, the operation and interaction of
以下、図6を用いて、制御部110のCPUにより行われるエージェント制御処理のメイン処理について、説明する。
Main processing of the agent control processing performed by the CPU of the
(ステップS10)
ステップS10において、制御部110のCPUは、イグニッションがオンされると、エージェント制御処理のメイン処理を開始する。具体的には、制御部110のCPUは、ROMからエージェント制御処理のメイン処理を読み出して処理を開始し、ステップS100に処理を移行する。
(Step S10)
In step S10, when the ignition is turned on, the CPU of
(ステップS100)
ステップS100において、制御部110のCPUは、乗車時処理を行う。乗車時処理では、ドライバーHが車両1に乗車した際の開始時の処理を行う。例えば、制御部110のCPUは、乗車時処理において、エージェント200をドライバーHに正対させる処理を行う。また、制御部110のCPUは、ドライバーHへの会話を行ったり、天候、燃料残情報、車両メンテナンスの特筆事項などの乗車時説明事項を、エージェント200に対して発話および動作によって行わせたりする処理などを行う。そして、乗車時処理を終えると、ステップS200に処理を移行する。
(Step S100)
In step S100, the CPU of the
(ステップS200)
ステップS200において、制御部110のCPUは、運転開始前処理を行う。運転開始前処理では、ドライバーHが運転を開始する前の処理を行う。例えば、運転開始前処理では、目的地までの走行環境の注意事項や、休憩ポイントについての説明などを行う。運転開始前処理の説明では、エージェント200は、ドライバーHに正対し、項目ごとに両手を動かして説明し、項目の終了ごとに首を上下するなど完了の合図も行う。そして、運転開始前処理を終えると、ステップS20に処理を移行する。
(Step S200)
In step S200, the CPU of the
(ステップS20)
ステップS20において、制御部110のCPUは、シフトレンジが「P」(パーキングレンジ)であるか否かを判定する処理を行う。具体的には、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、パーキングレンジであるか否かを判定する。制御部110のCPUは、シフトレンジがパーキングレンジでない(この場合、シフトポジションが変更された)と判定した場合には、ステップS300に処理を移行し、シフトレンジがパーキングレンジである(この場合、シフトポジションが変更されていない)と判定した場合には、ステップS400に処理を移行する。
(Step S20)
In step S20, the CPU of
(ステップS300)
ステップS300において、制御部110のCPUは、走行時処理を行う。走行時処理では、走行時におけるエージェント200の制御処理を行う。例えば、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、「D」(ドライブレンジ)である場合には、エージェント200を前方(車両1の進行方向)に向かせる(所定の姿勢をとらせる)などの前進走行時のエージェント200の制御処理を行い、シフトレンジが「R」(リバースレンジ)である場合には、後退走行時のエージェント200の制御処理を行う。走行時処理の詳細については、後述する。そして、走行時処理を終えると、ステップS30に処理を移行する。
(Step S300)
In step S300, the CPU of the
(ステップS30)
ステップS30において、制御部110のCPUは、シフトレンジが「P」(パーキングレンジ)であるか否かを判定する処理を行う。前述のように、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、パーキングレンジであるか否かを判定する。制御部110のCPUは、シフトレンジがパーキングレンジでないと判定した場合には、ステップS300に処理を移行し、シフトレンジがパーキングレンジであると判定した場合には、ステップS400に処理を移行する。
(Step S30)
In step S30, the CPU of
(ステップS400)
ステップS400において、制御部110のCPUは、運転終了時処理を行う。運転終了時処理では、所定の走行が終了した際の終了時の処理を行う。例えば、制御部110のCPUは、運転終了時処理において、エージェント200を改めてドライバーHに正対させ、基本姿勢を取らせる。また、制御部110のCPUは、運転終了時の労いのための音声出力および動作を行ったり、車両における異常や告知情報などがある場合には、異常の告知、警告音の発報や、情報の告知を音声や動作で行ったりする。そして、運転終了時処理を終えると、ステップS40に処理を移行する。
(Step S400)
In step S400, the CPU of the
(ステップS40)
ステップS40において、制御部110のCPUは、シフトレンジが「P」(パーキングレンジ)であるか否かを判定する処理を行う。前述のように、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、パーキングレンジであるか否かを判定する。制御部110のCPUは、シフトレンジがパーキングレンジでない(この場合、シフトポジションが変更された)と判定した場合には、ステップS300に処理を移行し、シフトレンジがパーキングレンジである(この場合、シフトポジションが変更されていない)と判定した場合には、ステップS50に処理を移行する。
(Step S40)
In step S40, the CPU of
(ステップS50)
ステップS50において、制御部110のCPUは、運転再開判定処理を行う。運転再開判定処理では、ドライバーHが運転を再開する意思があるのか否かを判定する処理を行う。例えば、制御部110のCPUは、ドライバーHから「運転を再開します」といった音声入力が行われた場合、または、新たな目的地がナビゲーションシステムに音声入力や手入力によって入力された場合等、運転再開の意思があると判定する。制御部110のCPUは、運転再開の意思があると判定した場合には、ステップS200に処理を移行し、運転再開の意思がないと判定した場合には、ステップS60に処理を移行する。
(Step S50)
In step S50, the CPU of the
(ステップS60)
ステップS60において、制御部110のCPUは、イグニッションがオフされたか否かを判定する。制御部110のCPUは、イグニッションがオフされた場合には、エージェント制御処理のメイン処理を終了し、イグニッションがオフされていない場合には、ステップS40に処理を移行する。
(Step S60)
In step S60, the CPU of
次に、図7を用いて、制御部110のCPUにより行われる走行時処理について説明を行う。図7は、図6のステップS300(走行時処理)のサブルーチンである。
Next, with reference to FIG. 7, the running processing performed by the CPU of the
(ステップS301)
走行時処理では、まず、ステップS301において、制御部110のCPUは、発進時処理を行う。発進時処理では、発進時の注意喚起を行う。すなわち、発進時には、ドライバーHの考えと動作(過去の操作を含む)が一致していない場合が発生しやすい。具体的には、高齢者等が思い込みでシフトポジション(シフトレンジの「D」(ドライブレンジ)と「R」(リバースレンジ)等)を間違え、衝突などが発生することがある。ここでは、安全だろうとの思い込みを排除するため、発進時処理を行う。例えば、制御部110のCPUは、発進時処理において、シフトレンジの読み上げによる行動確認を行う。また、制御部110のCPUは、進行方向の目視確認を促す。これにより、車両1に誤発進機能が搭載されていたとしても、ドライバーHによる誤操作自体を抑制して、安全性を向上させることができる。
(Step S301)
In the running process, first, in step S301, the CPU of the
(ステップS302)
ステップS302において、制御部110のCPUは、シフトレンジが「D」(ドライブレンジ)であるか否かを判定する処理を行う。具体的には、制御部110のCPUは、シフトポジションセンサ140fから入力されたシフトレンジが、ドライブレンジであるか否かを判定する。制御部110のCPUは、シフトレンジがドライブレンジでないと判定した場合には、ステップS303に処理を移行し、シフトレンジがドライブレンジであると判定した場合には、ステップS310に処理を移行する。
(Step S302)
In step S302, the CPU of
(ステップS303)
ステップS303において、制御部110のCPUは、非ドライブレンジ時処理を行う。非ドライブレンジ時処理では、シフトレンジが「D」(ドライブレンジ)時以外の走行時の処理を行う。例えば、制御部110のCPUは、シフトレンジが「R」(リバースレンジ)であれば、リバースレンジ時処理などを行う。リバースレンジ時処理では、駐車を想定した処理などを行う。非ドライブレンジ時処理の詳細については、説明を省略する。そして、非ドライブレンジ時処理を終えると、走行時処理を終了する。
(Step S303)
In step S303, the CPU of the
(ステップS310)
ステップS310において、制御部110のCPUは、走行中処理を行う。走行中処理では、周辺状況に応じて走行中におけるエージェント200の制御処理を行う。例えば、制御部110のCPUは、車両1の走行中における接近物に対する報知や回避動作への誘導などを行う。走行中処理の詳細については、後述する。そして、走行中処理が終了したら、走行時処理を終了する。
(Step S310)
In step S310, the CPU of
次に、図8を用いて、制御部110のCPUにより行われる走行中処理について説明を行う。図8は、図7のステップS310(走行中処理)のサブルーチンである。
Next, the running process performed by the CPU of the
(ステップS311)
走行中処理では、まず、ステップS311において、制御部110のCPUは、接近物があるか否かを判定する処理を行う。具体的には、制御部110のCPUは、車外撮影用カメラ120aやレーダ120b等から入力された周辺状況の情報から、車両1に対して所定の範囲内および所定の速度以上で接近するもの(や人など)があるか否かを判定する。すなわち、制御部110のCPUは、取得した周辺状況により、ドライバーHに対応処置を行わせる必要があるか否かを判断する。制御部110のCPUは、接近物があると判定した場合には、ステップS314に処理を移行し、接近物がないと判定した場合には、ステップS312に処理を移行する。
(Step S311)
In the running process, first, in step S311, the CPU of the
(ステップS312)
ステップS312において、制御部110のCPUは、通常走行中処理を行う。通常走行中処理では、所定の回避行動の必要がない場合などの通常の走行中の処理を行う。例えば、通常走行中処理では、目的地の案内、右左折地点の案内、ドライバーHによる指示に対する処理、日常的な会話や眠気防止処置などを行う。
(Step S312)
In step S312, the CPU of
(ステップS313)
通常走行中処理に次いで、ステップS313において、制御部110のCPUは、車速が「0」であるか否かを判定する処理を行う。具体的には、制御部110のCPUは、車速センサ140aから入力された車速に基づいて、車両1が停止したか否かを判定する。制御部110のCPUは、車速が「0」でないと判定した場合には、ステップS311に処理を移行し、上記処理を繰り返し、車速が「0」であると判定した場合には、走行中処理を終了する。
(Step S313)
Following the normal running process, in step S313, the CPU of
(ステップS314)
ステップS314において、制御部110のCPUは、即時衝突可能性があるか否かを判定する処理を行う。すなわち、車両1に対して、接近物があったとしても、緊急に回避処理を行う必要がある場合と、回避行動を行うまでの必要性はないあるいは緊急ではなく所定の回避行動を行えばよい場合と、がある。したがって、緊急時には、即時、回避行動を行い、緊急でなければ、周辺状況に応じて対応処置を行う。制御部110のCPUは、即時衝突可能性があると判定した場合には、ステップS315に処理を移行し、即時衝突可能性がないと判定した場合には、ステップS316に処理を移行する。
(Step S314)
In step S314, the CPU of
(ステップS315)
ステップS315において、制御部110のCPUは、緊急回避処理を行って、走行中処理を終了する。緊急回避処理では、車両1が接近物に短時間で衝突する可能性があるので、制御部110のCPUは、ドライバーHに対して回避行動も促すが、直接、車両1の動作制御も行う。例えば、制御部110のCPUは、緊急ブレーキの発動を行ったり、エアバッグ8の発動準備や、発動を行ったりする。
(Step S315)
In step S315, the CPU of
(ステップS316)
ステップS316において、制御部110のCPUは、接近物の認識と回避行動の同時伝達動作を行う。具体的には、制御部110のCPUは、エージェント200に対して、一方の腕で接近物を指差しさせ、他方の腕は水平に開き、掌は下方にして、足を屈伸させる。ドライバーHは、エージェント200が接近物を指差すとともに、減速動作を行うので、減速動作の原因が把握でき、減速動作に移行しやすい。また、ドライバーHは、エージェント200によって接近物が指差されているので、一瞬の視線の移行や、周辺視野で接近物を捉えることができ、運転に支障をきたすことなく、接近物の把握と回避行動を行うことができる。なお、接近物への指差しは、短時間とする。すなわち、接近物を凝視させると、回避行動に移り難くなってしまうためである。そして、接近物の認識と回避行動の同時伝達動作後に、ステップS317に処理を移行する。
(Step S316)
In step S316, the CPU of the
(ステップS317)
ステップS317において、制御部110のCPUは、接近物の発見に対する発話処理を行う。具体的には、制御部110のCPUは、接近物を発見したこと、接近物の特徴、接近物の方向などを、簡潔に音声出力する。ここで、音声出力する接近物の情報は、なるべく簡潔に伝達する。すなわち、接近物に対する情報が過多となってしまうと、かえって混乱してしまうので、最低限の情報のみとする。ドライバーHは、この音声出力が加わることにより、上記エージェント200による接近物の指差し(エージェント200の動作)に対して、情報が補完されることとなる。そして、接近物の発見に対する発話処理を終了すると、ステップS318に処理を移行する。
(Step S317)
In step S317, the CPU of
(ステップS318)
ステップS318において、制御部110のCPUは、回避行動に移るための動作を行う。すなわち、制御部110のCPUは、ドライバーHが接近物を回避する行動に移るように、直感的に理解できるような動作をエージェント200に行わせる。
(Step S318)
In step S318, the CPU of the
具体的には、図9に示すように、制御部110のCPUは、エージェント200に対して、掌を下に向け、両腕を水平に広げさせる。これにより、ドライバーHに対して、中心視野に意識が集中していたものを、周辺の注意も必要であることを意識付けさせる。そして、制御部110のCPUは、エージェント200の両腕を広げたまま、両足を屈伸させて、しゃがみこませる。これにより、減速の指示を行い、ドライバーHに減速行動を起こさせることができる。なお、減速の必要度合いに応じて、屈伸量(屈伸の深さ)を変えることで、減速の量をイメージさせることができる。
Specifically, as shown in FIG. 9, the CPU of the
次に、図10に示すように、制御部110のCPUは、エージェント200に対して、一方の腕で回避方向を指差しながら、他方の腕を伸ばしたまま上下に動かす。なお、エージェント200の屈伸は継続して行う。これにより、減速しながら、回避方向を認識させる。
Next, as shown in FIG. 10, the CPU of the
次いで、図11に示すように、制御部110のCPUは、エージェント200に対して、ハンドル(ステアリングホイール4)を握り、ブレーキペダルを踏む姿勢をとらせる。そして、制御部110のCPUは、エージェント200に対して、回避方向を向かせた後、回避方向を腕全体で指差しさせることにより、回避行動を促す。
Next, as shown in FIG. 11, the CPU of the
このように、エージェント200に一連動作を実行させることにより、ドライバーHに対して、直感的に必要な動作を理解させ、迅速に行動を行わせることができる。そして、回避行動に移るための動作の実行後、ステップS319に処理を移行する。
By having the
(ステップS319)
ステップS319において、制御部110のCPUは、対象接近物を回避したか否かを判定する処理を行う。制御部110のCPUは、対象接近物を回避したと判定した場合には、ステップS311に処理を移行し、対象接近物を回避していないと判定した場合には、ステップS318に処理を移行する。
(Step S319)
In step S319, the CPU of the
なお、上記ステップS318およびステップS319においては、ステップS318において一連の回避行動に移るための動作を行ってから、ステップS319で対象接近物を回避したか否かを判定する処理を行っているが、一連の回避行動に移るための動作を行っている間に、対象接近物を回避したか否かを判定する処理を行ってもよい。例えば、図9に示す回避行動に移るための動作を行った後、対象接近物を回避したか否かを判定し、次に、図10に示す回避行動に移るための動作を行った後、対象接近物を回避したか否かを判定し、次いで、図11に示す回避行動に移るための動作を行った後、対象接近物を回避したか否かを判定するようにしてもよい。 It should be noted that in steps S318 and S319, after performing a series of actions for transitioning to the avoidance action in step S318, the process of determining whether or not the target approaching object has been avoided is performed in step S319. A process of determining whether or not the target approaching object has been avoided may be performed while performing a series of actions for transitioning to the avoidance action. For example, after performing the action for shifting to the avoidance action shown in FIG. 9, it is determined whether or not the target approaching object has been avoided, and then after performing the action for shifting to the avoidance action shown in FIG. It may be determined whether or not the approaching object has been avoided, and then, after performing an action for shifting to the avoidance action shown in FIG. 11, it may be determined whether or not the approaching object has been avoided.
以上のように、本実施の形態のエージェント装置100は、エージェント200に対して、必要な回避行動の真似事だけではなく、回避行動を取らなければならない原因となった事象を即座に理解させつつ、ドライバーHのとるべき必要な動作を直感的に理解させ、走行環境に適した運転操作を迅速に行わせることができる。
As described above, the
なお、本実施の形態のエージェント制御処理は、制御部110のROM、RAM、EEPROM等に記憶されたプログラムが、制御部110のRAM等に展開されて、制御部110のCPU等によって実行される。
さらに、本実施の形態において、シフトポジションセンサ140fは、本願のシフトポジション検知部を構成する。また、本実施の形態において、周辺環境認識部120は、本願の周辺状況取得部を構成する。また、本実施の形態において、制御部110は、本願の判断部を構成する。
In the agent control process of the present embodiment, a program stored in the ROM, RAM, EEPROM, etc. of the
Furthermore, in the present embodiment, the
また、本実施の形態においては、制御部110とエージェント制御部190の双方によって、本願のエージェント制御部を構成するようにしたが、前述のように、エージェント制御部190のみで、本実施の形態の制御部110とエージェント制御部190の双方の機能を有するようにしてもよい。
In the present embodiment, both the
1:車両、100:エージェント装置、110:制御部、120:周辺環境認識部、130:乗員状態認識部、140:車両状態認識部、140f:シフトポジションセンサ、150:スピーカ、160:マイク、170:記憶部、180:送受信機、190:エージェント制御部、191:エージェントスピーカ、200:エージェント
1: vehicle, 100: agent device, 110: control unit, 120: surrounding environment recognition unit, 130: occupant state recognition unit, 140: vehicle state recognition unit, 140f: shift position sensor, 150: speaker, 160: microphone, 170 : storage unit, 180: transceiver, 190: agent control unit, 191: agent speaker, 200: agent
Claims (5)
周辺状況を取得する周辺状況取得部と、
取得した周辺状況により、運転者に対応処置を行わせる必要があるか否かを判断する判断部と、
擬人化されたエージェントを制御するエージェント制御部と、
を備え、
前記エージェント制御部は、
運転者に対応処置を行わせる必要があると判断した場合、対応処置を行うことが必要となった原因の方向を、前記エージェントに指差させるとともに、対応処置に応じたジェスチャーを行わせる、
ことを特徴とするエージェント装置。 a shift position detection unit that detects a shift position;
a peripheral situation acquisition unit that acquires a peripheral situation;
a judgment unit for judging whether or not it is necessary for the driver to take a corresponding action according to the acquired surrounding situation;
an agent control unit that controls an anthropomorphic agent;
with
The agent control unit
When it is determined that it is necessary for the driver to take a corrective action, having the agent point in the direction of the cause of the need to take the corrective action and perform a gesture corresponding to the corrective action;
An agent device characterized by:
前記判断部により、運転者に減速行動を起こさせる必要があると判断した場合、両腕を広げるとともに屈伸させ、減速の必要度合いに応じて屈伸量を設定する、
ことを特徴とする請求項1に記載のエージェント装置。 The agent control unit
When the determination unit determines that it is necessary to cause the driver to decelerate, spread both arms and bend and stretch, and set the amount of bending and stretching according to the degree of necessity of deceleration.
The agent device according to claim 1, characterized by:
前記判断部により、運転者に回避行動を起こさせる必要があると判断した場合、一方の腕を上下に動かし、他方の腕で進行方向を指し示す、
ことを特徴とする請求項1または請求項2に記載のエージェント装置。 The agent control unit
When the determination unit determines that it is necessary to cause the driver to take avoidance action, move one arm up and down and point the direction of travel with the other arm.
3. The agent device according to claim 1 or 2, characterized by:
前記回避行動の後に、ハンドルを握った姿勢と、ブレーキペダルを踏んだ姿勢を取らせる、
ことを特徴とする請求項3に記載のエージェント装置。 The agent control unit
After the avoidance action, take a posture of holding the steering wheel and a posture of stepping on the brake pedal,
4. The agent device according to claim 3, characterized by:
前記判断部により、運転者に停止を促す必要があると判断した場合、掌を運転者に向けさせる、
ことを特徴とする請求項1から請求項4のいずれか1項に記載のエージェント装置。
The agent control unit
If the determination unit determines that it is necessary to prompt the driver to stop, direct the palm to the driver;
5. The agent device according to any one of claims 1 to 4, characterized by:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021123830A JP7713329B2 (en) | 2021-07-29 | 2021-07-29 | Agent Device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021123830A JP7713329B2 (en) | 2021-07-29 | 2021-07-29 | Agent Device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023019244A true JP2023019244A (en) | 2023-02-09 |
| JP7713329B2 JP7713329B2 (en) | 2025-07-25 |
Family
ID=85160063
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021123830A Active JP7713329B2 (en) | 2021-07-29 | 2021-07-29 | Agent Device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7713329B2 (en) |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1038601A (en) * | 1996-07-29 | 1998-02-13 | Takaaki Nagai | Information display device for vehicle |
| JP2000193480A (en) * | 1998-12-25 | 2000-07-14 | Fujitsu Ltd | In-vehicle input / output device |
| JP2004093354A (en) * | 2002-08-30 | 2004-03-25 | Casio Comput Co Ltd | Operation information output device and program |
| JP2009140305A (en) * | 2007-12-07 | 2009-06-25 | Honda Motor Co Ltd | Vehicle information presentation device |
| JP2018032204A (en) * | 2016-08-24 | 2018-03-01 | トヨタ自動車株式会社 | Driving assistance device |
| JP2020160726A (en) * | 2019-03-26 | 2020-10-01 | 株式会社東海理化電機製作所 | Information presentation system |
| JP2021072039A (en) * | 2019-11-01 | 2021-05-06 | 株式会社東海理化電機製作所 | Presentation device |
-
2021
- 2021-07-29 JP JP2021123830A patent/JP7713329B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1038601A (en) * | 1996-07-29 | 1998-02-13 | Takaaki Nagai | Information display device for vehicle |
| JP2000193480A (en) * | 1998-12-25 | 2000-07-14 | Fujitsu Ltd | In-vehicle input / output device |
| JP2004093354A (en) * | 2002-08-30 | 2004-03-25 | Casio Comput Co Ltd | Operation information output device and program |
| JP2009140305A (en) * | 2007-12-07 | 2009-06-25 | Honda Motor Co Ltd | Vehicle information presentation device |
| JP2018032204A (en) * | 2016-08-24 | 2018-03-01 | トヨタ自動車株式会社 | Driving assistance device |
| JP2020160726A (en) * | 2019-03-26 | 2020-10-01 | 株式会社東海理化電機製作所 | Information presentation system |
| JP2021072039A (en) * | 2019-11-01 | 2021-05-06 | 株式会社東海理化電機製作所 | Presentation device |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7713329B2 (en) | 2025-07-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11492017B2 (en) | Information presentation device and information presentation method | |
| JP4380541B2 (en) | Vehicle agent device | |
| JP6976089B2 (en) | Driving support device and driving support method | |
| US10994612B2 (en) | Agent system, agent control method, and storage medium | |
| JP3160108B2 (en) | Driving support system | |
| WO2018220827A1 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
| JP6631545B2 (en) | Dependency estimator | |
| WO2019058781A1 (en) | Parking assistance device | |
| JP2006284454A (en) | In-car agent system | |
| JP7272338B2 (en) | Autonomous driving system | |
| JPH07117593A (en) | Vehicle alarm system | |
| WO2020195462A1 (en) | Information presentation system | |
| JP2020130502A (en) | Information processing device and information processing method | |
| WO2022239642A1 (en) | Information providing device for vehicle, information providing method for vehicle, and information providing program for vehicle | |
| JP7095337B2 (en) | Display control device and display control method | |
| JP7713329B2 (en) | Agent Device | |
| JP2023106916A (en) | Agent device | |
| JP7765212B2 (en) | Agent Device | |
| JP7181744B2 (en) | Vehicle agent device | |
| JP7779674B2 (en) | Agent Device | |
| JP2023019245A (en) | Agent device | |
| JP7720192B2 (en) | Agent Device | |
| JP7717519B2 (en) | Agent Device | |
| JP7181743B2 (en) | Vehicle agent device | |
| WO2021177154A1 (en) | Driving assistance device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240610 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250122 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250214 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250407 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250617 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250714 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7713329 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |