[go: up one dir, main page]

JP2009282704A - 自動車用情報提供システム - Google Patents

自動車用情報提供システム Download PDF

Info

Publication number
JP2009282704A
JP2009282704A JP2008133463A JP2008133463A JP2009282704A JP 2009282704 A JP2009282704 A JP 2009282704A JP 2008133463 A JP2008133463 A JP 2008133463A JP 2008133463 A JP2008133463 A JP 2008133463A JP 2009282704 A JP2009282704 A JP 2009282704A
Authority
JP
Japan
Prior art keywords
user
conversation
keyword
interest
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008133463A
Other languages
English (en)
Other versions
JP4547721B2 (ja
Inventor
Shogo Kameyama
昌吾 亀山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2008133463A priority Critical patent/JP4547721B2/ja
Priority to US12/465,986 priority patent/US8185380B2/en
Publication of JP2009282704A publication Critical patent/JP2009282704A/ja
Application granted granted Critical
Publication of JP4547721B2 publication Critical patent/JP4547721B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q3/00Arrangement of lighting devices for vehicle interiors; Lighting devices specially adapted for vehicle interiors
    • B60Q3/80Circuits; Control arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 ユーザーが車外で過ごす時間も含めて、該ユーザーの最新の趣味や興味を反映した情報をより濃密に吸い上げることができ、千差万別な嗜好にも的確に対応できる自動車用情報提供システムを提供する。
【解決手段】 ユーザーによる音声や手入力等でなされる会話入力内容から、会話し援用に予め定められた参照キーワードを辞書照合により抽出し、抽出された参照キーワード自体か、又はその参照キーワードと予め関連付けられている別の参照キーワードを、別途用意された応答文雛型に誘導用キーワードとしてはめ込み合成する形で誘導会話応答文を作成し、音声や文字等で出力する会話支援手段を設ける。該会話支援により入力されたユーザーの一連の会話内容を興味特定用母データとして蓄積し、これを解析して適切な情報提供を図る。
【選択図】 図29

Description

この発明は、自動車用情報提供システムに関する。
特開2007−174441号公報 特開2007− 11380号公報 インターネットホームページ「人工無脳は考える」(URL:http://www.ycf.nanet.co.jp/~skato/muno/index.shtml)
近年、携帯電話と車載情報提供機器(具体的にはカーナビゲーションシステム)とを相互リンクする技術の開発が活発に行なわれている。例えば、カーナビゲーションシステムの音声入力用/出力インフラを利用して、携帯電話と該カーナビゲーションシステムとを双方向近距離無線ネットワーク(例えばBluetooth(商標名))にて接続し、ハンズフリー通話システムを構築する技術が実用化されている。また、このように無線接続された携帯電話を、カーナビゲーションシステムの入力端末として用いたり、あるいは外部ネットワーク(例えばインターネット)との接続端末として用い、携帯電話を介してダウンロードした画像、映像あるいは音楽などを無線転送し、カーナビゲーションシステムのモニタに出力させたりするためのインターフェースも多数開発されており(例えば、特許文献2)、これをさらに具体化した無線接続アダプタが既に市販されている(例えば、商品名:PDI−B922((株)アイ・オー・データ機器))。
しかし、上記各従来技術はいずれも、携帯電話との複合化によりカーナビゲーション装置の操作性や利便性を向上させることを主眼としており、千差万別なユーザー嗜好への対応柔軟化を目的とするものではなかった。なお、ユーザー嗜好への適合を図る試みとしては、カーナビゲーション装置の車内操作履歴や地図情報へのアクセス履歴に基づき、好みの道順や最近訪問した目的地の設定操作を簡略化する学習機能を例示できる。しかし、運転を職業とする場合を除けば、大多数のユーザーにとって日常生活に占める車の使用時間は総体的に短く、自動車側のサービス内容を個人の嗜好に適合させるのに十分な時間が得られない問題がある。他方、早期に個人の嗜好に適合させるために、ディーラー等でのアンケートにより設定をカスタマイズする対応も可能であるが、ユーザー個別の最新の趣味や興味をその都度設定に反映させることは所詮不可能であり、また、サービスがディーラーで購入する自動車に限定される問題もある。
本発明の課題は、該ユーザーの最新の趣味や興味を反映した情報をより濃密に吸い上げることができ、千差万別なユーザー嗜好にも的確に対応できる自動車用情報提供システムを提供することにある。
課題を解決するための手段及び作用・効果
上記の課題を解決するために、本発明の自動車用情報提供システムは、
自動車のユーザーによる音声入力又は手動操作により会話入力がなされる会話入力手段と、
ユーザーの擬似会話相手として構築され、複数の参照キーワードを登録した参照キーワード辞書を記憶する参照キーワード辞書記憶部と、ユーザーによる会話入力内容をキーワード辞書と照合することにより参照キーワードを抽出する参照キーワード抽出手段と、抽出された参照キーワードもしくはキーワード辞書内にて当該抽出された参照キーワードと予め関連付けられている別の参照キーワードを、ユーザーの次の会話入力を誘導するため誘導用キーワードとして、該誘導用キーワードの挿入空白部を有した応答文雛型を複数記憶する応答文雛型記憶部と、ユーザーによる会話入力がなされる毎に該応答文雛型記憶部から応答文雛型を順次読み出し、当該応答文雛型の挿入空白部に、抽出された参照キーワードに対応する誘導用キーワードを挿入することにより、ユーザーによる次の会話入力を誘導するための誘導会話応答文を作成し出力する誘導会話応答文作成出力手段と、を有した会話支援手段と、
会話支援手段の誘導を受けて入力されたユーザーの一連の会話内容に基づく興味特定用母データを蓄積する興味抽出用母データ蓄積手段と、
興味抽出用母データの蓄積内容に基づいてユーザーの興味対象を解析し、該興味対象に適合する被提供情報を収集する被提供情報収集手段と、
収集した被提供情報を画像、音声もしくはそれらの組合せにより出力する被提供情報出力手段と、を備えたことを特徴とする。
本発明では、ユーザーによる音声や手入力等でなされる会話入力内容から、会話し援用に予め定められた参照キーワードを辞書照合により抽出し、抽出された参照キーワード自体か、又はその参照キーワードと予め関連付けられている別の参照キーワードを、別途用意された応答文雛型に誘導用キーワードとしてはめ込み合成する形で誘導会話応答文を作成し、音声や文字等で出力する会話支援手段を設ける。その誘導会話応答文の出力に応答する形でユーザーが次の会話入力を行なうと、会話支援手段はこれに対応する誘導会話応答文を作成して出力する。このように、ユーザーは会話支援手段に導かれながら対話形式で会話入力を行なうこととなる。こうして入力されたユーザーの一連の会話内容は興味特定用母データとして蓄積される(会話内容は、そのまま興味特定用母データとして蓄積してもよいし、必要なキーワードを抽出したものを興味特定用母データとして蓄積してもよい)。
そして、本発明においては、上記のように蓄積された興味抽出用母データからユーザーの現在の興味を反映したユーザー興味情報を抽出し、そのユーザー興味情報に適合する被提供情報を収集して、自動車を利用するユーザーにこれを提供する。会話支援手段から返される誘導会話応答文には、ユーザーの会話発言内容に由来した参照キーワードが積極的に取り込まれる形になるので、ユーザーは自分の発言内容をシステム側が知的に解釈して応答をしているかのような錯覚を覚え、気分をよくして会話を継続することとなる。その結果、ユーザーが現在抱いている最新の趣味や興味を反映した情報をより濃密に吸い上げることができ、千差万別なユーザー嗜好にも的確に対応できる情報提供が可能となる。
会話支援手段は、会話入力内容を形態素解析(単語分解)し、さらに、必要に応じて分解結果として得られた形態素(参照キーワード)間の修飾関係を特定する構文解釈を行い、その構文解釈も考慮して最適な応答文雛型を決定するようにしてもよい。しかし、その構文解釈を特に行なわず、予め定められた会話誘導順序か、もしくはランダムに選択された応答文雛型に誘導用キーワードを機械的に適用して誘導会話応答文を作成するアルゴリズムを採用すれば、会話支援手段に構文解釈用の複雑な構文解釈エンジンを搭載する必要がなくなる。しかし、システム側から返される誘導会話応答文には、ユーザーの会話発言内容に由来した参照キーワードが積極的に取り込まれる点には何ら変わりなく、比較的軽量な会話支援エンジンであるにもかかわらず、これを知的な相手と錯覚させて会話継続を図ることができる。このような会話支援エンジンは「人工無脳」と称されて公知であり(非特許文献1)、本発明の会話支援手段を該人工無脳にて構築することができる。
被提供情報の配信元は、自動車側情報出力システムに設けられた、被提供情報を記憶する車載被提供情報記憶部とすることができる。被提供情報収集手段は該車載被提供情報記憶部にて被提供情報をユーザー興味情報に基づいて検索・収集するものとすることができる。車載被提供情報記憶部を設けておくことで、抽出されたユーザー興味情報に適合する被提供情報が車載被提供情報記憶部内に存在すれば、これを直ちに読み出して出力することができる。一方、携帯電話と自動車側情報出力システムとが共通にアクセス可能な外部ネットワーク上に情報提供サーバーを設け、被提供情報収集手段を、ユーザー興味情報に基づき、外部ネットワークを介して情報提供サーバーにて被提供情報を検索・収集するものとして構成することもできる。この方式であると、自動車側情報出力システムに車載被提供情報記憶部を設けずとも被提供情報を検索・収集できるし、車載被提供情報記憶部を設ける場合でも、該記憶部に網羅されていない被提供情報を情報提供サーバーへのアクセスにより補うことができる。
本発明の自動車用情報提供システムには、会話内容からユーザーの興味特定に使用する興味特定キーワードを抽出する興味特定キーワード抽出手段を設けることができる。興味抽出用母データ蓄積手段は、該抽出された興味特定キーワードを蓄積する興味特定キーワード蓄積手段を有するものとして構成できる。ユーザーの興味特定に使用するキーワードを抽出することで、ユーザーの興味対象をキーワードの形で的確に特定するができる。会話入力手段は、例えば音声入力用のマイクとすることができる。
この場合、被提供情報収集手段は、興味特定キーワード抽出手段が抽出した興味特定キーワードに基づいて、収集すべき被提供情報の検索を行なうものとできる。そして、ユーザー興味情報抽出手段は、興味特定キーワード蓄積手段に蓄積されている興味特定キーワードの出現頻度を解析し、出現頻度の高い興味特定キーワードほど被提供情報収集手段における被提供情報の検索に際しての採用優先度を高く設定するように構成できる。会話中での出現頻度の高い興味特定キーワードを用いることで、現在のユーザーの興味をより的確に特定することができる。
ユーザー興味情報抽出手段には、興味抽出用に予め選定された興味特定キーワード群を網羅した興味特定キーワード辞書を記憶する興味特定キーワード辞書記憶部を設けておくことができる。興味特定キーワード抽出手段は、音声認識された入力内容を単語分解(いわゆる形態素解析)し、その分解結果を興味特定キーワード辞書と照合するもとにより、該興味特定キーワード辞書に網羅されている興味特定キーワードを選択的に抽出するものとして構成することができる。ユーザーが行なう会話において、ユーザーの興味推定の手がかりとして有用な興味特定キーワード群は比較的限られているので、興味特定キーワード辞書を搭載しておき、その興味特定キーワード辞書に網羅されている興味特定キーワードを選択的に抽出すれば、ユーザーの興味をより的確に特定することができる。この場合、ユーザー興味情報抽出手段は、外部ネットワークを介して季節、流行ないし最新トピックに関係する新キーワード群を含んだキーワード更新情報を定期的に受信取得するキーワード更新情報取得手段と、取得した更新情報に基づいて興味特定キーワード辞書を更新するキーワード辞書更新手段とを備えるものとして構成できる。このようにすると、季節、流行ないし最新トピックの移り変わりに応じて興味特定キーワード辞書の内容を常に適正化でき、タイムリーな興味抽出を行なうことができる。
現在ユーザーが最も興味を抱いている情報内容を特定する上では、被提供情報収集手段は、興味特定キーワードのうち、出現頻度の最も高い第一キーワードを用いて被提供情報の検索を行なうものとすることが望ましい。しかし、第一キーワードのみでは被提供情報の検索ヒット件数が閾件数を超えてしまう場合もある。この場合は、被提供情報収集手段は、出現頻度が第一キーワードに次いで高い第二キーワードを用いて被提供情報の検索絞込みを行なうように構成できる。
興味特定キーワード辞書は、誘導会話応答文作成出力手段が使用する参照キーワード辞書に兼用することができる。これにより、会話支援手段が返す誘導会話応答文には参照キーワードとして興味特定キーワードが積極的に取り込まれる形となり、ユーザーの興味特定により集中した会話誘導が可能となる。この場合、誘導会話応答文作成出力手段が有する参照キーワード抽出手段を、ユーザー興味情報抽出手段の興味特定キーワード抽出手段に兼用することもできる。このようにすると、誘導会話応答文作成と並行してユーザー会話内容に含まれる興味特定キーワードの抽出も同時に行なうことができ、効率的である。
次に、会話支援手段において、参照キーワード辞書及び応答文雛型からなる会話支援ベースデータは、予め定められた会話支援シーンに応じて異なる内容のものを複数組用意することができる。この場合、会話支援シーンの到来を検出する会話支援シーン特定手段と、特定された会話支援シーンに応じて会話支援ベースデータを切り替える会話支援ベースデータ切替手段とを設けることができる。会話支援シーンの種類によって会話支援ベースデータを切り替えることで、より的確な会話誘導をシーン別に行なうことができ、各シーンに適合したユーザー興味対象を特定することが可能となる。この場合、会話支援手段は、会話支援シーン毎に用意された会話きっかけフレーズを記憶する会話きっかけフレーズ記憶部と、会話支援シーンの到来が検出されるに伴い、対応する会話きっかけフレーズを読み出して出力する会話きっかけフレーズ出力手段とを有するものとして構成できる。会話支援シーンの到来に合わせ、会話きっかけフレーズをシステム側から自発的に出力することで、当該シーンでのユーザー興味対象をいち早く特定することが可能となり、タイムリーな情報提供を行なうことができる。
例えば、会話支援シーン特定手段は、自動車の始動シーンを会話支援シーンとして特定するように構成できる。会話支援ベースデータ切替手段は、最終訪問地に係る興味対象情報をユーザーから引き出すための会話支援ベースデータに切り替えるものとして構成できる。自動車始動時(つまり、出発時)において、ユーザーの最終訪問地に関係する情報を会話支援により引き出すことができれば、最終訪問地やその周辺(あるいは道中)に関係してユーザーの興味を引く情報をいち早く提供でき、充実した車中を過すことができる。
また、会話支援シーン特定手段は、ユーザーの空腹シーンを会話支援シーンとして特定するように構成できる。会話支援ベースデータ切替手段は、食事内容に係る興味対象情報をユーザーから引き出すための会話支援ベースデータに切り替えるように構成できる。空腹シーンを特定することで、例えばユーザーがどこで何を食べたいのかなど、食事内容に係る興味対象情報を的確に取得でき、食事施設などに係る情報提供を効果的に行なうことができる。
また、会話支援シーン特定手段は、ユーザーの疲労シーンを会話支援シーンとして特定するように構成できる。会話支援ベースデータ切替手段は、休息活動内容に係る興味対象情報をユーザーから引き出すための会話支援ベースデータに切り替えるように構成できる。疲労シーンを特定することでユーザーに休息を促すタイミングを図ることができ、休息活動内容に係る興味対象情報をユーザーから引き出すことで、ユーザーの興味に合った休息方法に係る情報を的確に提供することができ、安全運転にも貢献する。
また、会話支援手段において、参照キーワード辞書及び応答文雛型からなる会話支援ベースデータは、会話支援適用対象となるユーザーの体調ないし精神状態に応じて異なる内容のものを複数組用意することが可能である。この場合、ユーザーの体調ないし精神状態を反映したユーザー生体特性情報を取得するユーザー生体特性情報取得手段と、取得したユーザー生体特性情報の内容に基づいて、ユーザーの体調ないし精神状態をそれぞれ特定する体調・精神状態特定手段と、特定されたユーザーの体調ないし精神状態に応じて会話支援ベースデータを切り替える会話支援ベースデータ切替手段とを設けることができる。これにより、ユーザーの体調ないし精神状態に応じた会話誘導を行なうことができ、ユーザーの体調ないし精神状態に適合した情報提供が可能となる。
なお、会話支援ベースデータは、季節に応じて内容の異なるものを用意しておくことが可能である。会話支援ベースデータ切替手段は、現在の季節を検出し、該季節に対応する会話支援ベースデータを選択して使用することができる。このようにすると、季節に応じて会話誘導の流れを変えることができ、季節に適合した情報提供が可能となる。
自動車に乗車中のユーザーの関心は、そのときの興味に応じて、これからどこに行きたいか、あるいは行き先が決まっている場合でもどこに寄りたいか、という点に集中するものである。従って、本発明の自動車用情報提供システムは、カーナビゲーションシステムを含むものとして構成することができる。被提供情報収集手段は被提供情報としてユーザー興味情報に適合する目的地情報をカーナビゲーションシステム上で検索・収集するものとして構成すれば、抽出された興味に適合する目的地へユーザーを的確に案内することができる。
一方、本発明の自動車用情報提供システムにインターネットウェブサイトへの無線アクセス手段が設けられている場合は、被提供情報収集手段は被提供情報としてユーザー興味情報に適合するウェブサイ情報をインターネット上で検索・収集するように構成することができる。これにより、抽出された興味に応じて、これに適合するインターネットウェブサイトにタイムリーにアクセスがなされ、ユーザーを満足させることができる。この他にも、映像や音楽のデータを、車載被提供情報記憶部内のライブラリーから読み出して再生したり、あるいは外部ネットワークから無線によりダウンロードして再生したりすることが可能である。
なお、同じユーザーが何度も自動車に乗るうちに、同じ被提供情報の出力が繰り返しなされる結果、被提供情報が陳腐化する場合がある。この場合、自動車側情報出力システムに、被提供情報出力手段による被提供情報の出力履歴情報を記録する出力履歴情報記録手段を設け、被提供情報収集手段は、該出力履歴情報にて最新一定期間内の出力実績が閾回数未満の被提供情報を優先的に収集するよう構成することができる。これにより、同じユーザーに対していつも新鮮な提供情報が可能となる。なお、被提供情報収集手段は、抽出されたユーザー興味情報を用いた第一の検索を行ったとき、その結果において出力履歴情報にて最新一定期間内の出力実績が閾回数未満の被提供情報に係る検索ヒット件数が所定値未満となることもありえる。この場合、第一の検索よりも絞込条件を緩和した第二の検索を実施することで、被提供情報の候補を拡張することができる。
以下、本発明の実施の形態を添付の図面を用いて詳しく説明する。図1は、本発明の自動車用情報提供システムの機能を具備した自動車用ユーザーもてなしシステム(以下、単に「システム」ともいう)100の概念ブロック図である。該システム100は、種々のもてなし動作部502〜517,534,541,548,549,550,551,552,1001Bが接続された第一のコンピュータからなるもてなし実行制御部3と、種々のセンサ・カメラ群518〜528が接続された第二のコンピュータからなるもてなし意思決定部2とからなる自動車側搭載部100を、その要部とする形で構成されている。第一のコンピュータと第二のコンピュータは、いずれもCPU,ROM,RAMを備え、ROMに格納された制御ソフトウェアを、RAMをワークメモリとして実行することにより、後述の種々の機能を実現する。
上記システム100においては、ユーザーが自動車に向けて接近し、該自動車に乗り込み、該自動車を運転し又は車内にて滞在し、その後、降車に至るまでのユーザーの自動車利用に係る一連の動作が、予め定められた複数のシーンに区切られる。そして、区切られた複数のシーン毎に、もてなし動作部502〜517,534,541,548,549,550,551,552,1001Bが、ユーザーによる自動車の利用を補助するための、又はユーザーを楽しませるためのもてなし動作を行なう。本実施形態では、車外への音波発生装置としてホーン502、ブザー503が接続されている。また、照明装置(ランプ類)としては、ヘッドランプ504(ビームをハイとローとで切り替え可)、フォグランプ505、ハザードランプ506、テールランプ507、コーナリングランプ508、バックアップランプ509、ストップランプ510、車内照明511及び床下ランプ512が接続されている。また、他のもてなし動作部として、エアコン514、カーオーディオシステム(カーステレオ)515、電動シート・ハンドル516及びサイドミラーやバックミラーなどの角度調整用の駆動部517、カーナビゲーションシステム534、ドア開閉用のアシスト機構(以下、ドアアシスト機構という)541、空気清浄機548、重度体調不良(重度の眠気を催した状態を含む)に対する気付け・覚醒用成分の発生部549(例えば、運転用のハンドルの中心部に、運転者の顔付近を目指す形で気付け・覚醒用成分(例えば、アンモニアを含有するもの)を噴出するように取り付けられる)、運転者に注意喚起したり眠気から覚醒させたりするためのシートバイブレータ550(シート底部あるいは背もたれ部に埋設される)、ハンドルバイブレータ551(ハンドルの軸に取り付けられている)、車内騒音低減用のノイズキャンセラ1001Bが接続されている。
図2Bは、車内照明511の構成例を示すもので、各々固有の照明色からなる複数の照明部(本実施形態では、赤系照明511r、アンバー系照明511u、黄系照明511y、白系照明511w及び青系照明511bからなる)を有する。これらの照明は、もてなし意思決定部2からもてなし実行制御部3を経て入力される制御指令信号を受けて、指定されたものが選択され、制御指令信号に従い種々の点灯パターンにて点灯制御される。図3は、ユーザーの性格種別に応じて定められた点灯制御データ402の構成例を示すもので、もてなし意思決定部2のROMに記憶され、制御ソフトウェアにより随時読み出されて使用される。例えば、活動的な性格(SKC1(図11参照))に対しては、赤系照明511rを選んでこれをフラッシュ点灯(最初のみ、その後連続点灯)させ、おとなしい性格(SKC2)に対しては、アンバー系照明511uを選んでフェードイン点灯させる、などであるが、これはほんの一例である。
なお、照明装置は、白熱電球、蛍光ランプのほか、発光ダイオードを用いた照明装置を採用することも可能である。特に、赤色系(R)、緑色系(G)、青色系(B)の3原色の発光ダイオードを組み合わせることにより、種々の照明光を簡単に得ることができる。図4は、その回路構成の一例を示すもので、赤色系(R)、緑色系(G)、青色系(B)の各発光ダイオード3401が電源(Vs)に接続され、各々トランジスタ3402でスイッチング駆動される。このスイッチングは、コンパレータ3403に入力される三角波(のこぎり波でもよい)の周期と、指令信号の電圧レベルとによって定まるデューティ比によりPWM制御される。各色の発光ダイオード3401への指令信号の入力波形は、各々独立に変更可能であり、3つの発光色の混合比率に応じて任意の色調の照明色が得られ、また、色調や照明強度パターンを、指令信号の入力波形に応じて経時的に変化させることも可能である。なお、各色の発光ダイオード3401の発光強度は、上記のようにPWM制御する方式のほか、連続点灯を前提として駆動電流レベルにて調整することも可能であるし、これとPWM制御とを組み合わせた方式も可能である。
図5には、赤色系(R)、緑色系(G)、青色系(B)の各光の混合比(デューティ比による)と、視認される混合光の色との関係を示す(ここで示す混合比は、「1」を設定された色に対する他色の相対混合比で表わしており、この相対混合比を基準に絶対照明強度は別途設定される)。それぞれ、制御時に発光色を選択するためのインデックス(0〜14)が付与され、制御参照情報としてもてなし実行制御部3のROM(あるいは、もてなし意思決定部2側の記憶装置535:制御に必要な情報を、通信によりもてなし実行制御部3に送信すればよい)に記憶される。白色照明光は使用頻度が高く、着色された照明光との間でスムーズに制御移行できるように、白色を規定するインデックスが、該インデックスの配列上にて周期的に複数現れるように定められている。
特に中間に位置する白色(インデックス:6)を境として、その前後に、暖色系(うす黄→黄→赤)と寒色系(うす青→青→青紫)の各色が配列し、ユーザーの体調や精神状態に応じて、白色照明光から暖色系照明光ないし寒色系照明光にスムーズに切り替えることができるようになっている。ここで、演出等を特に考慮しない通常時の照明色は白色を中心に設定され、これに精神状態指数(数値が大きいほど高揚した精神状態であることを示す)の値が対応付けられている。中庸の精神状態(精神状態指数:5)では白色が選択され、精神状態指数が大きくなるほど(つまり、高揚した精神状態となるほど)青系、すなわち短波長側に、精神状態指数が小さくなるほど(つまり、沈んだ精神状態となるほど)赤系、すなわち長波長側に照明色が変化するように定められている。
次に、図6は、カーオーディオシステム515の構成例を示すもので、もてなし意思決定部2からもてなし実行制御部3を経て、曲特定情報やボリュームコントロール情報などの、もてなし用曲演奏制御情報が入力されるインターフェース部515aを有する。インターフェース部515aには、デジタルオーディオ制御部515e、多数の音楽ソースデータを格納した音楽ソースデータベース515b,515c(前者はMP3データベース、後者はMIDIデータベース)が接続されている。曲特定情報に基づいて選曲された音楽ソースデータはインターフェース部515aを経てオーディオ制御部に送られ、そこでデジタル音楽波形データにデコードされ、アナログ変換部515fでアナログ変換された後、プリアンプ515g及びパワーアンプ515hを経て、もてなし用曲演奏制御情報により指定されたボリュームにてスピーカ515jから出力される。
図1に戻り、電動ドア機構541は、乗降用のスライドドアあるいはスイング式ドアを、図示しないモータ(アクチュエータ)により自動開閉ないし開閉パワーアシストするためのものである。
図7は、ノイズキャンセラ1001Bの一構成例を示す機能ブロック図である。該ノイズキャンセラ1001Bの要部は、騒音抑制手段をなす能動的騒音制御機構本体2010と、必要音強調部(手段)2050とを含む。能動的騒音制御機構2010は、車内に侵入する騒音を検出する車内騒音検出マイク(ノイズ検知マイク)2011と、車内騒音検出マイク2011が検出する騒音波形と逆位相の騒音制御用波形を合成する騒音制御用波形合成部(制御音発生部)2015とを有する。騒音制御用波形は騒音制御用スピーカ2018から出力される。また、騒音制御用音波が重畳後の車内音に含まれる消し残し騒音成分を検出するエラー検出マイク2012と、消し残し騒音のレベルが縮小する方向にフィルタ係数が調整される適応フィルタ2014も設けられている。
車両自身に音源を有する車内騒音としては、エンジン音、路面音、風切り音などがあり、車内騒音検出マイク2011は、複数個のものが、個別の車内騒音の検知に適した位置に分散配置されている。車内騒音検出マイク2011は、搭乗者Jから見てそれぞれ違う位置にあり、マイク2011が拾う位置での騒音波形と、搭乗者Jが実際に聞く騒音波形との間には少なからぬ位相差がある。そこで、この位相差を合わせこむために、車内騒音検出マイク2011の検知波形は適宜、位相調整部2013を介して制御音発生部2015に与えられる。
次に、必要音強調部2050は、強調音検知マイク2051及び必要音抽出フィルタ2053を含んで構成され、その必要音の抽出波形が制御音発生部2015に与えられる。ここでも、車内騒音検出マイク2011と同様の事情により、位相調整部2052が適宜設けられる。強調音検知マイク2051は、車外の必要音を取り込むための車外用マイク2051と、車内の必要音を取り込むための車内用マイク2051とからなる。いずれも周知の指向性マイクにて構成でき、車外用は、音検知の指向性の強い角度域が車外方向を向き、指向性の弱い角度域が車内方向を向くように取り付けられている。本実施形態では、マイク2051の全体が車外に出るように取り付けられているが、指向性の弱い角度域が車内側に位置し、指向性の強い角度域のみが車外に出るように、車内と車外とにまたがって取り付けることも可能である。他方、車内用マイク2051は、各座席に対応して、搭乗者の会話音を選択的に検知できるよう、音検知の指向性の強い角度域が搭乗者の正面側を向き、指向性の弱い角度域が反対方向を向くように取り付けられる。これら強調音検知マイク2051は、いずれも、その入力波形(検出波形)のうち必要音成分を優先的に通過させる必要音抽出フィルタ2053に接続されている。なお、図6のカーオーディオシステム515のオーディオ入力が車内必要音音源2019として利用されるようになっている。このオーディオ機器のスピーカ出力音(スピーカは騒音制御用スピーカ2018と兼用してもよいし、別途設けてもよい)は、騒音制御用波形が重畳されても相殺されないように制御される。
図8は、図7の機能ブロック図に対応したハードウェアブロック図の一例を示すものである。第一DSP(Digital Signal Processor)2100は騒音制御用波形合成部(制御音発生部)2015及び適応フィルタ2014(さらには位相調整部2013)を構成するものであり、車内騒音検出マイク2011がマイクアンプ2101及びA/D変換器2102を介して、また、騒音制御用スピーカ2018がD/A変換器2103及びアンプ2104を介してそれぞれ接続されている。他方、第二DSP2200は、抑制すべき騒音成分の抽出部を構成するものであり、エラー検出マイク2012がマイクアンプ2101及びA/D変換器2102を介して、また、オーディオ入力など抑制対象外の音声信号源、すなわち必要音音源2019がA/D変換器2102を介してそれぞれ接続されている。
必要音強調部2050は、必要音抽出フィルタ2053として機能する第三DSP2300を有し、必要音検知マイク(強調音検知マイク)2051がマイクアンプ2101及びA/D変換器2102を介して接続されている。そして、第三DSP2300はデジタル適応フィルタとして機能する。以下、フィルタ係数の設定処理について説明する。
緊急車両(救急車、消防車、パトカーなど)のサイレン音、踏み切り警報器音、後続車のクラクション音、ホイッスル音、人間の叫び声(子供の泣き声や女性の叫び声など)を、注意ないし危険認識すべき必要車外音(強調音)として定め、それらのサンプル音をディスク等に記録して、読み取り再生可能な参照強調音データとしてライブラリー化しておく。また、会話音については、複数人の個別のモデル音声を、同様に参照強調音データとしてライブラリー化しておく。なお、自動車への搭乗候補者が固定的に定められている場合には、モデル音声を、そのモデル音声自身の発声による参照強調音データとして用意しておけば、その搭乗候補者が乗車した場合の会話音の強調精度を高めることができる。
そして、フィルタ係数に適当な初期値を与え、強調音検知マイク2051による強調音検出レベルを初期値に設定する。次いで、各参照強調音を読み出して出力し、強調音検知マイク2051により検出する。そして、適応フィルタの通過波形を読み取り、参照強調音として通過できた波形のレベルを測定する。この検知レベルが目標値に達するまで上記の処理を繰り返す。このようにして、車外音及び車内音(会話音)の双方について、参照強調音を次々と取り替えて、通過波形の検知レベルが最適化されるよう、フィルタ係数を学習処理させる。上記のようにフィルタ係数が調整された必要音抽出フィルタ2053により、強調音検知マイク2051からの入力波形から必要音を抽出し、その抽出強調音波形を第二DSP2200に転送する。第二DSP2200は、車内騒音検出マイク2011の検知波形から、必要音音源(ここではオーディオ出力)2019からの入力波形と、第三DSP2300からの抽出強調音波形を差分演算する。
第一DSP2100に組み込まれるデジタル適応フィルタのフィルタ係数は、システムの使用に先立って初期化が行われる。まず、抑制対象となる種々の騒音を定め、それらのサンプル音をディスク等に録音して、再生可能な参照騒音としてライブラリー化しておく。そして、フィルタ係数に適当な初期値を与え、エラー検出マイク2012による消し残し騒音レベルを初期値に設定する。次いで、参照騒音を順次読み出して出力し、車内騒音検出マイク2011により検出する。適応フィルタを通過した車内騒音検出マイク2011の検出波形を読み取り、これを高速フーリエ変換することにより、騒音検出波形を、各々波長の異なる正弦波素波に分解する。そして、各正弦波素波の位相を反転させた反転素波を生成し、これを再度合成することにより、騒音検出波形と逆位相の騒音制御用波形が得られる。これを騒音制御用スピーカ2018から出力する。
適応フィルタの係数が適性に定められていれば、車内騒音検出マイク2011の波形からは騒音成分だけが効率良く抽出されているはずなので、これに基づいて逆相合成された騒音制御用波形により車内騒音を過不足なく相殺することができる。しかし、フィルタ係数の設定が適性でなければ相殺されない波形成分が消し残し騒音成分となって生ずる。これは、エラー検出マイク2012により検出される。消し残し騒音成分のレベルは目標値と比較され、目標値以下になっていなければフィルタ係数を更新し、これが目標値以下になるまで同様の処理を繰り返す。このようにして、参照騒音を次々と取り替えて、消し残し騒音成分が最小化されるよう、フィルタ係数を学習処理させる。そして、実使用時には、消し残し騒音成分を定常的にモニタリングし、常時これが最小化されるようにフィルタ係数をリアルタイム更新しつつ、上記と同様の処理を行なうことで、必要な音波成分を残しつつ、車内の騒音レベルのみを効果的に低減することができる。
また、もてなし意思決定部2には、次のようなセンサ・カメラ群が接続されている。これらの一部はシーン推定情報取得手段として機能し、また、ユーザー生体特性情報取得手段として機能するものである。
・車外用カメラ518:自動車に接近してくるユーザーの姿を撮影する。ユーザーの仕草や顔の表情などを静止画ないし動画として取得する。ユーザーを拡大して撮影するために、望遠レンズを用いた光学式ズーム方式や、撮影画像をデジタル的に拡大するデジタルズーム方式を併用することができる。
・赤外線センサ519:自動車に接近するユーザー、ないし乗車したユーザーの顔部分からの放射赤外線に基づき、サーモグラフィーを撮影する。ユーザー生体特性情報取得手段である体温測定部として機能し、その時間的変化波形を測定することにより、ユーザーの体調ないし精神状態を推定することができる。
・着座センサ520:ユーザーが座席に着座したか否かを検出する。自動車のシートに埋設される近接スイッチ等で構成することができる。このほか、シートに着座したユーザーを撮影するカメラにより着座センサを構成することもできる。この方法であると、シートに荷物など、人以外の荷重源が載置された場合と、人が着座した場合とを相互に区別でき、例えば人が着座した場合にだけもてなし動作を行なう、といった選択制御も可能となる。また、カメラを用いれば、着座したユーザーの動作を検出することも可能であり、検出情報をより多様化することができる。なお、シート上でのユーザーの動作を検出するには、シートに装着した感圧センサを用いる方法もある。
さらに、本実施形態では、図9に示すように、シートの座部及び背もたれ部に複数分散埋設された着座センサ520A,520B,520Cの検知出力に基づいて、着座したユーザー(運転者)の姿勢変化を波形検出するようにしている。いずれも着座圧力を検出する圧力センサで構成され、具体的には、正面を向いて着座したユーザーの背中の中心に基準センサ520Aが配置される。座部のセンサは、それよりもシート左側に偏って配置された左側センサ520Bと、シート右側に偏って配置された右側センサ520Cとからなる。基準センサ520Aの出力は、差動アンプ603及び604にて、それぞれ右側センサ520Cの出力及び左側センサ520Bの出力との差分が演算され、さらにそれらの差分出力同士が、姿勢信号出力用の差動アンプ605に入力される。その、姿勢信号出力Vout(第二種生体状態パラメータ)は、ユーザーが正面を向いて着座しているときほぼ基準値(ここではゼロV)となり、姿勢が右に偏ると右側センサ520Cの出力が増加し、左側センサ520Cの出力が減少するので負側にシフトし、姿勢が左に偏るとその逆となって正側にシフトする。なお、右側センサ520C及び左側センサ520Bは、いずれも加算器601,602により、座部側のセンサ出力と背もたれ側のセンサ出力との加算値として出力されているが、座部センサ出力と背もたれセンサ出力の差分値を出力するようにしてもよい(このようにすると、運転者が前のめりになったとき背もたれセンサ側の出力が減少し、その差分値が増大するので、より大きな姿勢の崩れとして検出することができる。
・顔カメラ521:着座したユーザーの顔の表情を撮影する。例えばバックミラー等に取り付けられ、フロントグラス側から運転者を斜め上方から、シートに着座したユーザー(運転者)の顔を含む上半身を撮影する。その画像から顔部分の画像を切り出し、ユーザーの種々の表情を予め撮影して用意されたマスター画像と比較することにより、図10に示す種々の表情を特定することができる。精神状態ないし体調のいずれにおいても、状態が良好な順に表情の序列を決めておき、その序列に従って得点付与することにより(例えば、精神状態の場合、安定を「1」、注意散漫・不安を「2」、興奮・怒りを「3」とするなど)、表情を離散的な数値パラメータ(第二種生体状態パラメータ)として使用することができ、その時間変化を離散的な波形として測定できるので、当該波形に基づき、精神状態ないし体調の推定を行なうことも可能である。なお、顔を含む上半身の画像形状と、その画像上での重心位置から、運転者の姿勢の変化を検出することもできる。すなわち、重心位置の変化波形は姿勢の変化波形として使用でき(第二種生体状態パラメータ)、当該波形に基づき、精神状態ないし体調の推定を行なうことも可能である。なお、もてなし制御に使用するユーザー生体状態情報の取得源(ユーザー生体特性情報取得手段)としての機能以外に、バイオメトリックスによるユーザーの本人認証用にも使用される。また、目のアイリスの向きを拡大検出することで、顔や視線の方向を特定することもできる(例えば、やたらに時計の方向を見る場合は、「時間を気にして焦っている」と推定するなど)。また、視線方向の角度の時間的変化波形(真正面を向いているときを基準方向として、その基準方向に対する左右へのぶれ角度を波形変化として検出する)に基づき(第二種生体状態パラメータ)、運転者の体調あるいは精神状態を推定するのにも使用される。
・マイクロフォン522:ユーザーの声を検出する。これも、ユーザー生体特性情報取得手段として機能させうる。
・感圧センサ523:自動車のハンドルやシフトレバーの、ユーザーによる把握位置に取り付けられ、ユーザーの握り力や、握ったり放したりの繰り返し頻度などを検出する(ユーザー生体特性情報取得手段)。
・血圧センサ524:自動車のハンドルのユーザー把握位置に取り付けられる(ユーザー生体特性情報取得手段)。血圧センサ524の検出する血圧値はその時間的変化が波形として記録され(第一種生体状態パラメータ)、その波形に基づいて運転者の体調ないし精神状態の推定に使用される。
・体温センサ525:自動車のハンドルのユーザー把握位置に取り付けられた温度センサからなる(ユーザー生体特性情報取得手段)。体温センサ525の検出する体温値はその時間的変化が波形として記録され(第一種生体状態パラメータ)、その波形に基づいて運転者の体調ないし精神状態の推定に使用される。
・皮膚抵抗センサ545:発汗等による体表面の抵抗値を測定する周知のセンサであり、自動車のハンドルのユーザー把握位置に取り付けられる。皮膚抵抗センサ545の検出する皮膚抵抗値はその時間的変化が波形として記録され(第一種生体状態パラメータ)、その波形に基づいて運転者の体調ないし精神状態の推定に使用される。
・網膜カメラ526:ユーザーの網膜パターンを撮影し、バイオメトリックスによるユーザーの本人認証用に使用される。
・アイリスカメラ527:バックミラー等に取り付けられ、ユーザーのアイリス(虹彩)の画像を撮影し、バイオメトリックスによるユーザーの本人認証用に使用される。アイリスの画像を用いる場合、その模様や色の個人性を利用して照合・認証を行なう。特にアイリス模様は後天的形成要素であり、遺伝的影響度も低いので一卵性双生児でも顕著な相違があり、確実に識別できる利点がある。アイリス模様を用いた認証方式は、認識・照合を迅速に行なうことができ、他人誤認率も低い特徴がある。また、アイリスカメラにより撮影された運転者の瞳孔寸法(第二種生体状態パラメータ)の時間的変化に基づいて、体調あるいは精神状態の推定を行なうことができる。
・静脈カメラ528:ユーザーの静脈パターンを撮影し、バイオメトリックスによるユーザーの本人認証用に使用される。
・ドアカーテシスイッチ537:ドアの開閉を検知する。乗り込みシーン及び降車シーンへの移行を検出する、シーン推定情報取得手段として使用される。
また、もてなし意思決定部2には、エンジン始動を検知するためのイグニッションスイッチ538の出力も分岐入力されている。また、湿度センサ546、室温センサ563、日照センサ564(エアコン514の制御用)、車外ノイズセンサ562(ノイズキャンセラ1001Bの制御用)、車内の明るさレベルを検出する照度センサ539、車内の音響レベルを測定する音圧センサ540も、もてなし意思決定部2に同様に接続されている。
また、もてなし意思決定部2には、タッチパネル(カーナビゲーションシステム534のモニタに重ねられたタッチパネルで兼用してもよい:この場合は、入力情報はもてなし実行制御部3からもてなし意思決定部2に転送される)等で構成された入力部529と、もてなし動作情報記憶部として機能するハードディスクドライブ等で構成された記憶装置535とが接続されている。
他方、もてなし実行制御部3には、車両位置情報を取得するためのGPS533(カーナビゲーションシステム534においても使用する)、ブレーキセンサ530、車速センサ531及び加速度センサ532も接続されている。
もてなし意思決定部2は、センサ・カメラ群518〜528の1又は2以上のものの検出情報から、ユーザーの性格、精神状態及び体調の少なくともいずれかを含むユーザー生体状態情報を取得し、その内容に応じてどのもてなし動作部にどのようなもてなし動作をさせるかを決定して、これをもてなし実行制御部3に指令する。もてなし実行制御部3は、これを受けて、対応するもてなし動作部502〜517,534,541,548,549,550,551,552,1001Bにもてなし動作を実行させる。すなわち、もてなし意思決定部2ともてなし実行制御部3とが互いに協働して、取得されたユーザー生体状態情報の内容に応じてもてなし動作部502〜517,534,541,548,549,550,551,552,1001Bの動作内容を変化させる機能を実現する。もてなし実行制御部3には、自動車側通信手段(ホスト側通信手段)をなす無線通信装置4が接続されている。該無線通信装置4は、自動車のユーザーが携帯するユーザー側端末装置(携帯機)1と無線通信網を介して通信する。
一方、カーオーディオシステム515には、ユーザーが手動で操作する操作部515d(図6)が設けられ、ここからの選曲データの入力により、所望の音楽ソースデータを読み出して演奏することもできる。また、操作部515dからのボリューム/トーンコントロール信号は、プリアンプ515gへ入力される。この選曲データは、インターフェース部515aから、図1のもてなし実行制御部3を経てもてなし意思決定部2へ転送され、これに接続された記憶装置535の選曲実績データとして蓄積される。その蓄積内容に基づいて、後述のユーザ−性格判定処理が行われる(つまり、カーオーディオシステム515の操作部515dは、ユーザー生体特性情報取得手段の機能を構成しているといえる)。
図11は、上記音楽ソースデータのデータベース構造の一例を示すものである。該データベース401には、曲ID、曲名及びジャンルコードと対応付ける形で音楽ソースデータ(MP3又はMIDI)が記憶されている。また、各音楽ソースデータには、その音楽を選曲したユーザーについて推定される性格種別(「活動的」、「おとなしい」、「楽観的」、「悲観的」、「頽廃的」、「体育会系」、「知性派」、「ロマンチスト」など)を示す性格種別コード、同じく年齢コード(「幼児」、「子供」、「ジュニア」、「青年」、「壮年」、「中点」、「熟年」、「敬老」、「年齢無関係」など)、性別コード(「男性」、「女性」及び「性別無関係」)が個々に対応付けて記憶されている。性格種別コードはユーザー性格特定情報の一つであり、年齢コード及び性別コードは、性格とは無関係なサブ分類である。ユーザーの性格が特定できても、年齢層や性別に合わない音楽ソースを選択したのでは、ユーザーを楽しませる「もてなし」としての効果は半減する。従って、ユーザーに提供する音楽ソースの適性をより絞り込むために、上記のようなサブ分類付与は有効である。
一方、各音楽ソースデータには、曲モードコードも個々に対応付けて記憶されている。曲モードコードは、その曲を選曲したユーザーの精神状態や体調と、当該曲との連関を示すデータであり、本実施形態では、「盛り上げ系」、「爽快系」、「温和・癒し系」、「ヒーリング・α波系」等に分類されている。なお、性格種別コード、年齢コード、性別コード、ジャンルコード及び曲モードコードは、各ユーザーに固有のもてなし内容を選定する際に参照するデータなので、これらを総称してもてなし参照データと呼ぶことにする。
さらに、各音楽ソースデータには、後述する体調指数PLと精神状態指数SLとが個々に対応付けて記憶されている。これらの指数は、該指数が示す体調ないし精神状態に適合する音楽ソースデータを特定するために事前に付与されたものである。その使用方法については後述する。
次に、本実施形態においてシーンは、接近シーン、乗車シーン、準備シーン、運転シーン、滞在シーン、降車シーン及び離脱シーン等が定められている。シーンの特定方法については、特許文献1〜3に詳細に開示されているのでここでは繰り返さないが、例えば、ユーザー側の図示しないGPSと、自動車側のGPS533とにより、自動車と、当該自動車外に位置するユーザーとの相対距離及びその変化を特定し、ユーザーが自動車へ予め定められた距離以内に接近したことを検出することでシーン特定が可能である。また、乗り込みシーンと降車シーンとは、ドアカーテシスイッチ537のドア開検知出力に基づいて特定する。また、各シーンに対応した個別シーンフラグが設けられ、時系列順に到来順序が定められた各シーンが到来する毎に、そのシーンに対応するフラグを「到来(フラグ値1)」に設定してゆくことで、現在どのシーンまで進んできているかを特定できる。また、準備シーンとシーン運転/滞在シーンとは、いずれも前述の着座センサがユーザーを検出しているか否かにより特定するが、自動車に乗り込んでイグニッションスイッチ538がONになるまでの間、あるいは、イグニッションスイッチ538がONにならず、かつ一定以上の着座継続が確認されるまでの間は、準備シーンとして認識される。また、離脱シーンへの移行は、降車シーンのあと、ドアカーテシスイッチ537がドア閉を検知することで識別される。
各もてなし動作は、対応するもてなし動作部の動作制御アプリケーションにより制御される。これらの動作制御アプリケーションはもてなし実行制御部3のROM(あるいは記憶装置535)内に記憶されている。
図12は、システム100における、もてなし意思決定からもてなし動作実行に至る一連の処理の全体アルゴリズムを概念的に示すものである(これら3つの図は、対応する丸数字を接続子として、一つながりの図として読まれるべきものである)。もてなし主処理は、「目的推定(δ1)」、「個性適合(δ2)」、「状態適合(δ3)」、「演出対応(δ4)」、「機能選択(δ5)」、「駆動(δ6)」の各ステップからなる。
まず、「目的推定(δ1)」では、ユーザー位置検出(β1)及びユーザー動作検出(β2)により、現在のシーンを推定する。ユーザー位置検出(β1)は、具体的には、ユーザーと自動車との相対的位置関係(α1)を把握・特定することにより行なう。また、ユーザーの接近方向(α2)も考慮可能である。他方、ユーザー動作検出(β2)は、基本的には、ドアの開閉操作やシートへの着座など、シーン決定用に固定的に定められた動作を検出するセンサ類(シーン推定情報取得手段)の出力を用いて行なう(α5)。また、着座継続時間により準備シーンから運転/滞在シーンへの移行検知を行なう場合のように、特定動作の継続時間(α6)も考慮できる。
γ1でシーンが決定されれば、δ1にて、個々のシーンでのもてなし意図を推定する。「もてなし意図の推定」とは前述のごとく、刻々変化するユーザーの体調や精神状態に対し、その都度最も適合するもてなし内容、つまり、ユーザーが最も欲する種別のもてなし内容を推定することである。具体的には、図19及び図20に例示した意図推定テーブル371と図21に例示した原理作用テーブル372とを併用し、シーン毎に区分された安全性、利便性(楽に)及び快適性の分類項目毎に、ユーザーの体感、すなわち、触覚系、視覚系、嗅覚系及び聴覚系のそれぞれを対象とする制御対象環境項目に適合するもてなし意図が存在するか否かを検索する。もてなし意図が検索されれば、図22に例示する、対応するシーン別の機能抽出テーブル373を参照し、検索されたもてなし意図に対応するもてなし機能を抽出する。
また、δ2では、もてなし内容をユーザーの個性に適合させる処理となる。これは、具体的には、後述するユーザーの性格判定処理と、判定された性格に応じて、個々のもてなし処理に適正な重み付けをすること、つまり、個々のユーザーの性格に適合するよう、複数のもてなし動作の組合せを適宜カスタマイズしたり、あるいは、もてなし動作の程度を変更したりすることを目的とするものである。個性の特定には性格検出処理β4が必要である。性格検出処理β4は、アンケート処理(α7)など、ユーザー自身の入力により性格分類を取得して行なう方法と、ユーザーの動作、行為や思考パターン、あるいは表情などから、より分析的に性格分類を決定する方法との双方を用いることができる。後者については、音楽選曲の統計から性格分類を決定する方式(特許文献1,2)を採用している(α8:W2も参照)。
δ3は、もてなし内容をユーザーの精神/体調に適合させる処理を示す。また、δ4はもてなし演出対応処理であり、δ5は機能選択処理である。すなわち、ユーザー生体特性情報取得手段の検出情報に基づいて、ユーザーの精神状態及び体調を反映した精神/体調情報を取得し、その取得内容に応じてユーザーの精神状態ないし体調を推定する。より詳しくは、ユーザーから取得したユーザー生体特性情報から体調指数と精神状態指数とを算出し、さらに、それら体調指数ないし精神状態指数に基づいてユーザー状態指数を演算する。
ユーザー生体特性情報取得手段は、赤外線センサ519(顔色:α17)、顔カメラ521(表情:α9、姿勢:α11、視線:α12、瞳孔径:α13)、血圧センサ524(心拍(心電):α14)などが採用可能であるが、この他にも、運転操作実績を検出するセンサ類(502w、530、531,532;誤操作率:α10)、血圧センサ(α15)、着座センサ520(感圧センサによりシートにかかる体重分布を測定し、運転中の小刻みな体重移動を検出して、運転中の落ち着きが損なわれた判定を行ったり、偏った体重の掛かりかたを検出したりして、運転者の疲労の程度を判定したりすることができる)。詳細は後述する。
上記のユーザー生体特性情報取得手段からの出力を精神状態や体調を示す数値パラメータに置き換え(β5)、その数値パラメータ及びその時間的変化からユーザーの精神状態や体調を推定する(γ3,γ4)。その推定結果は、後述の基準意図パラメータ値の決定処理に使用され、該基準意図パラメータ値は、意図推定テーブル371(図19,20)と原理作用テーブル372とを併用したもてなし機能を抽出と制御内容決定処理に使用される。基準意図パラメータは推定された精神状態や体調を反映して特有の値に設定され、それに応じて、選択される機能やその制御内容も、推定されるユーザーの精神状態や体調に適合するものとなるように適正化される。また、同じシーンのもてなしであっても、ユーザーの性格が異なれば、その性格に適合したもてなし動作となるように微調整され、同じユーザーであっても精神状態や体調に応じて採用される機能の種別や程度が調整される。
照明光の場合を例に取れば、性格によってユーザーの指向する照明色が相違し(例えば、活発なタイプは赤系を、おとなしいタイプは緑や青系を指向)、体調の良し悪しによって照明強度に対する要望(例えば、体調が悪いときは照明による刺激を抑制するため光量を落とす)が相違することが多い。前者では照明光の周波数あるいは波長(赤系→緑系→青系の順に波長が短くなる)を調整するもてなし制御となり、後者は照明光の振幅を調整するもてなし制御となる。また、精神状態は、その両方に関係する因子であり、幾分陽気な精神状態において、さらに気分を盛り上げるために赤系の照明光を採用することもありえるし(周波数調整)、照明光の色を変えず、明るさを増したりすることもありえる(振幅調整)。また、過度に興奮した状態では、気持ちを沈めるために青系の照明光を採用したり(周波数調整)、照明光の色を変えず明るさを減らしたりする(振幅調整)、といった処理が考えられる。音楽の場合は、種々の周波数成分が含まれているのでより複雑であるが、覚醒効果を高めるために、数100Hz〜10kHz程度の高音域の音波を強調したり、逆に気持ちを沈めるために、リラックス時の脳波(α波)の周波数(7〜13Hz:ヒューマンレゾナンス)に、音波の揺らぎの中心周波数を合わせこんだ、いわゆるα波系音楽を採用したりするなど、周波数/振幅により制御パターンを同様に把握することができる。
また、図1の照度センサ539(視覚刺激:α18)、音圧センサ(聴覚刺激:α19)などの出力から、現在ユーザーがどの程度の刺激を感じているかに関しての情報(外乱刺激)を得(環境検出:β6)、その外乱刺激値を推定する(γ5)。なお、特定すべき外乱刺激としては、触覚刺激(α20:例えば、ハンドルに取り付けられた感圧センサ523など)、及び嗅覚刺激(α21:嗅覚センサによる)なども併用することができる。また、外乱推定に関しては、ユーザーを取り囲む空間からの間接的刺激、具体的には、高さ(α22)、距離(α23)、奥行き(α24)及び自身ないし同乗者の体格(α25)等を考慮することも可能である(空間検出:β7)。
自動車のユーザーは、図1のもてなし意思決定部2のROM(書換えが可能となるように、フラッシュROMで構成しておくことが望ましい)等に形成されたユーザー登録部600(図2A)に予め登録される。このユーザー登録部は、各ユーザー名(あるいは、ユーザーID(及び暗証番号)と、その性格種別とが互いに対応付けられた形で登録されている。この性格種別は、後述のごとく、ユーザーによる自動車使用継続中に蓄積される、カーオーディオシステムの選曲統計情報に基づいて決定することも可能である。しかし、自動車の使用開始直後など、選曲統計情報の蓄積が不十分な場合、あるいは、操作履歴情報を敢えて収集せずに性格種別を推定したい場合は、性格種別情報又は該性格種別情報を特定するために必要な情報を、ユーザー自身により入力させ、その入力結果に基づいて性格種別を決定するようにしてもよい。
例えば、図1のモニタ536(カーナビゲーションシステム534のモニタで代用してもよい)に性格種別を表示し、ユーザーは自分に適合する性格種別を選んで、入力部529からこれを入力することができる。また、性格種別を直接入力させる代わりに、性格種別判定のためのアンケート入力を行なう方式を採用してもよい。この場合、モニタ536にはアンケートの質問事項を表示し、ユーザーは回答選択肢から回答を選ぶ形で答える(ここでは、選択ボタンで選択肢を構成し、この上に重ねられたタッチパネル529の該当位置に触れて選択入力を行なう)。全ての質問に回答することで、その回答の組合せに応じて予め定められた性格種別群から、1つのものが一義的に決定されるようになっている。
なお、ユーザー名を含めたユーザー登録入力も、上記の入力部529からなされ、決定された性格種別、序列順位及び体調系補正係数Dfb,Dfm(後述)とともに図2Aのユーザー登録部600に記憶される。また、これらの一連の入力は、携帯機1から行なうことも可能であり、この場合は、その入力情報を無線により自動車側に転送する。また、ユーザーが自動車購入する際に、入力部529か専用の入力ツールを用いて、ディーラー側で事前にユーザー登録入力を済ませておく方法もある。
カーオーディオシステムの選曲実績の統計情報に基づいて性格種別を決定する事例については、特許文献1〜3に開示されている通りなので、概略を説明する。図6のカーオーディオシステム515においては、ユーザーは操作部515dからの入力により、いつでも好きな曲を選んで演奏を楽しむことができる。ユーザーが自身で選曲した場合は、そのユーザーの特定情報(ユーザー名あるいはユーザーID)と、選曲された音楽ソースデータのIDと、前述のもてなし参照データRD(性格種別コード、年齢コード、性別コード、ジャンルコード及び曲モードコード)とが互いに対応付けられた形で、選曲実績記憶部(図1の記憶装置535内に形成されている)に記憶される。選曲実績記憶部には、ユーザー別に、その選曲実績の統計情報(図1の記憶装置535に記憶されている)が作成される。この統計情報では、選曲データが、性格種別コード別にカウントされ、どの性格種別の曲が最も多く選曲されたかが数値パラメータとして特定される。最も単純な処理としては、選曲頻度が最も高い性格種別を、そのユーザーの性格として特定することが可能である。例えば、統計情報に蓄積されている選曲実績数が一定レベルに到達すれば、例えばユーザー入力により初期設定された性格種別を、統計情報から上記のごとく導かれた性格種別と置き換えるようにすればよい。
なお、自動車の使用に先立っては、ユーザーの認証が必要である。特にユーザーが複数登録されている場合は、ユーザーによって性格種別が異なるものに設定され、もてなしの内容も異なるものとなるからである。最も簡単な認証方式は、携帯機1からユーザーIDと暗証番号を自動車側に送信し、これを受けたもてなし意思決定部2が、登録されているユーザーIDと暗証番号との照合を行なう方法である。また、携帯機1に設けたカメラにより顔写真の照合を行ったり、音声認証、指紋を用いた認証など、バイオメトリックス認証方式を採用したりすることもできる。他方、自動車へのユーザーの接近時は、ユーザーIDと暗証番号とを用いた簡略な認証に留め、開錠後、自動車に乗り込んでから、前述の顔カメラ521、マイクロフォン522、網膜カメラ526、アイリスカメラ527あるいは静脈カメラ528などによるバイオメトリックス認証を行なうようにしてもよい。
本実施形態では、顔写真の照合による認証を行なう場合を例示している。図27に示すように、顔カメラ521は、各シート100FR,FL,RR,RLを正面から撮影するものであり、各乗員の上半身が包含されるように撮影視野が定められている。着座センサ519は各シート100FR,FL,RR,RLの座部に埋設された荷重センサ等で構成され、乗員の着座の有無を補助的に検出する。例えば、着座センサ519が荷重検知し、かつ、顔カメラ521の撮影視野に乗員の顔画像が検出された場合に着座ありと検出する方式を採用することにより、シートへの荷物載置や外乱光等による誤検出防止を図ることができる。また、着座センサ519の併用により、顔画像の特定精度を多少低くしても着座検知の精度を確保することができ、アルゴリズムの軽量化に寄与する。他方、図2Aに示すように、ユーザー登録部600には、個々のユーザーのマスター顔画像から抽出した顔特徴量がユーザーIDと対応付けて記憶されており、各シートの顔カメラ521が撮影した顔画像から抽出した顔特徴量と照合することにより、どのシートにどのユーザーが乗車しているかが特定できるようになっている。
例えば、運転/滞在シーンでの動作例を、図13のフローチャートに従い説明すると、以下のごとくである。まず、着座しているユーザーの精神状態と体調を推定する(図12:γ3,γ4)。具体的な方法については、特許文献1〜3に詳細に開示されており、ここでは概略のみを説明する。基本的には、取得した生体状態パラメータの時間的変化を測定し、その変化波形から精神状態と体調とを推定する方式を採用している。
生体状態パラメータとして「表情」を採用する場合は、図1の顔カメラ521を用い、所定のサンプリング間隔で顔画像を撮影し、マスター画像と順次比較することにより、表情種別(例えば、「安定」、「不安・不快」、「興奮・怒り」)を識別しつつ、その時間的変化を「変化小」、「増」、「微増」あるいは「急増」等として判定する。
生体状態パラメータとして「体温」を採用する場合は、体温センサ525(赤外線センサ519)を用いる。具体的には、一定時間間隔で定められたサンプリングタイミングが到来する毎に検出される体温値をサンプリングし、波形記録するとともに周知の高速フーリエ変換処理を行なって周波数スペクトラムを求め、そのスペクトラムの中心周波数(あるいはピーク周波数)fを演算する。また、波形を一定数の区間に分割し、区間別の体温平均値を演算する。そして、区間毎に、平均体温値を波形中心線として積分振幅を演算し、各区間の積分振幅を平均し、波形振幅の代表値として決定する。決定された周波数fが上限閾値fu0より大きくなっているかどうかを調べ、大きくなっていれば監視中の体温変化が「急」であると判定する。また、周波数fが下限閾値fL0(>fu0)より小さくなっているかどうかを調べ、小さくなっていれば監視中の体温変化が「緩」であると判定する。また、fu0≧f≧fL0ならば、監視中の体温変化は「標準」であると判定する。また、積分振幅A(平均値)の値は閾値A0と比較し、A>A0であれば、監視中の平均体温レベルは「変動」状態にあると判定する。また、A≦A0であれば、監視中の平均体温レベルは「維持(安定)」状態にあると判定する。
生体状態パラメータとして「血圧」を採用する場合は、血圧センサ524により検出される血圧波形の中心周波数(あるいはピーク周波数)fと、区間別の積分振幅A1,A2の平均値Aを演算する。周波数fが上限閾値fu0より大きくなっていれば監視中の血圧変化が「急」であると判定し、下限閾値fL0(>fu0)より小さくなっていれば「緩」であると判定し、fu0≧f≧fL0ならば「標準」であると判定する。また、振幅Aを閾値A0と比較し、A≦A0であれば、監視中の平均血圧レベルは「維持」状態にあると判定し、そうでなければ「変動」状態にあると判定する。血圧検出値の変化が急で変化の方向が「変動」である場合は、精神状態が「集中力散漫」と推定できる。体調不良に関しては、血圧の変動が緩やかとなる。また、血圧は急激に変動する場合は、「興奮(怒り)状態」であることを推定することができる。
生体状態パラメータとして「皮膚抵抗」を採用する場合は皮膚抵抗センサ545を用いる。ここでも同様に皮膚抵抗値をサンプリングし波形記録するとともに、スペクトラムの中心周波数(あるいはピーク周波数)fと区間別積分振幅A1,A2‥を演算する。そして、各区間の積分振幅Aを時間tに対してプロットし、最小二乗回帰して勾配αを求める。周波数fが上限閾値fu0より大きくなっていれば監視中の皮膚抵抗変化が「急」であると判定し、下限閾値fL0(>fu0)より小さくなっていれば「緩」であると判定する。また、fu0≧f≧fL0ならば「標準」であると判定する。さらに、勾配αの絶対値を閾値α0と比較し、|α|≦α0であれば、監視中の平均皮膚抵抗レベルは「一定」状態にあると判定する。また、|α|>α0の場合、αの符号が正であれば監視中の平均皮膚抵抗レベルは「増」状態にあると判定し、負であれば「減」状態にあると判定する。皮膚抵抗検出値の変化が急で変化の方向が「増」である場合は、精神状態が「集中力散漫」と推定できる。体調不良に関しては、軽度のものは皮膚抵抗の時間的変化にそれ程反映されないが、体調不良が進行すると、皮膚抵抗値の変化が緩やかに増加に転ずるので、「重度体調不良」の推定には有効である。また、皮膚抵抗値は急激に減少する場合は、「興奮(怒り)状態」であることを、かなり高精度に推定することができる。
生体状態パラメータとして「姿勢」を採用する場合は、シートに埋設した複数個の着座センサ520による姿勢信号を用い、姿勢信号波形の中心周波数(あるいはピーク周波数)fと区間別の積分振幅A1,A2‥の平均値Anと分散σを演算する。周波数fが上限閾値fu0より大きくなっていれば監視中の姿勢変化速度が「増」であると判定し、下限閾値fL0(>fu0)より小さくなっていれば「減」であると判定する。また、積分振幅Aの平均値Anの値を予め定められた閾値と比較して、姿勢移動量を「変化小」、「微増」および「急増」のいずれかに判定する(平均値Anが大きいほど、姿勢移動量は増加傾向にある)。また、分散σの値が閾値以上になっている場合は、姿勢移動が増減傾向にあると判定する。姿勢の変化は、基本被特定状態(「体調不良」、「集中力散漫」及び「興奮状態」)の相違に応じて顕著に異なる傾向を示すので、それらを相互識別する上で特に有効なパラメータである。正常であれば、運転中のユーザーは適度に姿勢を保ちながら運転に必要な緊張感を持続される。他方、体調不良が生ずると、辛さを和らげようとして時折姿勢を変える仕草が目立つようになり、姿勢移動量は微増傾向となる。しかし、体調不良がさらに進行すると(あるいは、極度の眠気に襲われた場合)、姿勢が不安定になってぐらつくようになり、姿勢移動は増減傾向となる。このときの姿勢移動は、体のコントロールが利かない不安定なものなので、姿勢移動の速度は大幅に減少する。また、集中力が散漫になっている場合も、姿勢移動はだらしなく増減するが、体のコントロールは利く状態であるから、姿勢移動速度はそれほど減少しない点に違いがある。他方、興奮状態にある場合は、落ち着きがなくなったり、いらいらしたりして姿勢移動は急増し、移動速度も大きくなる。
生体状態パラメータとして「視線角度」を採用する場合は、前述の顔画像中にて瞳孔位置と顔中心位置とを特定するとともに、顔中心位置に対する瞳孔の正面方向からのぶれを演算して視線角度θを求め、その時間的変化波形を取得する。そして、同様に、波形の中心周波数(あるいはピーク周波数)fと、区間別積分振幅A1,A2の平均値An及び分散σとを演算する。周波数fが上限閾値fu0より大きくなっていれば監視中の視線角度θの変化速度が「増」であると判定し、下限閾値fL0(>fu0)より小さくなってれば「減」であると判定し、fu0≧f≧fL0ならば「正常」であると判定する。また、積分振幅Aの平均値Anの値を予め定められた閾値と比較して、視線角度θの変化量を「変化小」、「微増」および「急増」のいずれかに判定する(平均値Anが大きいほど、視線角度θの変化量は増加傾向にある)。さらには、Aの分散σの値が閾値以上になっている場合は、視線角度θの変化が増減傾向にある状態、つまり「変調」状態(いわゆる、目がきょろきょろした状態)にあると判定する。視線角度θは、集中力が散漫になった場合に移動量が急増し、また、きょろきょろと変調を来たすようになるので、該集中力散漫と推定する上での有力な決め手となる。また、体調不良が生ずると、その不良の程度に応じて視線移動量が減少するので、体調不良の推定にも有効である。また、興奮状態でも視線移動量は減少するが、体調不良時は、視界に変化が起きた場合に視線がついてゆきにくくなり、移動速度も減少するのに対し、興奮状態では、視界の変化等に鋭敏に反応してこれを睨みつけるなど、時折生ずる視線移動の速度は非常に大きいので、互いに識別することができる。
生体状態パラメータとして「瞳孔径」を採用する場合は、アイリスカメラ527(図1)によりユーザーのアイリスを撮影し、その画像上にて瞳孔径dを決定し、その時間変化波形を取得する。そして、その波形から区間別の瞳孔径平均値dn、区間別の積分振幅A1,A2の平均値An及び分散σを演算する。瞳孔径平均値dnが閾値d0より大きくなっていれば「瞳孔開」と判定する。また、大きくなっていなければ分散σが閾値σ0よりも大きいかどうかを調べ、大きければ「瞳孔径変動」と判定する。また、大きくなければ「正常」と判定する。瞳孔径dは、ユーザーの精神状態に応じて顕著に変化し、特に、特有の瞳孔開状態があるか否かに基づいて、ユーザーが興奮状態にあるか否かを高精度に推定することができる。また、瞳孔径が変動する場合は、集中力散漫であると推定することができる。
生体状態パラメータとして「ステアリング操作状態」を用いる場合は、直線走行時にステアリングのサンプリング及び評価を行なう。具体的には、一定時間間隔で定められたサンプリングタイミングが到来する毎に、操舵角センサ547の出力により現在の操舵角度φを読み取る(例えば、直進中立状態でφ=0°とし、左右いずれかへの触れ角として定義する(例えば右方向の角度を正、左方向の角度を負とする)。そして、その操舵角度値を波形として取得し、中心周波数(あるいはピーク周波数)fと、区間別の積分振幅A1,A2‥及びその分散σを演算する。周波数fが上限閾値fu0より大きくなっていれば操舵角度φの変化速度が「増」であると判定し、下限閾値fL0(>fu0)より小さくなっていれば「減」であると判定し、fu0≧f≧fL0ならば「正常」であると判定する。また、積分振幅Aの分散σが閾値σ0よりも大きければ操舵誤差が「増」と判定し、大きくなければ「正常」と判定する。操舵誤差の増大を検知することで、運転者が集中力散漫状態や興奮状態にあることを推定できる。他方、重度の体調不良(居眠り状態を含む)が発生した場合も、正常な操舵が妨げられるので、誤差の増大傾向からこれを推定することができる。他方、体調不良や集中力の散漫化は操舵への反応が遅れがちになり、操舵速度の減少からこれを推定することができる。また、興奮状態では、いらいらして急ハンドルを切りがちになるので、操舵速度の増加からこれを推定することができる。
このようにして得られた生体状態パラメータの時間的変化に係る判定結果を用いて、ユーザーの具体的な体調/精神状態の判定(推定)が行なわれる。そして、個々の具体的には、記憶装置535内には、図14に示すように、ユーザーの判定すべき精神状態と体調との組合せである複数の被特定状態と、個々の被特定状態が成立していると判定するための、複数のユーザー生体特性情報取得手段がそれぞれ検出しているべき生体状態パラメータの時間的変化状態の組合せとを対応付けて記憶した判定テーブル1601が記憶されている。
被特定状態となる体調は、本実施形態では「正常」、「疲労」、「軽度異常」、「重度異常」であり、同じく精神状態は「落胆」、「ニュートラル」(ただし、「癒され」「中央」「盛り上がり」の3パターンに細分化されている)、「興奮(激情・興奮)」である。個々の被特定状態に対応する体調指数PL及び精神状態指数SLの値の設定例を、判定テーブル1601内に示している。生体状態パラメータとしては、この後のシーンで使用するものも含め、「血圧」、「体温」、「皮膚抵抗」、「表情」、「姿勢」、「視線」、「瞳孔(寸法)」及び「操舵」の各パラメータが網羅されている(同じパラメータであっても、使用するセンサあるいはカメラはシーンに応じて、目的とする生体状態パラメータの取得に有利なものが適宜選択される)。
具体的には、各生体状態パラメータの時間的変化に係る判定結果(例えば、「急減」や「増加」など)をリードし、リードした個々の判定結果を、判定テーブル1601上の各被特定状態に対応する時間的変化状態の組合せと順次照合する。この場合、例えば、全ての生体状態パラメータについて、被照合情報と判定結果とが一致した被特定状態のみを採用する処理としてもよいが、参照する生体状態パラメータが多い場合は、被照合情報と判定結果とが全ての生体状態パラメータについて一致するのが稀となり、ユーザーの体調あるいは精神状態の推定を柔軟に行なうことができなくなる。従って、照合カウンターの得点(N)を「一致度」とみなして、最も得点の高いもの、つまり一致度の最も高いものを、被特定状態として確定させる方法が有効である。
なお、例えば平均血圧レベルが「変動」と判定された場合のように、同じ生体状態パラメータの状態が複数の被特定状態(「集中力散漫」あるいは「興奮状態」)への成立に肯定的に寄与する場合もあるが、この場合は、それら各被特定状態の照合カウンターをインクリメントする。例えば、平均血圧レベルが「変動」と判定された場合は、4つの照合カウンター値N1,N4,N5,N6がインクリメントされる。
他方、被照合情報と判定結果との一致不一致は、既に種々説明したごとく、生体状態パラメータ(周波数あるいは振幅等)の閾値との比較で判断されているものがほとんどであり、上記のように一致/不一致を二値的(つまり、シロかクロか)に決定する際に、実際のパラメータの指示値と閾値との偏差がどの程度であったかは情報として埋没することになる。しかし、実際には、閾値に近接した値で一致/不一致が決定される場合は、いわば「グレー」の判定であり、閾値から隔たった(例えば閾値を大幅にクリアした)形で一致/不一致が決定される場合と比較して、判定結果への寄与の度合いを小さく扱うようにすることが本来的には望ましい。
これを解決する方法としては、被照合情報と判定結果とが完全に一致した場合にのみ照合カウンターへの加算を行なうようにするのに代え、完全一致せずとも、定められた範囲内で近接した結果が得られた場合は、完全一致の場合よりも低い得点に制限しつつ、これを照合カウンターへ加算することが考えられる。例えば、被照合情報が「急増」となっている場合、判定結果も「急増」であれば3点を、「増」の場合は2点を、「微増」の場合は1点を加算する方式を例示できる。
図13に戻り、体調と精神状態とが特定できればS2に進み、特定された体調に対応する体調系基準意図パラメータ値を決定する処理となる。本実施形態では、体調系基準意図パラメータは5成分(fb1,‥,fb5)からなる空間パラメータである(以下、これを[fb]≡[fb1,‥,fb5]と記し、体調系基準意図ベクトルと称する)。上記5成分のうち、fb1、fb2が体力消耗低減に関する意図強度を表わすパラメータ種別に属し、fb3、fb4、fb5が体力回復に関する意図強度を表わすパラメータ種別に属する。具体的には、fb1は「力/時間を低減する」、fb2は「手間/人を低減する」の各意図に対応するものである。また、fb3は「補給する」、fb4は「休息する」、fb5は「効果を高める」の各意図に対応するものである。
次に、S3では、特定された精神状態に対応する精神系基準意図パラメータ値を決定する処理となる。本実施形態では、精神系基準意図パラメータは7成分(fm1,‥,fm7)からなる空間パラメータである(以下、これを[fm]≡[fm1,‥,fm7]と記し、精神系基準意図ベクトルと称する)。上記7成分のうち、fm1、fm2が不愉快排除に関する意図強度を表わすパラメータ種別に属し、fm3、fm4が愉快獲得に関する意図強度を表わすパラメータ種別に属する。また、fm5が気持高揚に関する意図強度を表わすパラメータ種別に属し、fm6、fm7が気持安静に関する意図強度を表わすパラメータ種別に属する。具体的には、fm1は「対象を排除する(ストレス源を排除する)」、fm2は「誤魔化す(ストレスを感じなくする)」の各意図に対応するものである。fm3は「対象を得る(好きなもの/イメージを認識する)」、fm4は「誤魔化す(別の好きな雰囲気を楽しむ)」の各意図に対応するものである。fm5は「気持高揚(車/目的地のイメージが強調される)」の意図に対応するものである。fm6は「癒される」、fm7は「効果を高める」の各意図に対応するものである。
各体調に対応する体調系基準意図ベクトル[fb]の各成分の設定値は、図15に示す体調系基準意図ベクトル設定テーブル601(図1のもてなし意思決定部2のROMに記憶されている)にまとめられており、決定された体調に対応するものが随時読み出されて使用される。また、各精神状態に対応する精神系基準意図ベクトル[fm]の各成分の設定値は、図16に示す精神系基準意図ベクトル設定テーブル602(図1のもてなし意思決定部2のROMに記憶されている)にまとめられており、決定された精神状態に対応するものが随時読み出されて使用される。
基準意図ベクトル[fb][fm]の各成分(すなわち、成分基準意図パラメータ)は、対応する外乱刺激に対するユーザーの排除意図が強いものほど絶対値が大きく設定される。具体例を挙げて説明する。まず、体調系基準意図ベクトル[fb]については、図15に示すように、体力消耗低減に関する意図強度を表わすパラメータ種別fb1及びfb2の値が、体調異常の場合において体調正常時よりも明らかに大きく設定されている(特に、重度体調異常時に値が最大値(1)となり、軽度体調異常時においては値が若干下げられている(0.8)。体力回復に関する意図強度を表わすパラメータ種別(fb3、fb4、fb5)についても同様であり、fb4(休息する)については、正常時にあっても、疲労時には値が若干高く設定されている。
また、精神系基準意図ベクトル[fm]については、図16に示すように、気持高揚に関する意図強度を表わすパラメータ種別fm5が、落胆時においてニュートラル時や激情・興奮時よりも値が大きく設定され、気持を高揚させる意図を強調するようにしている(なお、同じニュートラルでも、盛り上がりが要求される場面では値が大きく設定されている)。逆に、気持安静に関する意図強度を表わすパラメータ種別fm6、fm7は、激情・興奮時において落胆時やニュートラル時よりも値が大きく設定され、高ぶった気持をクールダウンする意図を強調するようにしている(なお、同じニュートラルでも、癒しが要求される場面では値が大きく設定されている)。
なお、不愉快要素を歓迎するユーザーは通常はいないので、不愉快排除に関する意図強度を表わすパラメータ種別fm1、fm2の値は総じて高めに設定される。逆に、激情・興奮時や落胆時などでは精神安定欠如のため愉快要素を受け入れる余裕がないこともあり、愉快獲得に関する意図強度を表わすパラメータ種別fm3、fm4値は総じて低めに設定される。そして、ニュートラル時においては、通常時は同様に値は低めであるが、癒しが要求される場面、盛り上がりが要求される場面と推移するにつれ、値が次第に高くなるように設定されている。
次に、図13のS4に進み、使用する体調系基準意図ベクトル[fb]及び精神系基準意図ベクトル[fm]の補正を行なう。具体的には、自動車に乗り込んでいる各ユーザーの序列順位を図2Aのユーザー登録部600で検索し、序列順位が最も上位に位置するユーザーの体調系補正係数Dfb,Dfmを読み出す。体調系補正係数Dfbは、体調系基準意図ベクトル[fb]の成分設定値を補正するためのものであり、対応するユーザーが好む体的刺激レベルの個人差(つまり、強めの刺激を好むか弱めの刺激を好むか:例えば、冷房であれば冷え性で弱冷を好むか、逆に汗かきで強冷を好むか、などを反映するものである)に応じて、ユーザー毎に固有の値が定められる。本実施形態では、図17に示すように、弱め、ニュートラル、強めにそれぞれ対応して、体調系補正係数Dfbの値が3段階に定められている。体調系補正係数Dfbは、ベクトル[fb]の各成分に乗ずる形で使用され、「ニュートラル」は補正なし(1)、「弱め」は値縮小(0.8)、「強め」は値拡大(1.2)に作用する。
また、精神系補正係数Dfmは、精神系基準意図ベクトル[fm]の成分設定値を補正するためのものであり、ユーザーの外乱排除速度に対する欲求個人差(つまり、おっとり型かせっかち型か:例えば、冷房であればゆっくり冷えることを好むか、速やかに冷えることを好むか、などを反映するものである)に応じて、ユーザー毎に固有の値が定められる。該精神系補正係数Dfmは、ユーザー登録部600内の性格種別とも密接な対応関係にあり、おっとり型の性格については精神系補正係数Dfmの値が小さく設定され、逆にせっかち型の性格については精神系補正係数Dfmの値が大きく設定される。本実施形態では、スロー、ニュートラル、ファストにそれぞれ対応して、精神系補正係数Dfmの値が3段階に定められている。精神系補正係数Dfmは、ベクトル[fm]の各成分に乗ずる形で使用され、「ニュートラル」は補正なし(1)、「スロー」は値縮小(0.8)、「ファスト」は値拡大(1.2)に作用する。
当然、肉体的刺激レベルの好みはユーザー毎に皆違うので、これらを一律に充足する補正条件を見出すことは困難である。そこで、ユーザーのもてなし優先度(乗り込んだユーザー間のいわば「力関係」)を導入し、もてなし優先度が最も上位に位置するユーザーの補正条件を優先した処理を行なうわけである。前述のごとく、この「力関係」を反映したもてなし優先度の設定は、ユーザー登録時に入力設定することも可能であるし、子供と大人で優先度を異ならせる場合は、カメラ521等が撮影するユーザーの画像や、座席に取り付けられた検知センサ等で、着座したユーザーの身体サイズを特定し、その身体サイズに応じて(例えば、身体サイズが閾値未満であれば子供と判定するなど)もてなし優先度を自動設定するようにしてもよい。
また、座席毎にマイクロフォンを設け、このマイクロフォンが検出するユーザーの会話を、周知の音声認識及び会話分析手法に基づいて解析し、もてなし優先度を自動設定することも可能である。比較的簡単な手法としては、会話中の単語出現頻度を解析し、例えば敬語を多用するユーザーほど力関係下位と判定し、もてなし優先度を低く設定したり、逆に命令的あるいは鷹揚な口調を示す単語の出現頻度の高いユーザーは力関係上位と判定し、もてなし優先度を高く設定したりすることが可能である。また、幼児語を多用したり、総じて言動の幼かったりするユーザーを子供と判定することが可能である。なお、後述のごとく、人工無脳エンジン(会話支援手段)を起動して、各ユーザーのもてなし優先度を特定するための情報を引き出すために、当該人工無脳エンジンとの会話を誘導し、その会話入力情報からもてなし優先度を判定するようにしてもよい。
もてなし優先度は、ユーザーの座席位置とは無関係にデフォルト値を設定し、それを、着座位置に応じて補正するように構成することもできる。図23に示すように、運転席に着座するのは、もてなしのいわばホストに相当する人物であり、隣席である助手席はこのホストに比較的親しい人物が着座する傾向が強い。この場合は、もてなし優先度を大方向に補正する補正量が、助手席ユーザーに対し運転席ユーザーよりも大きくなるように設定し、助手席ユーザーのもてなし優先度を相対的に高めることができる。また、後部座席については、マナー上、運転席背後の座席が上席とみなされる習慣が強く、もてなし優先度を大方向に補正する補正量が、運転席背後ユーザーに対し助手席背後ユーザーよりも大きくなるように設定することができる。また、前席と後席とはやや隔絶されていることもあり、社交的距離を配慮して、上記隣席同士よりはもてなし優先度の補正量を小さく設定することができる。助手席ユーザーのもてなし優先度を高める状況下では、前席側の大方向補正量を後席側よりも高める態様を例示できる。
また、後部座席に子供(特に幼児や低学年児童)が着座する場合は、図24に示すように、興奮して騒ぎ、運転集中への影響が生ずるケースが考えられる。この場合、後部座席側での対応例として、後部座席の子供の鎮静化を図るもてなし動作(例えば、子供が没頭できる映像出力など)へのもてなし優先度を高めるように設定することが可能である。他方、運転席側での対応例としては、後部座席からの騒ぎ声等を抑制するノイズキャンセラの動作や、いらいらを沈静化するための快適音楽送出等に対するもてなし優先度を高める方法を例示できる。
図25は、もてなし優先度の座席別決定処理の流れを示すフローチャートである。S101〜S106は、上記した流れにより運転席、助手席及び後部座席の各ユーザーを特定し、例えば前述のユーザー登録部600(図2A)に登録されているデフォルトもてなし優先度の値をそれぞれ読み出す。そして、上記のごとく座席ごとに定められた補正係数をデフォルトもてなし優先度に乗じて、座席ごとのもてなし優先度として設定する。
もてなし動作は、個別対応可能なものは、基本的に座席毎にカスタマイズされた異なる内容にて実行されるが、相反するもてなし動作が座席間で競合した場合は、設定されたもてなし優先度に従い、調停処理がなされる。この場合、後述のもてなし動作の意図強度を、例えば図26に示すように、もてなし優先度の値に応じて定められた補正係数により、もてなし優先度が高いほど意図強度が強められるように補正することで、上記動作競合に対する調停が可能となる。
さて、補正されたベクトル[fb]、[fm]の各成分は、図19及び図20に示す意図推定テーブル371上に以下のようにして展開される。意図推定テーブル371はもてなし意思決定部2のROM内に格納され、以下のような構造を有する。すなわち、マトリックスの縦軸に各シーン(乗る→降りる→滞在→運転)が配列し、シーン毎に、安全性(安全に)、利便性(楽に)及び快適性(快適に)の3つのもてなし意図分類項目が設定されている。このうち、利便性(楽に)のもてなし意図分類項目には体調系基準意図ベクトル(パラメータ)の各成分が示す5つの意図強度項目が割り当てられ(図20)、快適性(快適に)のもてなし意図分類項目には精神系基準意図ベクトル(パラメータ)の各成分が示す7つの意図強度項目が割り当てられている(図19)。
他方、マトリックスの横軸には、触覚系、視覚系及び聴覚系の少なくとも3つの属性(このほか、さらに嗅覚があるが、図では欄外となっている)に区分された外乱刺激の項目が配列している。外乱刺激は車内外乱と車外外乱とがあるが、ここでは車内外乱の場合について例示している。触覚系外乱刺激には気流温度、車内物温度、湿度、圧力(振動)がある。また、視覚系外乱刺激には光(照度)がある。さらに、聴覚系外乱刺激には音がある。いずれも、対応するセンサの入力から値取得される(図13:S5)。
各種別の外乱刺激値は、いずれもニュートラル値を基準として正負両方向に値が検出されるようになっている(具体的に、各外乱刺激値は、いずれもニュートラル値をゼロとして、正方向に+0.5、+1.0及び負方向に−0.5、−1.0の5段階に検出される)。いずれも、明るい⇔暗い、暑い⇔寒い、うるさい⇔静かなど、互いに相反する状態の間を行き来する形で変化するものである。具体的には、気流温度については、その強度(振幅に相当:程度)が、暑い→(温かい、ニュートラル、涼しい)→寒い、の間で変化し、(機能動作の結果として得られる温度変化の)速度(周波数に相当)は、急速→(速い、ニュートラル、遅い)→緩やか、の間で変化する。車内物温度については、その強度が、熱い→(ニュートラル)→冷たい、の間で変化する。湿度は、その強度が、濡れる→(湿る、ニュートラル)→乾く、の間で変化する。振動については、その強度が、強い→(ニュートラル)→弱い、の間で変化し、速度(周波数)は、高い→(ニュートラル)→低い、の間で変化する。光(照度)については、その強度が、眩しい→(ニュートラル、薄暗い)→暗い、の間で変化し、速度(周波数(光の色))は、暖色→(ニュートラル)→寒色、の間で変化する。音については、その強度が、五月蝿い→(ニュートラル)→静か、の間で変化し、速度(周波数)は、賑やか→(ニュートラル)→穏やか、の間で変化する。
前述のごとく、基準意図ベクトル[fb]、[fm]の各成分(各成分基準意図パラメータ)は、対応する外乱刺激に対するユーザーの排除意図が強いものほど絶対値が大きく設定されるとともに、各成分は、意図推定テーブル371の各セル上にて、対応する外乱刺激値との積が基準意図パラメータとして演算される(図13:S6)。もし、対応する外乱刺激値がニュートラル値(つまり、ゼロ)であれば、この積の値(意図強度パラメータ)もゼロとなる(図19及び図20にて空白のセルは、意図強度パラメータの値がゼロであることを示す)。このことは、対応する外乱刺激に対するユーザーの排除意図が存在しない(つまり、何もせずともユーザーにとって最も心地よい外乱刺激状態が実現している)ことを意味し、当該の外乱刺激を抑制するための対応機能の動作を抑制(あるいは禁止)する意図が反映される。
対応する外乱刺激値の絶対値がゼロでなければ、意図強度パラメータはゼロでなくなり、その絶対値が大きいほど外乱刺激の排除意図が大きく設定されていると解釈される。ただし、意図強度パラメータは、基準意図ベクトル[fb]、[fm]の各成分と、対応する外乱刺激値との積の逆数により定義したり、同じく比により定義したりすることもでき、その絶対値と外乱刺激排除意図の大きさとの関係は演算定義により異なることはいうまでもない。
意図強度パラメータの符号は外乱刺激の符号と一致し、該符号は、対応する機能の制御の向きに対応付けられる。すなわち、外乱刺激値は、上記のごとく互いに相反する状態の間を行き来する形で変化し、その2状態の間には、そのどちらでもないニュートラル状態(つまり、明るすぎも暗すぎもしないちょうどよい明るさの状態、暑すぎず寒すぎない快適な気温状態、うるさすぎず静かすぎもしない普通の音響状態)が存在し、該ニュートラル状態を基準として外乱刺激が各々上記2状態のどちらに偏っているかが、その符号によって一義的に表わされる。
前述のごとく、基準意図パラメータは、ニュートラル値からずれた外乱刺激に対しユーザーがどの程度の排除願望を抱いているかをその絶対値にて示すものであり、これを用いて外乱刺激値との積により演算される意図強度パラメータの符号により、外乱刺激を相殺(キャンセル)する向きの制御が行なわれる。つまり、明るい場合には暗くし、暗い場合には明るくする、あるいは暑い場合には涼しくし、寒い場合には暖かくする作用となる。また、五月蝿い場合は、静かにするかその五月蝿さを誤魔化す向きの制御を行なう。
機能の具体的な選択・決定は、図21に示す原理探索テーブル372と図22の機能抽出テーブル373とを用いて行なう(図13:S7、S8)。原理探索テーブル372は、セル構造は意図推定テーブル371と同じであるが、各セルには機能特定情報として、機能の原理を特定するための原理特定情報が格納されている。また、機能抽出テーブル373は原理探索テーブル372に付随する、各原理特定情報と個別機能とを互いに対応付けた二次元テーブルであり、テーブルの各セルに、対応する個別機能の座席別の採用優先度を示す機能採用優先度情報が格納されている。
以下、精神系基準意図ベクトルに関係する部分により代表させて、より具体的な実施例を説明する(体調系基準意図ベクトルに関係する部分についても、基本的な処理の流れは同じである)。図19は、意図推定テーブル371の精神系基準意図ベクトル[fm]の設定部分を抜き出したものであり、図21は、原理探索テーブル372の対応部分を抜き出したものである。図19にて、精神系基準意図ベクトル[fm]の各成分[fm1,fm2,fm3,fm4,fm5,fm6,fm7]の設定値は[1,1,0.2,0.2,0.2,0.8,0.8]であり、Dfm=0.8で補正することにより[0.8,0.8,0.16,0.16,0.16,0.64,0.64]にて意図推定テーブル371上に設定されている。一方、外乱については、例えば視覚系外乱である光の強度に関しては、5段階の極小値−1.0が検出されているので、対応するセルの意図強度パラメータの設定値は[−0.8,−0.8,−0.16,−0.16,−0.16,−0.64,−0.64]となっている。
図21の原理探索テーブル372の対応部分を見れば、視覚系の原理特定情報として、例えば、不愉快排除→ストレス源排除→意思疎通強化の意図項目には、「内 表示」(理性系)及び「内 照明」(感性系)がそれぞれ格納されている(なお、原理探索テーブル372上にて空欄となっているセルは、対応する機能原理が存在しないことを示す)。前者は、図22の機能抽出テーブル373上にて、例えばメーターやインジケータ類、あるいはカーナビゲーション装置やカーステレオなどの表示を、夜間(あるいは暗所)点灯状態とする機能と結び付けられる(ただし、図22では表示を省略している)。また、後者は車室内照明であり、図22の機能抽出テーブル373上では、車内作用→視覚作用→照明の欄にて、前後、左右の各座席にて、上/下(すなわち、足元及び天井)の各位置を照らすべく配置されたイルミネーション(図1:車内照明511)に対し、それぞれ優先度「3」にて、該当する機能を選択することが指定されている。対応する意図強度パラメータの設定値は−0.8(かなり暗い)であり、もてなし実行制御部は、これを相殺するために+0.8に対応する発光出力で、表示や照明を明るく駆動制御することとなる(図13:S9)。
図19にて、触覚系外乱の気流温度(強度)に関しては、5段階の中小値−0.5が検出されているので、対応するセルの意図強度パラメータの設定値は[−0.4,−0.4,−0.08,−0.08,−0.08,−0.32,−0.32]となっている。
図21の原理探索テーブル372の対応部分を見れば、触覚系の原理特定情報として、例えば、不愉快排除→ストレス源排除→厚さ/寒さ解消の意図項目に、「内 エアコン」(感性系)が格納されている。これは、図22の機能抽出テーブル373上にてエアコン機能と結び付けられる(ただし、図22では表示を省略している)。対応する意図強度パラメータの設定値は−0.4(涼しい)であり、もてなし実行制御部は、これを相殺するために+0.4に対応する暖房出力で車室内が暖かくなるようにエアコン制御を行なう(図13:S9)。
また、不愉快排除→誤魔化す→ストレスを感じなくする、の意図項目には原理特定情報として、「内 照明」(感性系)が格納されている。対応する機能は、照明色の調整であり、照明色が長波長側(黄色、アンバー、赤色、ピンク、あるいはこれらの色彩を帯びた白色光)にシフトするように変化させる。これらの照明色は暖色系であり、温かみのある(あるいは気分の高揚に寄与する)演出効果に優れるからである。
さらに、愉快獲得→好きなもの/イメージが入手できる→趣味情報を提供、の意図項目には原理特定情報として、「内 全表示」(理性系)が格納されている。図22の機能抽出テーブル373上では、例えばカーナビゲーション装置の情報出力機能(例えば、涼感を提供する施設(喫茶店やプールなど)の案内情報)が結び付けられる(ただし、図22では表示を省略している)。好感雰囲気層送出の意図項目には原理特定情報として、「内 音発生」(感性系)が格納されている。図22の機能抽出テーブル373上では、例えばせせらぎや波、風等の涼感を誘う効果音出力機能が結び付けられる(ただし、図22では表示を省略している)。
図19にて、聴覚系外乱の音(強度)に関しては、5段階の極大値+1.0(つまり、相当五月蝿い)が検出されているので、対応するセルの意図強度パラメータの設定値は[0.8,0.8,0.16,0.16,0.16,0.64,0.64]となっている。図21の原理探索テーブル372の対応部分を見れば、聴覚系の原理特定情報として、例えば、不愉快排除→ストレス源排除→騒音解消の意図項目に、「内 音防止」(感性系)が格納されている。これは、図22の機能抽出テーブル373上にてノイズキャンセラ1001Bと結び付けられる(ただし、図22では表示を省略している)。対応する意図強度パラメータの設定値は0.8であり、もてなし実行制御部は、これを相殺するために+0.8に対応する出力で車室内騒音がキャンセルされるようにノイズキャンセラ1001Bの制御を行なう(図13:S9)。
また、愉快獲得→好きなもの/イメージが入手できる→趣味情報を提供、の意図項目には原理特定情報として、「内 音楽発生」(感性系)が格納されている。図22の機能抽出テーブル373上では、カーステレオの音楽出力機能が結び付けられる(ただし、図22では表示を省略している)。音楽ソースは、その都度体調や精神状態に応じた適正な選曲を行なう(図13:S9)。
次に、図28は、カーナビゲーションシステム534の構成例を示すブロック図である。このカーナビゲーションシステム534は、本発明の自動車用情報提供システムの要部をなすものであり、位置検出器101、地図データ入力器106、操作スイッチ群107、リモートコントロール(以下リモコンと称する)センサ111、音声案内等のための音声合成回路124、音声出力用のスピーカ115、不揮発メモリであるフラッシュメモリ2809、LCD等からなるモニタ110、これらの接続された主制御部をなす情報系ECU51、リモコン端末112及び主記憶装置をなすHDD(ハードディスク装置)121等を備えている。
位置検出器101は、周知の地磁気センサ102、ジャイロスコープ103、距離センサ104、および衛星からの電波に基づいて車両の位置を検出するGPSのためのGPS受信機105を有している。これらのセンサ等102,103,104,105は各々が性質の異なる誤差を持っているため、複数のセンサにより各々補完しながら使用するように構成されている。なお、精度によっては前述したうちの一部のセンサで構成してもよく、さらに、ステアリングの回転センサや各転動輪の車輪センサ等を用いてもよい。
操作スイッチ群107は、メカニカルなスイッチ等を使用できるが、本実施形態では、モニタ110と一体になったタッチパネル122を併用しており、モニタ110上に表示されるボタン画像に対応するタッチパネル領域を指で触れることにより、操作状態を認識できるようにしている(いわゆるソフトボタン)。これら操作スイッチ群107およびリモコン端末112によって、種々の指示を入力することが可能である。
操作スイッチ群107およびリモコン端末112の他に、音声認識ユニット130を用いて種々の指示を入力することも可能である。これは、音声認識ユニット130に接続されるマイク131から音声を入力することによって、その音声信号を周知の音声認識技術により音声認識処理して、その結果に応じた操作コマンドに変換するものである。
情報系ECU51は、CPU181、ROM182、RAM183、前述のフラッシュメモリ109、入出力部184がバス515により接続されたマイコンハードウェアを主体とするものである。HDD121はインターフェース129fを介してバス接続されている。また、地図やナビ操作画面を表示する描画情報に基づいて、モニタ110に画像出力する機能を担う描画LSI187と、描画処理用のグラフィックメモリ187Mとが同様にバス接続され、前述のモニタ110がこれに接続されている。CPU181は、フラッシュメモリ109に記憶されたナビソフトウェア109aおよびデータにより制御を行なう。また、HDD121へのデータの読み書きの制御はCPU181によって行なわれる。
HDD121には、道路データを含む地図データ21mと、目的地データや目的地の案内情報からなるナビデータ21dとが記憶されている。また、出力履歴データ21dとコンテンツデータ21uも記憶されている。これらのデータは、操作スイッチ群107およびリモコン端末112の操作あるいは音声入力によって内容の書き換えが可能である。また、外部情報入出力装置(地図データ入力器)106を用いて記憶媒体120からデータを読み込んでHDD121の内容を更新することも可能である。なお、本実施形態では、通信インターフェース126を介して、情報系ECU51が車内ネットワークをなすシリアル通信バス127に接続され、ボデー系ECUやエンジン制御ECU(図示せず)などの、車内の他の制御装置との間でデータの遣り取りを行なうようになっている。
また、シリアル通信バス127にはインターネット接続用の無線送受信部を有した通信ECU190(無線アクセス手段)が接続されている。フラッシュメモリ109にはブラウザソフトウェア109dが搭載されており、URLの指定により、通信ECU190を介して対応するウェブサイトをなすコンテンツ提供サーバー(情報提供サーバー)500(図29)にアクセスし、コンテンツファイルの閲覧を行なうことができる。ファイル内容(つまり、ホームページの内容)は、画像(動画及び静止画)についてはモニタ110から、音声については、アンプ125を介してスピーカ115から出力される(被提供情報出力手段)。また、フラッシュメモリ109には、興味分析ソフトウェア109b、キーワード辞書109c及び人工無脳エンジン109eが格納されている。詳細については後述する。
モニタ110はカラー液晶表示器により構成されており、その画面には位置検出器101から入力された車両の現在位置マークと、HDD121から入力された地図データ21mと、さらに地図上に表示する誘導経路等付加データとを重ね合わせて表示する。また、前述のごとくタッチパネル122が重ね合わされており、必要に応じて、目的地設定、表示設定、種々の機能呼び出し、画面切替操作等のための機能ボタンも表示する。
カーナビゲーションシステム534は、情報系ECU51のCPU181によりナビプログラム21pが起動される。運転者は、操作スイッチ群107あるいはリモコン端末112の操作あるいはマイク131からの音声入力によって、目的地データベース21dから所望の目的地を選択する。例えば、モニタ110上に表示されるメニューから目的地経路をモニタ110に表示させるための経路案内処理を選択した場合、次のような処理を実施する。即ち、運転者がモニタ110上の地図あるいは目的地選択画面に基づいて目的地を入力すると、GPS受信機105から得られる衛星のデータに基づき車両の現在位置が求められ、該現在位置から目的地までの最適な経路を求める処理が行われる。そして、モニタ110上の道路地図に誘導経路を重ねて表示し、運転者に適切な経路を案内する。このような自動的に最適な経路を設定する手法は、ダイクストラ法等の手法が知られている。また、モニタ110およびスピーカ115の少なくとも一方によって、操作時のガイダンスや動作状態に応じたメッセージの報知を行なう。
図30は、目的地データベース21dの内容を示すもので、各目的地の所在地情報に、個々の目的地を特定するためのIDとともに、分類情報及びキーワード群が付与されている。キーワードは、ユーザーの興味特定に使用するキーワード群、すなわち、キーワード辞書109c(図28)に登録されているキーワード群から、個々の目的地との関連性の深いものが複数個別に選定されている。
一方、分類情報は、ジャンルコードとサブ分類コードとを含む。ジャンルコードは、目的地をなす施設を、その種別により分類するもので、「飲食店」、「娯楽施設」、「公園」、宿泊施設、「道路関連サービス施設」、「コンビニエンスストア」、「スーパーマーケット」などに分かれている。このうち、「飲食店」、「道路関連サービス施設」、「コンビニエンスストア」、「スーパーマーケット」などが、飲食可能施設として位置付けられる。
また、各ジャンルコードには、それぞれのジャンルコードに適合したサブ分類コードが付与されている。「飲食店」の場合、「もてなし」効果を考慮して、ユーザーの体調や精神状態と関連付けた目的地選択が可能となるように、サブ分類コードの種別が考慮されている。すなわち、体調良好で食欲もあり(特に、青年/壮年など)、空腹が進んだ場合に選択すべき飲食店には、満腹感を優先したサブ分類コード(「がっつり・こってり系」)が付与されており、体調がそれほどでもなく食欲についても淡白な状態(特に、女性など)、精々小腹が空いた程度の状況で選択すべき飲食店には、軽めの食事を優先したサブ分類コード(「かるーく・あっさり系」)が付与されている。また、倦怠感が進み、気分転換が望ましい状況や、カップルなどでムードを盛り上げたい場合に選択すべき飲食店には、雰囲気重視の食事を優先したサブ分類コード(「シック・おしゃれ系」)が付与されている。また、一般的な料理種別(「和食・寿司」「中華・ラーメン」「洋食・カレー」)に基づくサブ分類コードも別途付与され、適宜選択できるようになっている。
一方、娯楽施設(あるいは観光スポット)や公園などの、レクリエーションないしエンターテインメント系のサービス提供施設についても、ユーザーの体調や精神状態と関連付けた目的地選択が可能となるように、サブ分類コードの種別が考慮されている。すなわち、体調良好で、陽気で活動的なサービスを欲している場合(特に、青年/壮年など)に選択すべき施設には、体力的あるいは精神的な発散を優先したサブ分類コード(「元気一杯スポット」)が付与されており、体調がそれほどでもないか疲れている場合(特に、女性など)には、体力消耗抑制を優先したサブ分類コード(「リラックス・いやし系」)が付与されている。また、カップルなどでムードを盛り上げたい場合に選択すべき施設には、雰囲気重視のサブ分類コード(「ラブラブスポット」)が付与されている。
他方、「道路関連サービス施設」は、「サービスエリア」、「パーキングエリア」、「道の駅」及び「ドライブイン」のサブ分類コードが付与されている。
また、目的地データベース21dには、各施設(目的地)の内容説明情報(施設内容情報)が対応付けて記憶されており、図45に示すように、選んだ目的地に対応する内容説明情報を画面上に出力(あるいは音声出力)することで、目的地確定前にその内容確認ができ、選択の一助とすることができる。
次に、HDD121内の出力履歴データ21dは、現在に至る過去一定期間(例えば、1〜5年間)内、あるいは一定数(例えば30〜300)の目的地訪問(行先)履歴を、図41に示すように、訪問日、ユーザー名、分類、及び訪問頻度と対応付けて記録・蓄積するものである。出力履歴データ21dの更新タイミング(例えば、目的地訪問(行先)履歴を出力履歴データ21d内に書き込み、あるいは既存の目的地の場合訪問頻度をインクリメントするタイミング)は、カーナビゲーションシステムによる当該目的地までの案内が終了した時点で行なうとよい。また、ユーザーの特定は、車室内座席別に設けられたカメラにより、各座席のユーザーの顔を撮影し、その撮影画像を用いた周知の顔認証技術により実施することができる。この場合、ユーザーは、フラッシュメモリ109等に形成された登録部に顔画像とユーザー名とを事前に登録しておく必要がある。
また、HDD121内のコンテンツデータ21uには、訪問済みの目的地と関連を有するウェブサイトの閲覧済(つまり、ダウンロード済)のコンテンツファイルが蓄積されており、随時閲覧できるようになっている。また、図示はしていないが、ウェブサイトのコンテンツファイルとは別の映像データや音楽再生データなども、ユーザーの興味を反映したキーワード群や目的地名と対応付けて被提供情報としてコンテンツデータ21u内に用意されている。
フラッシュメモリ109に格納されている音声認識ソフトウェア(音声認識手段)109bは、ユーザーがマイク131から入力する音声言語を、隠れマルコフモデルを適用した周知のアルゴリズムにより文字変換する処理を行なうものである。具体的には、音声認識の結果として得られた文字列は周知の形態素解析手法に従い単語分解された形で認識される。
他方、人工無脳エンジン109eは会話支援手段の中核をなすものであり、参照キーワード辞書109gと応答文雛型と109hとからなる会話支援ベースデータを有する。参照キーワード辞書109gには、会話支援用に予め定められた複数の参照キーワードが登録されている。人工無脳エンジン109eは、ユーザーによる会話入力内容を形態素解析し、この参照キーワード辞書109gと照合することにより、文字列マッチングした単語を参照キーワードとして抽出する。
応答文雛型109hは、誘導用キーワードの挿入空白部を有した会話文データであり、参照キーワードと対応付けた形で複数記憶されている。人工無脳エンジン109eは、ユーザーによる会話入力がなされる毎に該応答文雛型記憶部から応答文雛型を順次読み出し、当該応答文雛型の挿入空白部に、抽出された参照キーワードもしくはキーワード辞書内にて当該抽出された参照キーワードと予め関連付けられている別の参照キーワードを、ユーザーの次の会話入力を誘導するため誘導用キーワードとして挿入し、ユーザーによる次の会話入力を誘導するための誘導会話応答文を作成する。作成された誘導会話応答文はスピーカ115から出力される(誘導会話応答文作成出力手段)。
人工無脳エンジン109eは、ユーザーによる会話入力内容を形態素解析し、この参照キーワード辞書109gと照合することにより、文字列マッチングした単語を参照キーワードとして抽出する。このとき、単語配列の文法的なロジックや修飾関係を特定する構文解析は特に行なわない。つまり、人工無脳エンジン109eは、文字列マッチングと、その文字列、すなわち参照キーワードと事前に対応付けられた応答文雛型109hの読み出しと、その応答文雛型109hへの、上記参照キーワードと事前に対応付けられた誘導用キーワードの補充のみで機能する自動チャットプログラムとして機能するものである。
上記参照キーワード辞書109g及び応答文雛型109hからなる会話支援ベースデータは、予め定められた会話支援シーンに応じて異なる内容のものが複数組用意されている。人工無脳エンジン109eは、会話支援シーンの到来は、以下に説明する種々の方法により検出され、特定された会話支援シーンに応じて会話支援ベースデータが対応するものに切り替えて使用される。なお、会話支援ベースデータは、季節に応じて内容の異なるものが用意されている。
また、フラッシュメモリ109には、会話支援シーン毎に用意された会話きっかけフレーズ109i(会話支援ベースデータに組み込まれている)が記憶されており、会話支援シーンの到来が検出されるに伴い、対応する会話きっかけフレーズを読み出してスピーカ115から出力される。つまり、会話支援シーンの到来に合わせ、会話きっかけフレーズをシステム側から自発的に出力することで、当該シーンでのユーザー興味対象をいち早く特定することが可能となり、タイムリーな情報提供を行なうことができる。
会話支援シーンとして、本実施形態では、自動車の始動シーン、ユーザーの空腹シーン、疲労シーン及び気分転換シーンを特定する場合について例示する。このうち、自動車の始動シーンについいてはイグニッションスイッチの操作状態を監視することにより特定が可能である。また、ユーザーの疲労シーンについては、既に説明した体調ないし精神状態の検出により特定することが可能である。さらに、空腹シーンについては、後述するごとくエネルギー管理と食事コアタイムの計時により特定が可能である。始動シーンでは、最終訪問地に係る興味対象情報をユーザーから引き出すための会話支援ベースデータに切り替える。空腹シーンでは、食事内容に係る興味対象情報をユーザーから引き出すための会話支援ベースデータに切り替える。さらに、疲労シーンでは、休息活動内容に係る興味対象情報をユーザーから引き出すための会話支援ベースデータに切り替える。
図31は、会話支援データベースの選択・切替処理の一例を示すフローチャートである。SS1601では、イグニッションスイッチがONになったかどうかを確認する。ONになれば始動シーンが到来したと判定し、SS1602でタイマーを起動する。次に、SS1603では、後述の食事フラグFが「1」(空腹シーンの到来を示す)になっているかどうかを確認する。F=「0」のときは空腹シーン非到来であり、始動シーンを優先してSS1604に進み、図14にて説明した手法により特定された体調ないし精神状態を取得する。次いで、SS1605では、その体調ないし精神状態に適合する始動シーン用の会話支援データベースを選択し、会話きっかけフレーズを出力する形で人工無脳エンジンを始動する。他方、F=「1」のときは空腹シーンが到来したと判断し、別ルーチン処理で対応するためにSS1604及びSS1605をスキップする。
次に、SS1606では、シーン推移を見込んで設定された一定のインターバル期間(例えば30分〜1時間)だけ待機する。そして、SS1607に進み、再び食事フラグFをリードする。F=「0」のときは空腹シーン非到来であり、SS1608に進んで再び体調ないし精神状態を取得する(F=「1」のときは空腹シーンが到来したと判断し、別ルーチン処理で対応するためにSS1608〜SS1611をスキップする)。そして、SS1609では、取得した体調ないし精神状態を、前回取得した体調ないし精神状態と比較して、非疲労状態から疲労状態へ転じたかどうかを確認する。疲労状態へ転じた場合は疲労シーンが到来したと判断し、SS1613に進んで疲労シーン用の会話支援データベースを選択し、会話きっかけフレーズを出力する形で人工無脳エンジンを始動する。
一方、疲労状態でない場合はS1610に進み、前回の人工無脳エンジン始動から一定時間(例えば、前述のインターバル期間(30分〜1時間))経過しているかどうかを判定し、経過していれば気分転換シーンが到来したと判断し、SS1611に進んで気分転換シーン用の会話支援データベースを選択し、会話きっかけフレーズを出力する形で人工無脳エンジンを始動する。S1610で、該一定期間が経過していない場合はSS1611をスキップする。SS1612ではイグニッションスイッチがOFFになったかどうかを確認し、OFFになっていなければSS1607に戻って以下の処理を繰り返す。また、OFFになっていれば処理を終了する。
なお、上記の例では、イグニッションスイッチがONになったかどうかで始動シーンの到来判定を行なっているが、携帯機等を用いた車外からの遠隔操作や、もてなしシステムによる事前設定や自動車へのユーザーの接近検知等により、自動車を自動始動させる態様もありえる。この場合は、イグニッションスイッチONと、ユーザーの車室内検知とが同時に成立した場合に始動シーンが到来したと判定するのが妥当である。
次に、空腹シーンの到来と、この場合に実行される上記別処理の流れについて説明する。ユーザーは、空腹になれば、無口になったりいらいらしたりするなど、外部から検知可能なシグナルも多数現れる。これを、上記の生体情報として検知することも全く不可能というわけではないが、実際には、空腹ではない単なる体調不良や、精神的に落ち込んでいるだけの場合などとの適確な識別が難しいことがある。この場合、自動車側に計時手段(いわゆる、「時計」である:本実施形態では、図33のカレンダクロック153が使用されるが、これに限定されるものではない)を設け、該計時手段が取得する時刻情報に基づいて予め定められた食事時刻の到来を判定し、該食事時刻到来に係る判定結果を空腹度情報として活用することができる。また、ユーザーの食事後の経過時間を計測し、該食事後経過時間を空腹度情報として活用してもよい(これを、上記時刻情報に基づいて食事時刻の到来を判定する構成と併用することももちろん可能である)。
この実施形態では、空腹度情報を肉体エネルギー情報として、図32に示す流れに従い管理処理を行なう(エネルギー管理処理)。この処理は、図28に示すカーナビゲーションシステム534のECU51が、イグニッションスイッチがオンになることをトリガとして、図31の処理と並列に実行される。SS1401は、ユーザーが自動車を利用開始する際の持ちエネルギーを設定する初期設定処理である。図32にその詳細を示す。まず、SS1501ではイグニッションスイッチがONであるかどうかを確認する。SS1502では、それがその日最初のエンジン始動かどうかを確認する(カレンダクロック153による時刻モニタリングにより可能である)。YesであればSS1503に進み、食事フラグF(食事済み確認情報)と食事管理タイマー(食事完了判定用計時手段)をリセットする。食事フラグFは「0」であれば未食事を、「1」であれば食事済みであることを意味する。
SS1504では、カレンダクロック153から現在時刻Tを取得する。そしてSS1505〜SS1507では、現在時刻Tが朝食コアタイム(5:00〜10:00、朝食基準時刻は、例えば8:00とする)、昼食コアタイム(11:00〜14:00、昼食基準時刻は、例えば12:30とする)、夕食コアタイム(17:00〜22:00、夕食基準時刻は、例えば19:00とする)のいずれかに入っていないかどうかを確認する。つまり、一般人であれば食事を行なう蓋然性の高い時間を、上記のように食事コアタイムとして決めておき、現在時刻Tがその食事コアタイムに入っているかいないかに基づいて、食事案内タイミング到来の判定を行なうようにするのである。
現在時刻Tがいずれの食事コアタイムに入っていない場合は、前回の食事コアタイム内での食事以降は、現在まで食事をしていないものとみなし、SS1508に進んで食事フラグFは「0」とする。そして、SS1509では、前回の食事コアタイムの基準時刻Tを推定食事時刻と定めて、現在時刻までの経過時間ΔT=T−Tを計算する。そして、SS1509では、持ちエネルギーEを、Emax−A・ΔT(Aはエネルギー消耗係数)により計算し、設定する。
Emaxは、ユーザーが空腹状態で満腹するまで食事したときに得られるエネルギーの値として定める。Emaxの設定値自体は任意であってよいが、この場合、単位時間当たりのエネルギー消耗量を示すエネルギー消耗係数Aを、次の食事の直前には予め定められた最小エネルギーEminまで減少するように定める必要がある。例えば、基準時刻12:30に昼食完了後、基準時刻の30分前(食事中時間を意味する)である18:30に夕食をとり始めたと考え、その夕食直前の最小エネルギーEminを0.4Emaxとなるように定めたとき、エネルギー消耗係数Aは、0.1Emaxに定めればよい。なお、Emax、Emin及びAは、朝食→昼食→夕食→朝食のサイクルで、食時間インターバルも、空腹度もそれぞれ異なることから、どの食事間インターバルになっているかに応じて、Emax、Emin及びAの値を各々固有の異なる値に設定することも可能である。
一方、現在時刻Tがいずれかの食事コアタイムに入っていた場合はSS1510に進む。このとき、ユーザーは食事を済ませてから自動車に乗り込んできたのかも知れないし、食事をとらずに、自動車に乗り込み、走り始めたらすぐにどこかで外食しようと考えているのかもしれない。こういうことは、普通、ユーザーに質問で確認しなければわからない事項である(一般社会でも、食事時にもてなすべき来客があれば、「食事はまだですか?」などと聞いて確かめるのが常識であろうし、気遣いというものである)。
そこで、SS1510では、ユーザーに食事済みであるか否かを確認する質問をスピーカ出力する。この質問は、音声による質問でもよいし、モニタ110へ文字等で出力する形でもよい。回答も、音声による直接回答としてもよいし(この場合は、音声認識による回答内容把握が必要である)、タッチパネル122等の入力部からの手入力による回答であってもよい。回答結果が「食事まだ」であれば、SS1512に進んで持ちエネルギーをEminにセットし、SS1513で食事フラグをF=「0」(未食事)にセットする。また、回答結果が「食事済」であれば、SS1519に進んで持ちエネルギーをEmax(基準時刻の経過分に対応するエネルギー消耗量A・ΔTを減算しておいてもよい)にセットし、SS1513で食事フラグをF=「1」(食事済み)にセットする。
次に、SS1502で、SS1501で検知したエンジンの始動が、その日最初の始動でなかった場合は、ユーザーが目的地の途上で自動車を一旦駐車し、何らかの所用で自動車を離れて再び戻ってきてエンジンを始動した場合に相当する。この場合、その駐車が食事のための駐車であった可能性もある。もちろん、SS1510と同様に、この場合も食事済かどうかの質問を同様に実施し、回答結果により判定する方法も可能である。しかし、自動車が駐車される度に「食事済みかどうか」を機械的に質問されるのは不快な場合もある。そこで、本実施形態では、SS1514で食事フラグFの内容をリードする。「1」であれば、前回のサイクルで既にSS1520に至る処理が実施されていることを意味し、エネルギーの値も更新済みであるから、何もせずに処理を抜ける。
一方、「0」である場合は、図29の主処理側にて後述するごとく、カーナビゲーションシステム側に食事施設が目的地設定されているはずであり、自動車の現在位置から上記の駐車がその食事施設での駐車か否かを容易に判定できる。そして、食事管理タイマーは、後述のごとく、その食事施設への到着を確認できた段階で計時開始するので、SS1516では、その食事管理タイマーの状態をリードする。SS1517で、その食事管理タイマーの計測時間が、食事完了に対応するT以上の値を示している場合はSS1518に進んで食事管理タイマーをリセットし、SS1519に進んで食事済み判定時の前述の処理を行なう。他方、T未満の値(ゼロを含む)になっているときは、エネルギーの値は更新済みであり、何もせずに処理を抜ける。
図29に戻り、上記のようにして持ちエネルギーの初期設定が終了すれば、SS1402で現在時刻Tを取得し、SS1403では前回時刻T(例えば、前回サイクルで現在時刻Tとして取得された時刻である)を取得する。SS1404では、その時間差δT=T−Tを計算し、SS1405では、持ちエネルギーEからδT巻の消耗エネルギー分を減算して更新する。そして、SS1406では食事フラグFをリードする。
SS1407では、既にカーナビゲーションシステムで食事施設の目的地設定が行なわれ、案内開始に移行しているかどうかを確認する。Noの場合は、食事フラグFの値を確認し、「0(未食事)」であればSS1409に進んで、現在時刻Tが前述の食事コアタイム内かを確認する。コアタイム内であれば空腹シーン到来と判定してSS1412に進み、空腹シーン用の会話支援データベースを選択し、会話きっかけフレーズを出力する形で人工無脳エンジンを始動する。この場合の会話支援データベースは、本格的な食事に係る興味対象情報をユーザーから引き出すのに好都合となるよう、内容が定められている。
その後、SS1414では、あとで詳述するように、人工無脳の誘導によりユーザが入力した内容をキーワード分析し、分析結果に適合する食事関連施設をリストアップして候補表示する。SS1415では、ユーザーはこれを参照して所望の食事関連施設を選択する。なお、朝食、昼食及び夕食の種別に応じて、食事関連施設を分類しておき、現在の食事コアタイムに適合する食事関連施設を選択して検索することが可能である。
一方、SS1407にて(前の処理周期で)既に食事関連施設の目的地設定が既に終了している場合は、以下SS1415までの処理はスキップする。また、SS1408で食事フラグFが「1」(食事済み)の場合、あるいは、SS1409で現在時刻Tcが食事コアタイム外であった場合には、SS1410に進んで現在のエネルギーEの値を確認する。乗り物に乗車中は平時よりも空腹が進行しやすい傾向にもあるし、昼食から夕食までのインターバルは長く、おやつを取る人も多い。また、夕食後、深夜走行を長く継続する場合も、次の朝食までには長時間あり、夜食を食べたくなることもある。さらに、何らかの理由により食事が不規則になった場合は、食事コアタイム外に食事が必要となることもある。そこで、全体時刻からは推定できない空腹状況を、食事後の経過時間を基本としたエネルギーEの値により判断し、空腹と判定されば食事施設に導く処理を同様に行なうのである。
本実施形態では、そのエネルギーEの閾値Em,Es(Em<Es)を複数段階に設定しており、SS1410でエネルギーEがより低い側の第一閾値Emよりも小さくなった場合には、SS1412〜SS1415の流れにて、本格的な食事関連施設(例えば、レストランなどの一般食事提供施設や、該施設が設置されているサービスエリアなど)に導く処理を行い、それよりも高い第二閾値Esと上記第一閾値Emとの間の値となった場合(SS1411)は、SS1413にて空腹シーン用の会話支援データベースを選択し、会話きっかけフレーズを出力する形で人工無脳エンジンを始動する。この場合の会話支援データベースは、軽食に係る興味対象情報をユーザーから引き出すのに好都合となるよう内容が定められている。以下、S1414及びS1415の前述の処理が順次実行される。エネルギーEが食事不要と判定するための閾値(ここでは第二閾値Es)よりも高い場合には、食事関連施設に導く処理は特に行なわない。なお、SS1420で現在時刻が食事コアタイム外だった場合は食事フラグFを「0」(未食事)にリセットする。
このようにして施設が目的地として設定されれば、ユーザーは周知のカーナビゲーションプログラム処理による案内表示に基づいて運転を継続する。そして、SS1417では、選んだ施設に到着したかどうかを判定する。到着していればSS1418に進み、食事管理タイマーを起動する(到着していなければSS1418をスキップする)。そして、SS1419でIG信号がONのままであればSS1402に戻り、以下の処理を繰り返す。一方、IG信号がOFFであれば、そのサイクルのエネルギー管理処理を終了する。前述のごとく、食事管理タイマーは食事施設への到着後に起動し、次にエンジン始動されたとき(IG信号がONになったとき)、図33のSS1516〜SS1520の処理により、一定時間以上が経過していれば食事完了と判定されるようになっている。
以下、各会話誘導シーンでの会話誘導の実例について説明する。まず、始動シーンでは、最終訪問地に係る興味対象情報、つまり、大まかにユーザーがどこへ行きたいと考えているか、をユーザーから引き出すための会話支援ベースデータが使用される。図29にこの場合の対話例を示している(CBが人工無脳、DVがユーザーを表す)。最初の一行が会話きっかけフレーズであり、これを含めて会話支援ベースデータは、季節に応じて異なるものが使い分けられる。季節の特定は、当然、カレンダクロック153の計時内容を参照することで可能となる。
例えば、季節が冬であれば、人工無脳CBは
<お早よう。寒いわね。>
などと、今が冬であることに適合した会話きっかけフレーズを選択して出力する。また、これ以外にも、
<明日も休みだし、寒さを吹っ飛ばして遊びに行こうよ。>
<待ってたわ‥。凍えそうなこんな日は、私を早く暖めて‥。>
など、種々の会話きっかけフレーズを用意しておき、乱数を参照してランダムにこれを選択することが可能である。
応答文雛型は、例えば一定のシナリオに従い固定的に配列されたものを順次出力してもよいが、ワンパターンなのですぐに飽きられる可能性がある。この問題は、複数の応答文雛型をグループにして、そのグループを一定のシナリオに従い配列し、グループ毎に応答文雛型をランダムに選択するようにしておけば多少緩和することが可能である。しかし、シナリオが固定されていることに変わりはないので、シナリオから外れた方向に会話が進んでしまった場合は収拾不能の状態にも陥りかねない。
これを解決するために、入力と出力の組合せを辞書として記憶しておき、入力文字列の中に特定の参照キーワードがあるかどうかを調べ、辞書に従って応答文雛型を選ぶ手法がある(「辞書逆引き型」と称される)。大きな辞書を用意すれば、様々なシチュエーションに対応できるようになる。なお、辞書に載っている言葉がひとつもなかった場合はどうとでも取れる返事を適当に返すようにしておく。この適当な返事にバリエーションを持たせることで何とか単調にならないように工夫するわけである。
ユーザーDVは、これを真に受けて、あまり詮索せずに自然に答えるのがよい。例えば、季節の話題で振られたら、季節の話題で返すのが妥当である。例えば、
<いよいよ冬だね。>
と答えると、人工無脳CBは、この「冬」を参照キーワードとして抽出し、例えば同じ参照キーワードを含んだ誘導会話応答文を作成して返す(図中では、参照キーワードに二重線を付与している)。具体的には、「冬」と対応付けた応答文雛型として、
<「 」になってうれしい?>
が対応付けて記憶されており、その空白部分「 」に参照キーワードとして抽出した「冬」をそのまま誘導キーワードとして挿入して、
<「冬」になってうれしい?>
という誘導会話応答文を作成し出力する。
すなわち、ユーザーDVが発言した特定の単語「冬」がそのまま織り込まれる形で応答文が返されるので、ユーザーDVは、自動車が自分のしゃべった内容をあたかも理解しているのかと錯覚し、例えば、これに応じる形で、
<うれしいね、スキーがしたいな。>
と答えたとする。すると、今度は「スキー」が参照キーワードとして抽出される。このように、人工無脳の場合、キーワード抽出のための文字列マッチングと、キーワードに対応付けられた応答文雛型の選択だけで会話を進めてゆく。
なお、こうした単純なシステムでは、辞書を充実させればさせるほど個々の項目にヒットする確率が低下し、例えば適当な返事が多用されすぎる懸念がある。また、抽出されたキーワードに対する選択肢の数が増えすぎると(いわゆる、フレーム問題あるいは可能性爆発とも呼ばれる)、適正な応答文雛型や誘導キーワードが選択される確率が急速に減少し、目的とする方向に会話を維持できなくなる懸念もある。その結果、的外れな発言の繰り返しの中で、ユーザの会話へのモチベーションが低下してしまうことにつながる。従って、人工無脳エンジンは、会話の方向性がぶれないように、目的地絞込みを主導するための質問項目を含んだ応答文雛型を1ないし複数ターン繰り返し、ユーザーから適切な応答を引き出すように構成しておくことが望ましい。例えば、前述のユーザーの発言;
<うれしいね、スキーがしたいな。>
において、「スキー」は目的地を絞り込むのにかなり有効なキーワードであるが、例えば、スキー場にいきたいと思っているのか、スキーに出かける準備をしたいのかなど、ユーザーDVが興味を持つ目的地を正確に特定するには、まだ不十分な状態である。
図28では、上記「スキー」のように、レクリエーション系の参照キーワードキーワード群に対応付けて記憶されている、
<わたしも「 」大好き。「 」で何が大事?>
という応答文雛型を読み出す。空白部分には、ここでも抽出された参照キーワードがそのまま挿入される。すると、誘導会話応答文は、
<わたしも「スキー」大好き。「スキー」で何が大事?>
となる。
ここでは、<「スキー」で何が大事?>の部分が質問項目を形成しており、この質問に対する回答に含まれる参照キーワードの種別によって、次に使用する応答文雛型が分岐するようになっている。具体的には、「雪」、「道路」など、移動手段に関係する参照キーワード群の場合は、
<まあ、「 」だなんて。まじめに答えて。「 」と車で何が大事?>;
「道具」、「板」、「スキーウェア」など、用具や携行品に関係する参照キーワード群の場合は、
<「 」を買うの?新しいの持ってないんだ?>;
「スキー場」、「ホテル」、「宿」、「温泉」など、行き先に関係する参照キーワード群の場合は、
<「 」って、今から行くの?うっそー、マジ?>
などである。
ここでは、ユーザーは、
<そりゃー、雪だよ>
と答えているので、誘導会話応答文として、
<まあ、「雪」だなんて。まじめに答えて。「雪」と車で何が大事?>
となる。以下、
DV:<タイヤだな>
CB:<「スタッドレス」に替えた?>
と続く。こうして、ユーザーが「タイヤ交換」に興味を持っており、タイヤ購入に関係したキーワードが蓄積され、話題(目的地)が次第に絞り込まれてゆくことになる。
話題が絞り込まれれば、ユーザーが発言するたびに、
<あなた、「 」のこと詳しいのね。それで、それで?>
<それ、すっごい興味ある。「 」についてもっと教えて>
など、ユーザー発言に共感して発言続行を促す内容の応答文雛型を、合いの手を挟む形で出力し続けることも有効である。つまり、話題がある程度具体化したところでユーザーに粛々と語らせることで、上述する興味特定キーワードの蓄積量を充実させることができる。
また、会話(チャット)のログを記録しておき、このログに従って応答文雛型選択の学習を行なうことも有効である。ログを読めば、会話の中で行なわれたやり取りを後から追跡できる。この場合、質問の次の行には返事が記録されている確率が高いので、入力文字列とログの文字列を比較し、予め定められた方法で相関係数を計算するとともに、相関が最も高いユーザー発言の次にくる応答文雛型を返答とする形で学習を進めることができる。
以下、応答文雛型選択のアルゴリズムについて、採用可能な方法をさらに説明する。図34は、季節が夏の場合の会話例を示す。ここでの会話きっかけフレーズは、
<暑いわねえ‥。外へ出るのもいやになるでしょ?>
であり、ユーザーの応答は、
<いやあ‥。子供が海へ行きたいっていうし。>
である。この場合、「行きたい」という訪問意思を反映した参照キーワードが発言の中に含まれていることで、これに対応付けて目的地を具体的に紹介する
<この辺だと、「 」かしらね。>
<それなら、「 」が近いわよ。>
などの応答文雛型が用意されている。さらに、その目的地のジャンルを具体的に特定する「海」が参照キーワードに含まれていることで、前述のカーナビゲーションシステム534の機能を利用し、現在地から一定距離内にある当該のジャンルの目的地候補を目的地データベース21d内で検索し、これを「海」+「行きたい」という、目的地ジャンルキーワードと訪問意思反映キーワードとに複合して関連付けられた誘導キーワード(ここでは、「高潮海岸」)として応答文雛型に挿入している。その結果、
<この辺だと、「高潮海岸」かしらね。>
という誘導会話応答文が出力されている。
ユーザーは、これに対し、
<高潮海岸は去年行なったよ。>
と、返答を返している。このうち、過去の訪問実績を反映した「去年」「行った」という2つの参照キーワードが抽出され、これに関連付けて、代替目的地を紹介するための応答文雛型として、
<じゃあ、「 」は?>
が選択され、代替目的地候補を図30の目的地データベース21d内で検索し、これを誘導キーワード(ここでは、「芋洗いビーチ」)として応答文雛型に挿入する。その結果、
<じゃあ、「芋洗いビーチ」は?>
という誘導会話応答文が出力されている。
なお、代替目的地候補を検索する際に、図41に示す出力履歴データ21dを参照し、過去に訪問した目的地の優先度を下げて検索を行なうことも可能である。例えば、直近一定期間(例えば1〜3年)以内に訪問している目的地は、代替目的地候補から外すようにしてもよく、例えば出力履歴データ21dが図41に示す状態になっている場合は、図34の3行目の誘導会話応答文では、目的地候補として「高潮海岸」は採用されなくなる。
以下、同様のやり取りが繰り返されているが、最後から2行目のユーザー発言では、「遠くても」(この他、「足を伸ばして」「時間かかっても」「もっと近くで」など)が目的地検索範囲を変更するための参照キーワードとして、また、「空いてる」(この他、「待たなくてよい」「穴場」「並んでるところ」など)が目的地人気ランキングを特定するための参照キーワードとして抽出されている。前者に対応して、代替目的地候補を目的地データベース21d内で検索する際の地域範囲を一定距離拡大し、後者に対応して人気ランキングが下位の目的地に絞り込んで、代替目的地候補が検索される。なお、各目的地の人気ランキング情報は、図30の目的地データベース21d内にて各目的地に対応付けて記憶しておいてもよいし、自動車と無線通信可能な外部情報提供サーバー(例えば、図29のコンテンツ提供サーバー500)から取得してもよい。
次に、図35は、季節が夏の場合、別の会話例を示す。ここでは、始動シーン到来時のもてなしシステムによる自動車の制御状態(例えば、車室内の制御状態)を受けて、該制御状態に対応する会話きっかけフレーズにより会話を開始する例を示している。具体的には、ユーザーによる事前設定により、もてなしシステムがユーザー乗り込みに先立ってエンジンを始動し、かつエアコンを作動させ、車室内が予冷されている。そして、ユーザーのシートへの着座が検知されると、次のような会話きっかけフレーズが出力されている。
<中、冷やしといてあげたわよ。>
自分の行なったサービスを幾分恩着せがましく告げるなれなれしい態度であるが、これがユーザーには世話女房的な親近感を感じさせることにつながる。ユーザーは、
<いやあ、助かるよ。>
と礼を述べている。このうち、「助かるよ」(このほか、「すまんなあ」「さすがはおまえだ」「気が利くねえ」など)が、ほめ言葉を表す参照キーワードとして抽出されている。そして、言葉を表す参照キーワードには、ほめられると喜ぶ内容を示す応答文雛型(ただし、空白部分を含まず:従って、そのまま誘導会話応答文を形成する)が対応付けられており、例えば次のような誘導会話応答文が出力される。
<喜んでくれて私うれしい。>
もちろん、これをきっかけに自由に会話を継続させるようにしてもよいが、ここでは、目的地情報の引き出しにつながる話題に誘導するため、直ちに、
<それにしても暑いわよね。>
という、今日の天候に関する応答文雛型(=誘導会話応答文)を選択して出力を行なっている。ユーザーは、これを受けて、
<どこか涼しいところないかな。>
と答えている。参照キーワードとして「どこか」「涼しいところ」が抽出されている。
ここでは、「どこか」が訪問意思を反映した参照キーワードであり、「涼しいところ」が目的地のジャンルを特定する参照キーワードに相当する。ここでは、応答文雛型として、
<「 」なら、いろいろ知っているわよ。時間はあるの?>
が選択され、「涼しいところ」がそのまま誘導キーワードとして挿入され、
<「涼しいところ」なら、いろいろ知っているわよ。時間はあるの?>
という誘導会話応答文が出力されている。この応答文雛型の特徴は、ユーザーの欲している許容外出距離に関する情報を引き出すためのフレーズとして、「時間はあるの」(このほかにも、「遠出してもいいのかな?」、あるいは取得した体調情報に応じて「ちょっと疲れてるから、近場にしたら?」や「のりのりの今日は思いっきりドライブしよー」など)が含まれている点である。
ユーザーは、これを受けて、
<ちょっとドライブしたいな。3時間くらい>
と答えている。「3時間」が参照キーワードとして抽出されるので「涼しい」に関連付けられた山、川、湖などを主体とする観光地のうち、行き帰りを及び現地滞在時間(予め定められている:例えば1時間)を考慮して(3−1)/2=1時間以内に収まる目的地候補を目的地データベース21d内で検索し、その検索結果の一つを誘導キーワード(ここでは、「ドカ雪高原」)として応答文雛型に挿入している。その結果、
<「ドカ雪高原」なんてどうかしら。夏もいいのよ。「1時間」くらいよ>
という誘導会話応答文が出力されている。
以上、図31における始動シーンでの会話誘導例(SS1605)について説明したが、ユーザーの気分転換のために人工無脳は始動後一定時間毎に発動され、類似の会話が誘導されるようになっている(SS1610→SS1611)。つまり、該一定時間が経過する毎に気分転換シーンが到来したと判定されている。
また、上記の例では、会話きっかけフレーズを出力することで、人工無脳エンジン側から会話を開始する形になっていたが、ユーザーの側から人工無脳エンジンを呼び出す発言を行い、会話を開始するようにしてもよい。例えば、人工無脳(あるいは自動車)に対するニックネームを事前に登録しておき(ここでは、例えば「カオリン」とする)、
<カオリン、ちょっといいかな。>
など、ニックネームを直接音声入力することで、人工無脳エンジンを割り込み起動させるように構成することができる。
次に、図36は、疲労シーンでの会話誘導例を示している。会話きっかけフレーズの例としては、疲労(あるいは体調不良を含めてもよい)が軽度の場合は、
<疲れてない?>
<ちょっと休もうか>
などを例示でき、疲労が重度の場合は、
<ちょっと休まなきゃだめ>
<私、疲れた。休みたいの。わかってるわよね。>
などを例示できる。このように、検出される疲労の程度に応じて会話きっかけフレーズの内容を異ならせることにより、会話誘導の方向をユーザーの体調に合わせてより適正化することが可能となる。
図36は疲労が比較的軽度の場合を示しており、会話きっかけフレーズとして、
<疲れてない?>
が出力されている。図中左列は、ユーザーから、
<いやあ、大丈夫だよ>
という、疲れを否定する発言が返された場合の会話例を示している。疲れの否定を反映した参照キーワードとして「大丈夫」が抽出され、これに対応付けられた応答文雛型(=誘導会話応答文)として、
<適当に休んでね>
が選択され出力されている。会話はあまり進展せずに収束する。
一方、図中右列は、ユーザーから、
<コーヒーでも飲みたいね>
という、休息意思を表す発言が返された場合の会話例を示している。休息意思を反映した参照キーワードとして「コーヒー」が抽出され、現在地から一定の近距離(例えば10km以内)に存在する喫茶、軽食、あるいはパーキングエリアやサービスエリアに関連する目的地候補を目的地データベース21d内で検索し、その検索結果の一つを誘導キーワード(ここでは、「亀山パーキングエリア」)として応答文雛型に挿入している。その結果、
<「亀山パーキングエリア」が近いわよ>
という誘導会話応答文が出力されている。
図37は、空腹シーン(本格的食事:SS1412)での会話誘導例を示す。定型的な会話きっかけフレーズとして、
<ごはん、まだですよね>
が出力される。ユーザーは空腹程度を盛り込んだ返答を返すとよい。図面左列では、
<うん、結構空腹だね>
という返答が返されている。ここでは、飲食店のジャンルが空腹程度と関連付けて特定されるようになっており、「空腹」が参照キーワードとして抽出され、これに対応して目的地データベース21dにて、満腹感を優先したサブ分類コード(「がっつり・こってり系」)が特定される。このサブ分類コード名が「空腹」と関連付けられた誘導キーワードとして取り込まれ、
<「こってり、がっつり系」でいきます?>
という誘導会話応答文が出力されている。
これに対するユーザーの応答は、
<何でもいいから早く食べたいよ>
であり、「何でもいい」と「早く」が参照キーワードとして抽出される。ここでは、サブ分類コードが既にシステム側で選択されている状態であり、「何でもいい」はその選択状態を維持する確認用に使用されるキーワードである。そして、「早く」を受けて、現在地から一定の近距離(例えば10km以内)に存在する、選択したサブ分類コード(「がっつり・こってり系」)の飲食店を目的地データベース21dにて検索する。その検索結果の一つを誘導キーワード(ここでは、「てんこもり」)として対応する応答文雛型に挿入している。その結果、
<じゃあ、ラーメン屋で「てんこもり」でいいですか>
という誘導会話応答文が出力されている。
一方、図面右列では、
<そうだね。多少軽めに>
という返答が返されている。「軽め」が参照キーワードとして抽出され、これに対応して目的地データベース21dにて、軽めの食事を優先したサブ分類コード(「かるーく・あっさり系」)が特定される。このサブ分類コード名が「空腹」と関連付けられた誘導キーワードとして取り込まれ、
<「かるーく・あっさり系」でいきます?>
という誘導会話応答文が出力されている。
図38は、空腹シーン(軽食:SS1413)での会話誘導例を示す。会話きっかけフレーズとして、軽食への誘導に適合した、
<おやつでも食べたい?>
が出力される。以下のやり取りは、飲食店のジャンル特定に誘導する流れとなっているが、下から2行目のユーザー発言;
<近くだとどの辺かな。おもしろいところがあれば。>
では、人気店やお勧めスポットへの要望を反映した参照キーワードとして、「おもしろい」(このほか、「お勧めは」「いいところ」など)が抽出されている。人気店やお勧めスポットについては、前述の人気ランキング情報に基づいて検索できる。
会話誘導の方向性が的確に絞り込まれていれば、一連の会話の最終段階で入力された特定の参照キーワードから、最終目的地等のユーザー興味対象を直ちに特定できる場合がある。例えば、会話が十分に噛み合いさえすれば、誘導キーワードとして具体的な目的地候補を1ないし複数提示し、これを選択肢としてユーザーに選ばせるようにすればよい。しかし、前述のごとく、ユーザーの発言を構文解析し興味の内容を直接理解する能力については、人工無脳は具備しておらず、上記のように都合よくユーザー興味対象を特定できることのほうが少ないといえる。そこで、会話支援によりユーザーにできるだけ多く発言させ、その入力された一連のユーザーの会話内容を蓄積する(例えば図28のRAM183に、その蓄積のためのエリアを確保しておく)。例えば音声認識された会話内容をそのまま蓄積してもよいし、人工無脳エンジンに組み込まれた参照キーワード辞書との照合により抽出された参照キーワードを蓄積してもよい。
会話内容をそのまま蓄積する場合、図28のキーワード抽出ソフトウェア(キーワード抽出手段)109cは、音声認識された入力内容からユーザーの興味特定に使用する興味特定キーワードを抽出する役割を果たす。フラッシュメモリ109(キーワード辞書記憶部)には、興味抽出用に予め選定された興味特定キーワード群を網羅した興味特定キーワード辞書109dが記憶されている。キーワード抽出ソフトウェア109cは、単語分解された会話内容を、単語毎に興味特定キーワード辞書109dに登録されている興味特定キーワード群と照合し、該興味特定キーワード辞書109dに網羅されている興味特定キーワードのみを選択的に抽出する。
興味特定キーワード辞書109dに登録されているのは、被提供情報コンテンツ内容を絞り込むのに有効なキーワード、例えば、情報のジャンル(カー用品、娯楽、食事など)、商品やサービスの種別(タイヤ、スキーなど)、季節、固有名詞(地名、人名、店名など)等を直接反映したキーワード(上記会話内であれば、アンダーラインを付与したキーワード)のみが興味特定キーワード辞書109dに登録されている。従って、上記会話を単語分解して興味特定キーワード辞書109dと照合すれば、照合一致するキーワードのみが抽出されることになる。
人工無脳エンジン側の参照キーワード辞書109gは、会話誘導を目的としてキーワード選定がされているので、例えば図34における「去年」「行った」や、図35の「助かるよ」「どこか」、図36の「大丈夫」「ありがとう」「そこにしよう」、図37の「早く」「どんな」、図38の「おもしろい」など、興味特定キーワード以外のキーワードも網羅するものである。しかし、興味特定キーワードも多分に網羅されており、これを興味特定キーワード辞書として代用することも十分に可能である。この場合、会話誘導時に参照キーワード辞書109gを用いて参照キーワードを抽出する際は、会話誘導の方向によっては発言内容に興味特定キーワードが含まれていても、これが抽出の対象とならないこともありえる。しかし、このときに、会話誘導の方向と特に関係のない興味特定キーワードも含めて抽出・蓄積するようにしておき、その蓄積結果から興味特定キーワード以外のキーワードを除外すれば、残りの興味特定キーワード群を興味特定用母データとして活用できる。
なお、キーワード抽出ソフトウェア109cにはキーワード辞書更新手段として機能する辞書ツールが付随している。該辞書ツールは定期的に実行され、インターネット1170あるいはその他の通信網を介して辞書配信サーバー501に、季節、流行ないし最新トピックに関係する新キーワード群を含んだキーワード更新情報の配信を要請するとともに、受信取得したキーワード更新情報によりキーワード辞書109dを更新する。具体的には、キーワード更新情報に新しいキーワードが含まれていればこれを追加し、逆に特定のキーワードの削除指示情報が含まれていればこれを削除する。例えば、季節固有のキーワード(例えば、「雪」、「スキー」、「スタッドレス」などの冬期特有のキーワード)は、その季節に対応付けられた特定期間(例えば、11月〜4月)に期間限定して辞書登録し、該特定期間が過ぎれば辞書から削除する。
次に、興味分析ソフトウェア109eは、ユーザー興味情報抽出手段を機能実現するものであり、抽出された興味特定キーワード群を、重複も含めてキーワード統計データ109j(興味抽出用母データ)として記憶する。そして、そのキーワード統計データ109j内の各興味特定キーワードの出現頻度を計数し、図39上に示すように、その計数結果も記憶する(サンプリング期間外となった古いキーワードはキーワード統計データ109jから順次削除されてゆく)。
図40は、興味抽出用母データに基づく情報取得処理の流れを示すものである。まず、S200では、キーワード統計データ109jを解析し、最も高頻度で抽出されたキーワード(以下、第一キーワードという)を含む目的地を目的地データベース21d上で検索する。そして、S215で、キーワード適合する目的地が見つからなかった場合はS260に進み、図29に示すように、すなわち検索サイトを経由してインターネット上(例えば情報提供サーバー500)で広く情報検索を行なう。
一方、S215で、第一キーワードに適合する目的地が見つかった場合はS220に進み、内部検索処理、すなわち、HDD121内のコンテンツデータ21u上での検索を行なう。出力履歴データ21d(図9)上の目的地訪問(行先)履歴を参照して、その訪問頻度を調べる。訪問頻度が第一閾値X未満(例えばX=2)のときはであれば直ちにS240に進み、該当する目的地をモニタ110上にリスト表示し、ユーザーへの選択を促す(S235)。
一方、S220で訪問頻度が第一閾値X以上のときはS225に進み、該訪問頻度が第一閾値Y未満(例えばY=4)であればS250に進む。ここでは、ヒットした目的地が属する分類(サブ分類コード、あるいはジャンルコード)にて、当該のキーワードを含まない目的地も対象とする形で拡張検索を行い、その結果をモニタ110上にリスト表示し、ユーザーへの選択を促す。
そして、S225で訪問頻度が第一閾値Y以上になるときは、目的地が陳腐化していると判断し、S230に進む。ここでは、前述の第一キーワードと、二番目に高頻度で抽出されたキーワード(以下、第二キーワードという)の論理和により目的地を拡張して検索を行い、その結果をモニタ110上にリスト表示し、ユーザーへの選択を促す。
図42は、そのリスト表示例を示すものであり、過去の訪問頻度が識別可能な形で個々の目的地の選択ボタン110Bを表示している(具体的には、目的地の選択ボタン110Bを訪問頻度に応じて色分けしてある)。ユーザーは、タッチパネル112から該当するボタンにタッチすることで、図43に示すように目的地設定画面122に切り替わり、確定ボタン122Fにタッチすることにより目的地設定が確定され、案内を開始させることができる。
一方、当該の目的地に関連する他の被提供情報が存在する場合は、その被提供情報へのアクセスボタン122sを合わせて表示し、当該アクセスボタン122sの実行により被提供情報を出力することができる。例えば被提供情報がインターネットウェブサイトのコンテンツである場合は、アクセスボタン122sは当該ウェブサイトへのリンクボタンとして形成される。図43では目的地が飲食店であるが、例えばその店のメニューが見たい場合は、アクセスボタン122sに対し該コンテンツの一部をなすメニュー紹介ページのURLリンクを張っておく。該アクセスボタン122sの実行により、カーナビゲーションシステム534から当該ウェブサイトのコンテンツ提供サーバー(情報提供サーバー)500に無線アクセスがなされ、図44に示すように、メニューページがモニタ110に表示される。
なお、過去のアクセスにて取得した該ウェブサイトのコンテンツファイルがHDD121内のコンテンツデータ21u内に記憶されている場合は、コンテンツ提供サーバー500にはアクセスせず、該HDD121から当該のコンテンツファイルを読み出してモニタ110に出力すればよい。ただし、前回のアクセスが予め定められた日時以前にさかのぼる場合には、コンテンツ提供サーバー500へのアクセスによりモニタ110への出力を行なう。なお、古いコンテンツファイルは、このとき再ダウンロードしたコンテンツファイルにて上書き更新する。
次に、図45に示すように、第一キーワードだけでは閾値以上に多数の目的地が検索され、適切な目的地選択が実行できない場合がある。この場合は、第二キーワードとの論理積により目的地候補の絞込みが可能である。図45では、図29の会話支援により収拾された興味特定キーワード群において、第一キーワードを「雪」とし、第二キーワードがそれぞれ、「タイヤ」、「温泉」、「スキー」だった場合の、目的地リスト(選択ボタン110B)の表示例を示している。
図46は、第二キーワードを「タイヤ」として絞り込んだ場合において、タイヤショップの1つを目的地として選んだ場合の目的地設定画面122の表示例を示す。このタイヤショップのウェブサイトにはショッピングページが併設されており、アクセスボタン122sとして、該ショッピングページへのリンクボタンが設けられている。図47は、当該のショッピングページの表示画像122sを示している。
なお、当該の絞込みの過程で、外部の検索ウェブサイトにおける関連情報のアクセス実績に係る情報提供を第三者から受けることができる場合には、図45に示すように、その関連情報を取得できるウェブサイトへのリンクボタンを補助アクセスボタン110E(口コミ情報)として、合わせて設定・表示することも可能である。例えば、「雪」「タイヤ」のキーワードを検索ウェブサイトに送信し、検索ウェブサイトでは、これに関連付けられる商品(例えばスタッドレスタイヤ)のウェブサイト検索を行なうとともに、その検索されたウェブサイトのアクセス頻度が反映された統計データを作成する。そして、関連付けられる商品のうち最もアクセス頻度の高いもののウェブサイトのURLをカーナビゲーションシステム534へ返送する。カーナビゲーションシステム534では、これを受けて前述の補助アクセスボタン110Eを作成する。図48は、その補助アクセスボタン110Eを実行したときのモニタ110の表示画像122Uを示すものである。
図49は、第二キーワードを「スキー」として絞り込んだ場合において、スキー場の1つを目的地として選んだ場合の目的地設定画面122の表示例を示す。アクセスボタン122sとして、該スキー場のウェブサイトへのリンクボタンが設けられている。図50は、該アクセスボタン122sを実行したときのモニタ110の表示画像122Uを示すものである。
図51は、第二キーワードを「温泉」として絞り込んだ場合において、温泉地の1つを目的地として選んだ場合の目的地設定画面122の表示例を示す。ここでは、HDD121のコンテンツデータ21u内に記憶されている温泉関連の映像情報へのアクセスボタン122Bが設けられている。図52は、アクセスボタン122Bの実行による映像122Mの表示例を示すものである。
なお、上記の実施形態においては、会話支援により取得された興味特定母データに基づき、目的地等に関する情報提供を行なうようにしていたが、例えばもてなしシステム100の動作を適正化するための支援情報として活用することもできるし、また、カーステレオ515における自動選曲のための支援情報として活用することもできる。
本発明の自動車用情報提供システムの機能を包含する自動車用ユーザーもてなしシステムの、電気的構成の一例を示すブロック図。 ユーザー登録部の一例を示す説明図。 車内照明の電気的構成の一例を示すブロック図。 照明装置の点灯制御データの構成例を示す概念図。 発光ダイオードを用いた照明装置の一例を示す回路図。 RGBフルカラー照明の、各照明光の混合比と発光色の関係を示す図。 カーオーディオシステムの電気的構成の一例を示すブロック図。 ノイズキャンセラの構成例を示す概念ブロック図。 同じくハードウェア構成の一例を示すブロック図。 姿勢信号波形の生成ハードウェアの一例を示す回路図。 種々の被特定状態のイメージ図。 音楽ソースデータベースの内容を示す概念図。 もてなし処理の全体流れを示すフローチャート。 機能選択処理の一例を示すフローチャート。 判定テーブルの一例を示す図。 体調系基準意図ベクトル設定テーブルの一例を示す図。 精神系基準意図ベクトル設定テーブルの一例を示す図。 体調系補正係数の設定例を示す図。 精神系補正係数の設定例を示す図。 意図推定テーブルの一例を示す図。 意図推定テーブルの別部分を示す図。 原理探索テーブルの一例を示す図。 機能抽出テーブルの一例を示す図。 もてなし優先度の座席別の補正概念を示す図。 後部座席に子供が着座する場合のもてなし動作例を示す模式図。 もてなし優先度の設定アルゴリズムを示すフローチャート。 もてなし優先度と意図強度補正係数との関係を例示する図。 顔カメラ及び着座センサの車内配置例を示す模式図。 カーナビゲーションシステムとして構成された自動車用情報出力システムの要部に係る電気的構成の一例を示すブロック図。 自動車用情報出力システムの作用を、人工無脳による会話誘導の第一例とともに説明する図。 ナビデータの一例を示す模式図。 会話支援データベース選択処理の流れを示すフローチャート。 エネルギー管理処理の流れを示すフローチャート。 図32における初期設定処理の流れを示すフローチャート。 人工無脳による会話誘導の第二例を示す図。 人工無脳による会話誘導の第三例を示す図。 人工無脳による会話誘導の第四例を示す図。 人工無脳による会話誘導の第五例を示す図。 人工無脳による会話誘導の第六例を示す図。 キーワード統計データ及びアクセス統計データの一例を示す模式図。 情報提供処理の流れを示すフローチャート。 出力履歴データの一例を示す模式図。 検索結果の第一出力例を示す模式図。 第一出力例に対応する目的地設定画面の表示例を示す図。 同じくウェブサイトのコンテンツ表示画面の例を示す図。 絞込みを行なう場合の検索結果の第二〜第四出力例を示す模式図。 第二出力例に対応する目的地設定画面の表示例を示す図。 同じくウェブサイトのコンテンツ表示画面の第一例を示す図。 同じく第二例を示す図。 第三出力例に対応する目的地設定画面の表示例を示す図。 同じくウェブサイトのコンテンツ表示画面の例を示す図。 第四出力例に対応する目的地設定画面の表示例を示す図。 同じく映像出力例を示す図。
符号の説明
100 自動車用もてなしシステム
534 カーナビゲーションシステム(自動車用情報提供システム)
109 フラッシュメモリ(参照キーワード辞書記憶部、応答文雛型記憶部)
109d キーワード辞書
109e 興味分析ソフトウェア(ユーザー興味情報抽出手段)
109f 人工無脳エンジン(会話支援手段)
109g 参照キーワード辞書
109h 応答文雛型
109i 会話きっかけフレーズ
109j キーワード統計データ(興味抽出用母データ)
109a ナビソフトウェア(被提供情報収集手段)
109d ブラウザソフトウェア(被提供情報収集手段)
110 モニタ(被提供情報出力手段)
115 スピーカ(被提供情報出力手段、誘導会話応答文作成出力手段)
131 マイク(会話入力手段)
500 コンテンツ提供サーバー(情報提供サーバー)
1170 インターネット(外部ネットワーク)

Claims (16)

  1. 自動車のユーザーによる音声入力又は手動操作により会話入力がなされる会話入力手段と、
    前記ユーザーの擬似会話相手として構築され、複数の参照キーワードを登録した参照キーワード辞書を記憶する参照キーワード辞書記憶部と、前記ユーザーによる会話入力内容を前記キーワード辞書と照合することにより前記参照キーワードを抽出する参照キーワード抽出手段と、抽出された前記参照キーワードもしくは前記キーワード辞書内にて当該抽出された参照キーワードと予め関連付けられている別の参照キーワードを、ユーザーの次の会話入力を誘導するため誘導用キーワードとして、該誘導用キーワードの挿入空白部を有した応答文雛型を複数記憶する応答文雛型記憶部と、前記ユーザーによる会話入力がなされる毎に該応答文雛型記憶部から前記応答文雛型を順次読み出し、当該応答文雛型の挿入空白部に、抽出された前記参照キーワードに対応する前記誘導用キーワードを挿入することにより、前記ユーザーによる次の会話入力を誘導するための誘導会話応答文を作成し出力する誘導会話応答文作成出力手段と、を有した会話支援手段と、
    前記会話支援手段の誘導を受けて入力された前記ユーザーの一連の会話内容に基づく興味特定用母データを蓄積する興味抽出用母データ蓄積手段と、
    前記興味抽出用母データの蓄積内容に基づいて前記ユーザーの興味対象を解析し、該興味対象に適合する被提供情報を収集する被提供情報収集手段と、
    収集した被提供情報を画像、音声もしくはそれらの組合せにより出力する被提供情報出力手段と、
    を備えたことを特徴とする自動車用情報提供システム。
  2. 前記会話支援手段が人工無脳エンジンとして構築されている請求項1記載の自動車用情報提供システム。
  3. 前記会話内容からユーザーの興味特定に使用する興味特定キーワードを抽出する興味特定キーワード抽出手段が設けられ、前記興味抽出用母データ蓄積手段は、該抽出された興味特定キーワードを蓄積する興味特定キーワード蓄積手段を有する請求項1又は請求項2に記載の自動車用情報提供システム。
  4. 前記被提供情報収集手段は、前記興味特定キーワード抽出手段が抽出した前記興味特定キーワードに基づいて、収集すべき被提供情報の検索を行なうものであり、
    前記ユーザー興味情報抽出手段は、前記興味特定キーワード蓄積手段に蓄積されている興味特定キーワードの出現頻度を解析し、出現頻度の高い興味特定キーワードほど前記被提供情報収集手段における前記被提供情報の検索に際しての採用優先度を高く設定するものである請求項3記載の自動車用情報提供システム。
  5. 前記ユーザー興味情報抽出手段は、予め選定された興味特定キーワード群を網羅したキーワード辞書を記憶する興味特定キーワード辞書記憶部を有し、前記興味特定キーワード抽出手段は、前記会話内容を単語分解し、その分解結果を前記興味特定キーワード辞書と照合するもとにより、該興味特定キーワード辞書に網羅されている興味特定キーワードを選択的に抽出するものである請求項4記載の自動車用情報提供システム。
  6. 前記興味特定キーワード辞書が、前記誘導会話応答文作成出力手段が使用する前記参照キーワード辞書に兼用されている請求項3ないし請求項5のいずれか1項に記載の自動車用情報提供システム。
  7. 前記誘導会話応答文作成出力手段が有する前記参照キーワード抽出手段が、前記ユーザー興味情報抽出手段の前記興味特定キーワード抽出手段に兼用されている請求項6記載の自動車用情報提供システム。
  8. 前記会話支援手段において、前記参照キーワード辞書及び前記応答文雛型からなる会話支援ベースデータは、予め定められた会話支援シーンに応じて異なる内容のものが複数組用意されるとともに、前記会話支援シーンの到来を検出する会話支援シーン特定手段と、特定された会話支援シーンに応じて前記会話支援ベースデータを切り替える会話支援ベースデータ切替手段とを有する請求項1ないし請求項7のいずれか1項に記載の自動車用情報提供システム。
  9. 前記会話支援手段は、前記会話支援シーン毎に用意された会話きっかけフレーズを記憶する会話きっかけフレーズ記憶部と、前記会話支援シーンの到来が検出されるに伴い、対応する会話きっかけフレーズを読み出して出力する会話きっかけフレーズ出力手段とを有する請求項8記載の自動車用情報提供システム。
  10. 前記会話支援シーン特定手段は前記自動車の始動シーンを前記会話支援シーンとして特定するものであり、前記会話支援ベースデータ切替手段は、最終訪問地に係る興味対象情報を前記ユーザーから引き出すための会話支援ベースデータに切り替えるものである請求項8又は請求項9に記載の自動車用情報提供システム。
  11. 前記会話支援シーン特定手段は前記ユーザーの空腹シーンを前記会話支援シーンとして特定するものであり、前記会話支援ベースデータ切替手段は、食事内容に係る興味対象情報を前記ユーザーから引き出すための会話支援ベースデータに切り替えるものである請求項8又は請求項9に記載の自動車用情報提供システム。
  12. 前記会話支援シーン特定手段は前記ユーザーの疲労シーンを前記会話支援シーンとして特定するものであり、前記会話支援ベースデータ切替手段は、休息活動内容に係る興味対象情報を前記ユーザーから引き出すための会話支援ベースデータに切り替えるものである請求項8又は請求項9に記載の自動車用情報提供システム。
  13. 前記会話支援手段において、前記参照キーワード辞書及び前記応答文雛型からなる会話支援ベースデータは、会話支援適用対象となるユーザーの体調ないし精神状態に応じて異なる内容のものが複数組用意されるとともに、前記ユーザーの体調ないし精神状態を反映したユーザー生体特性情報を取得するユーザー生体特性情報取得手段と、取得したユーザー生体特性情報の内容に基づいて、前記ユーザーの体調ないし精神状態をそれぞれ特定する体調・精神状態特定手段と、特定された前記ユーザーの体調ないし精神状態に応じて前記会話支援ベースデータを切り替える会話支援ベースデータ切替手段とを有する請求項1ないし請求項9のいずれか1項に記載の自動車用情報提供システム。
  14. 前記会話支援ベースデータは季節に応じて内容の異なるものが用意され、前記会話支援ベースデータ切替手段は、現在の季節を検出し、該季節に対応する会話支援ベースデータを選択して使用する請求項9ないし請求項13のいずれか1項に記載の自動車用情報提供システム。
  15. カーナビゲーションシステムを含んで構成され、前記被提供情報収集手段は前記被提供情報として前記ユーザー興味情報に適合する目的地情報を前記カーナビゲーションシステム上で検索・収集するものである請求項1ないし請求項14のいずれか1項に記載の自動車用情報提供システム。
  16. インターネットウェブサイトへの無線アクセス手段を有し、前記被提供情報収集手段は前記被提供情報として前記ユーザー興味情報に適合するウェブサイ情報をインターネット上で検索・収集するものである請求項1ないし請求項15のいずれか1項に記載の自動車用情報提供システム。
JP2008133463A 2008-05-21 2008-05-21 自動車用情報提供システム Expired - Fee Related JP4547721B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008133463A JP4547721B2 (ja) 2008-05-21 2008-05-21 自動車用情報提供システム
US12/465,986 US8185380B2 (en) 2008-05-21 2009-05-14 Apparatus for providing information for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008133463A JP4547721B2 (ja) 2008-05-21 2008-05-21 自動車用情報提供システム

Publications (2)

Publication Number Publication Date
JP2009282704A true JP2009282704A (ja) 2009-12-03
JP4547721B2 JP4547721B2 (ja) 2010-09-22

Family

ID=41342734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008133463A Expired - Fee Related JP4547721B2 (ja) 2008-05-21 2008-05-21 自動車用情報提供システム

Country Status (2)

Country Link
US (1) US8185380B2 (ja)
JP (1) JP4547721B2 (ja)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012063582A (ja) * 2010-09-16 2012-03-29 Denso Corp 車載音声認識装置
JP2014219937A (ja) * 2013-05-10 2014-11-20 パナソニック株式会社 嗜好判断システム
JP2015022310A (ja) * 2013-07-19 2015-02-02 英奇達資訊股▲ふん▼有限公司 音声アシスタントパーソナライズの方法
JP2016143192A (ja) * 2015-01-30 2016-08-08 株式会社日本ラノス 旅行プラン提案システム、サーバ装置、サーバプログラム、クライアント装置及びクライアントプログラム
JP2017067849A (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話方法
JP2017515134A (ja) * 2014-01-15 2017-06-08 マイクロソフト テクノロジー ライセンシング,エルエルシー 模写によるデジタル携帯情報端末の対話、および応答時のリッチなマルチメディア
JP2017107392A (ja) * 2015-12-09 2017-06-15 トヨタ自動車株式会社 目的地推定装置
JP2017107326A (ja) * 2015-12-08 2017-06-15 株式会社ぐるなび 情報処理装置、情報処理方法及びプログラム
JP2018025646A (ja) * 2016-08-09 2018-02-15 キヤノン株式会社 音処理装置、音処理方法、およびプログラム
JP2018045694A (ja) * 2017-10-06 2018-03-22 ヤフー株式会社 地図検索装置、地図検索方法、および地図検索プログラム
JP2018524620A (ja) * 2015-05-20 2018-08-30 華為技術有限公司Huawei Technologies Co.,Ltd. 音声の発生位置を特定するための方法及び端末デバイス
JP2018527638A (ja) * 2016-07-20 2018-09-20 平安科技(深▲ジェン▼)有限公司Ping An Technology(Shenzhen)Co.,Ltd. 自動返答方法、自動返答装置、自動返答機器、自動返答プログラムおよびコンピュータ読み取り可能記憶媒体
JP2018156134A (ja) * 2017-03-15 2018-10-04 フジテック株式会社 受電システム
JP2018199391A (ja) * 2017-05-26 2018-12-20 トヨタ紡織株式会社 乗物用照明装置
JPWO2017168467A1 (ja) * 2016-03-30 2019-01-17 川崎重工業株式会社 鞍乗型車両の情報出力装置
JP2019105966A (ja) * 2017-12-12 2019-06-27 日産自動車株式会社 情報処理方法及び情報処理装置
JP2019117562A (ja) * 2017-12-27 2019-07-18 トヨタ自動車株式会社 車室内環境調整装置、プログラム及び車室内環境調整システム
JP2020052281A (ja) * 2018-09-27 2020-04-02 セコム株式会社 訓練システム及びプログラム
JP2020052290A (ja) * 2018-09-27 2020-04-02 セコム株式会社 訓練システム及びプログラム
JP2020160719A (ja) * 2019-03-26 2020-10-01 本田技研工業株式会社 サーバ装置、エージェント装置、情報提供方法、およびプログラム
JPWO2020129182A1 (ja) * 2018-12-19 2021-10-14 株式会社ニコン 対話装置、対話システムおよび対話プログラム
JP2022051777A (ja) * 2018-06-12 2022-04-01 トヨタ自動車株式会社 車両用コクピット
US12159619B2 (en) 2021-03-19 2024-12-03 Samsung Electronics Co., Ltd. Electronic device including personalized text to speech module and method for controlling the same
US12304518B2 (en) 2022-09-27 2025-05-20 Subaru Corporation Vehicle
WO2025142263A1 (ja) * 2023-12-28 2025-07-03 マレリ株式会社 運転支援システム

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070100666A1 (en) * 2002-08-22 2007-05-03 Stivoric John M Devices and systems for contextual and physiological-based detection, monitoring, reporting, entertainment, and control of other devices
EP1685794B1 (en) * 2003-11-18 2013-02-27 Sony Corporation Input device and input method
JP5142736B2 (ja) * 2008-01-25 2013-02-13 株式会社デンソーアイティーラボラトリ 車両搭載機器の制御装置及び制御方法
US10769686B2 (en) 2008-01-31 2020-09-08 Bill.Com Llc Enhanced invitation process for electronic billing and payment system
US10043201B2 (en) * 2008-01-31 2018-08-07 Bill.Com, Inc. Enhanced invitation process for electronic billing and payment system
US9141991B2 (en) 2008-01-31 2015-09-22 Bill.Com, Inc. Enhanced electronic data and metadata interchange system and process for electronic billing and payment system
JP4609527B2 (ja) * 2008-06-03 2011-01-12 株式会社デンソー 自動車用情報提供システム
JP5035303B2 (ja) * 2009-06-17 2012-09-26 トヨタ自動車株式会社 移動体、これを含むシステム、移動体の動作方法、及びプログラム
US8284041B2 (en) * 2009-09-28 2012-10-09 Ford Global Technologies, Llc Method and apparatus for in-vehicle presence detection and driver alerting
US8284042B2 (en) * 2009-09-28 2012-10-09 Ford Global Technologies, Llc System and method of vehicle passenger detection for rear seating rows
US9866675B2 (en) * 2009-10-28 2018-01-09 At&T Mobility Ii Llc Dynamically organizing visual voicemail
KR101303648B1 (ko) * 2009-12-08 2013-09-04 한국전자통신연구원 감성신호 감지 장치 및 그 방법
US8428947B2 (en) 2009-12-15 2013-04-23 At&T Intellectual Property I, L.P. Automatic sound level control
KR101211796B1 (ko) * 2009-12-16 2012-12-13 포항공과대학교 산학협력단 외국어 학습 장치 및 그 제공 방법
US10401860B2 (en) * 2010-06-07 2019-09-03 Affectiva, Inc. Image analysis for two-sided data hub
US8738377B2 (en) 2010-06-07 2014-05-27 Google Inc. Predicting and learning carrier phrases for speech input
US10592757B2 (en) * 2010-06-07 2020-03-17 Affectiva, Inc. Vehicular cognitive data collection using multiple devices
US20110307250A1 (en) * 2010-06-10 2011-12-15 Gm Global Technology Operations, Inc. Modular Speech Recognition Architecture
US8504062B2 (en) * 2010-11-01 2013-08-06 Wavemarket, Inc. System and method for aggregating and associating mobile device location data
TW201226245A (en) * 2010-12-31 2012-07-01 Altek Corp Vehicle apparatus control system and method thereof
US9462262B1 (en) * 2011-08-29 2016-10-04 Amazon Technologies, Inc. Augmented reality environment with environmental condition control
JP2013080015A (ja) * 2011-09-30 2013-05-02 Toshiba Corp 音声認識装置および音声認識方法
US8660735B2 (en) * 2011-12-14 2014-02-25 General Motors Llc Method of providing information to a vehicle
US9418674B2 (en) * 2012-01-17 2016-08-16 GM Global Technology Operations LLC Method and system for using vehicle sound information to enhance audio prompting
US8819789B2 (en) 2012-03-07 2014-08-26 Bill.Com, Inc. Method and system for using social networks to verify entity affiliations and identities
JP2013242763A (ja) * 2012-05-22 2013-12-05 Clarion Co Ltd 対話装置、対話システム、および対話制御方法
GB2503223A (en) * 2012-06-19 2013-12-25 Ibm Redrafting text strings using a vocabulary
CN102855330B (zh) * 2012-09-19 2015-07-08 东莞宇龙通信科技有限公司 搜索方法和系统、移动终端
DE102012023786A1 (de) * 2012-12-05 2014-06-18 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Scheinwerferanordnung für ein Kraftfahrzeug
US9167067B2 (en) 2013-02-14 2015-10-20 Bose Corporation Motor vehicle noise management
US10417674B2 (en) 2013-03-14 2019-09-17 Bill.Com, Llc System and method for sharing transaction information by object tracking of inter-entity transactions and news streams
US10410191B2 (en) 2013-03-14 2019-09-10 Bill.Com, Llc System and method for scanning and processing of payment documentation in an integrated partner platform
US10115137B2 (en) 2013-03-14 2018-10-30 Bill.Com, Inc. System and method for enhanced access and control for connecting entities and effecting payments in a commercially oriented entity network
US8876535B2 (en) 2013-03-15 2014-11-04 State Farm Mutual Automobile Insurance Company Real-time driver observation and scoring for driver's education
CN103976749A (zh) * 2013-06-09 2014-08-13 湖南纽思曼导航定位科技有限公司 一种实时疲劳提示的方法及装置
US10572921B2 (en) 2013-07-03 2020-02-25 Bill.Com, Llc System and method for enhanced access and control for connecting entities and effecting payments in a commercially oriented entity network
US9199548B2 (en) 2013-09-30 2015-12-01 Elwha Llc Communication and control regarding electricity provider for wireless electric vehicle electrical energy transfer
US20150095114A1 (en) * 2013-09-30 2015-04-02 Elwha Llc Employment related information center associated with communication and control system and method for wireless electric vehicle electrical energy transfer
US10093194B2 (en) 2013-09-30 2018-10-09 Elwha Llc Communication and control system and method regarding electric vehicle for wireless electric vehicle electrical energy transfer
DE112014005354T5 (de) * 2013-11-25 2016-08-04 Mitsubishi Electric Corporation Dialog-management-system und dialog-management-verfahren
CN104709166B (zh) * 2013-12-17 2017-07-11 韩昂系统有限公司 用于机动车的空调系统控制器
JP2015132997A (ja) * 2014-01-14 2015-07-23 株式会社日本自動車部品総合研究所 情報提示システム、送信装置及び受信装置
US9820103B2 (en) * 2014-01-22 2017-11-14 Lenovo (Singapore) Pte. Ltd. Direction assistance based on personal experience
US20210009136A1 (en) * 2014-03-03 2021-01-14 Inrix, Inc. Presenting geographic search results using location projection and time windows
WO2015134311A1 (en) * 2014-03-03 2015-09-11 Inrix Inc Traffic obstruction detection
US9734685B2 (en) 2014-03-07 2017-08-15 State Farm Mutual Automobile Insurance Company Vehicle operator emotion management system and method
US9135803B1 (en) 2014-04-17 2015-09-15 State Farm Mutual Automobile Insurance Company Advanced vehicle operator intelligence system
US10185999B1 (en) 2014-05-20 2019-01-22 State Farm Mutual Automobile Insurance Company Autonomous feature use monitoring and telematics
US10373259B1 (en) 2014-05-20 2019-08-06 State Farm Mutual Automobile Insurance Company Fully autonomous vehicle insurance pricing
US9972054B1 (en) 2014-05-20 2018-05-15 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US10599155B1 (en) 2014-05-20 2020-03-24 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US10089693B1 (en) 2014-05-20 2018-10-02 State Farm Mutual Automobile Insurance Company Fully autonomous vehicle insurance pricing
US10319039B1 (en) 2014-05-20 2019-06-11 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US11669090B2 (en) 2014-05-20 2023-06-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US9600999B2 (en) * 2014-05-21 2017-03-21 Universal City Studios Llc Amusement park element tracking system
DE102014009689A1 (de) * 2014-06-30 2015-12-31 Airbus Operations Gmbh Intelligentes Soundsystem/-modul zur Kabinenkommunikation
US10540723B1 (en) 2014-07-21 2020-01-21 State Farm Mutual Automobile Insurance Company Methods of providing insurance savings based upon telematics and usage-based insurance
JP6390264B2 (ja) * 2014-08-21 2018-09-19 トヨタ自動車株式会社 応答生成方法、応答生成装置及び応答生成プログラム
JP6478734B2 (ja) * 2014-10-31 2019-03-06 株式会社東芝 アイテム推薦装置、アイテム推薦方法およびプログラム
US20210118249A1 (en) 2014-11-13 2021-04-22 State Farm Mutual Automobile Insurance Company Autonomous vehicle salvage and repair
US10012508B2 (en) 2015-03-04 2018-07-03 Lenovo (Singapore) Pte. Ltd. Providing directions to a location in a facility
EP3324305A4 (en) * 2015-07-13 2018-12-05 Teijin Limited Information processing apparatus, information processing method, and computer program
US11107365B1 (en) 2015-08-28 2021-08-31 State Farm Mutual Automobile Insurance Company Vehicular driver evaluation
JP6589514B2 (ja) * 2015-09-28 2019-10-16 株式会社デンソー 対話装置及び対話制御方法
US9744809B2 (en) * 2015-11-05 2017-08-29 Continental Automotive Systems, Inc. Enhanced sound generation for quiet vehicles
US9959859B2 (en) * 2015-12-31 2018-05-01 Harman International Industries, Incorporated Active noise-control system with source-separated reference signal
US11242051B1 (en) 2016-01-22 2022-02-08 State Farm Mutual Automobile Insurance Company Autonomous vehicle action communications
US10324463B1 (en) 2016-01-22 2019-06-18 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation adjustment based upon route
US20210294877A1 (en) 2016-01-22 2021-09-23 State Farm Mutual Automobile Insurance Company Virtual testing of autonomous vehicle control system
US10395332B1 (en) 2016-01-22 2019-08-27 State Farm Mutual Automobile Insurance Company Coordinated autonomous vehicle automatic area scanning
US9940834B1 (en) 2016-01-22 2018-04-10 State Farm Mutual Automobile Insurance Company Autonomous vehicle application
US11719545B2 (en) 2016-01-22 2023-08-08 Hyundai Motor Company Autonomous vehicle component damage and salvage assessment
US11441916B1 (en) 2016-01-22 2022-09-13 State Farm Mutual Automobile Insurance Company Autonomous vehicle trip routing
US10134278B1 (en) 2016-01-22 2018-11-20 State Farm Mutual Automobile Insurance Company Autonomous vehicle application
US10906463B2 (en) * 2016-02-01 2021-02-02 Magna Electronics Inc. Vehicle adaptive lighting system
CN106328137A (zh) * 2016-08-19 2017-01-11 镇江惠通电子有限公司 语音控制方法、装置及系统
US10773726B2 (en) * 2016-09-30 2020-09-15 Honda Motor Co., Ltd. Information provision device, and moving body
WO2018207485A1 (ja) * 2017-05-11 2018-11-15 株式会社村田製作所 情報処理システム、情報処理装置、コンピュータプログラム、及び辞書データベースの更新方法
US10860587B2 (en) 2017-06-14 2020-12-08 Microsoft Technology Licensing, Llc Conversationally-relevant content requests
US10075576B1 (en) * 2017-07-20 2018-09-11 Caterpillar Inc. Starting a machine through a mobile device
TWI646529B (zh) * 2017-07-25 2019-01-01 雲拓科技有限公司 主動聊天裝置
JP7013756B2 (ja) * 2017-09-19 2022-02-01 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP6978174B2 (ja) * 2017-10-11 2021-12-08 アルパイン株式会社 評価情報生成システムおよび車載装置
JP6927318B2 (ja) * 2017-10-13 2021-08-25 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
KR102348124B1 (ko) * 2017-11-07 2022-01-07 현대자동차주식회사 차량의 기능 추천 장치 및 방법
KR102169868B1 (ko) * 2017-11-27 2020-10-26 한국전자통신연구원 채팅로봇 시스템 및 서비스방법
US11200506B2 (en) * 2017-12-15 2021-12-14 Microsoft Technology Licensing, Llc Chatbot integrating derived user intent
JP7062958B2 (ja) * 2018-01-10 2022-05-09 トヨタ自動車株式会社 通信システム、及び通信方法
JP2019124977A (ja) * 2018-01-11 2019-07-25 トヨタ自動車株式会社 車載音声出力装置、音声出力制御方法、及び音声出力制御プログラム
US11928310B2 (en) * 2018-04-24 2024-03-12 Dial House, LLC Vehicle systems and interfaces and related methods
US11580941B2 (en) * 2018-04-24 2023-02-14 Dial House, LLC Music compilation systems and related methods
EP3856596A4 (en) 2018-09-30 2022-10-12 Strong Force Intellectual Capital, LLC INTELLIGENT TRANSPORT SYSTEMS
JP7115216B2 (ja) * 2018-10-24 2022-08-09 トヨタ自動車株式会社 情報処理装置および情報処理方法
JP7211050B2 (ja) * 2018-12-05 2023-01-24 富士通株式会社 対話制御プログラム、対話制御システム、及び対話制御方法
KR102681702B1 (ko) * 2018-12-12 2024-07-08 현대자동차주식회사 사용자 관심정보 제공장치 및 방법
DE112019007195B4 (de) * 2019-04-12 2024-07-18 Mitsubishi Electric Corporation Anzeigesteuerungseinrichtung, anzeigesteuerungsverfahren und anzeigesteuerungsprogramm
US11568640B2 (en) 2019-09-30 2023-01-31 Lenovo (Singapore) Pte. Ltd. Techniques for providing vibrations at headset
US11144759B1 (en) 2020-05-12 2021-10-12 Lenovo (Singapore) Pte. Ltd. Presentation of graphical objects on display based on input from rear-facing camera
JP7577960B2 (ja) * 2020-10-09 2024-11-06 ヤマハ株式会社 話者予測方法、話者予測装置、およびコミュニケーションシステム
CN114464203B (zh) * 2022-01-18 2022-10-25 小米汽车科技有限公司 噪声过滤方法、装置、系统、车辆及存储介质
US11900911B2 (en) * 2022-04-19 2024-02-13 Harman International Industries, Incorporated Occupant detection and identification based audio system with music, noise cancellation and vehicle sound synthesis
US12420804B2 (en) 2023-01-31 2025-09-23 Honda Motor Co., Ltd. Driver attribute detection system and associated method of adjusting a vehicle feature

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337039A (ja) * 2002-05-16 2003-11-28 Pioneer Electronic Corp 対話型情報提供装置、対話型情報提供プログラム、及びそれを記憶した記憶媒体
JP2006195637A (ja) * 2005-01-12 2006-07-27 Toyota Motor Corp 車両用音声対話システム
JP2007072331A (ja) * 2005-09-09 2007-03-22 Matsushita Electric Ind Co Ltd 音声対話方法および音声対話システム
JP2007212421A (ja) * 2006-02-13 2007-08-23 Denso Corp 自動車用もてなし情報提供システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5597312A (en) * 1994-05-04 1997-01-28 U S West Technologies, Inc. Intelligent tutoring method and system
US20030191625A1 (en) * 1999-11-05 2003-10-09 Gorin Allen Louis Method and system for creating a named entity language model
JP4328441B2 (ja) 2000-01-14 2009-09-09 パナソニック電工株式会社 情報提供システム
JP3994368B2 (ja) * 2000-01-25 2007-10-17 ソニー株式会社 情報処理装置および情報処理方法、並びに記録媒体
US6795808B1 (en) * 2000-10-30 2004-09-21 Koninklijke Philips Electronics N.V. User interface/entertainment device that simulates personal interaction and charges external database with relevant data
JP4217957B2 (ja) 2003-05-14 2009-02-04 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US7266537B2 (en) * 2004-01-14 2007-09-04 Intelligent Results Predictive selection of content transformation in predictive modeling systems
JP2005352776A (ja) 2004-06-10 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> 会話情報適応型情報サービス提供方法および会話情報適応型情報サービス提供システム、ならびにそのための装置とプログラム
US7610191B2 (en) * 2004-10-06 2009-10-27 Nuance Communications, Inc. Method for fast semi-automatic semantic annotation
US7826945B2 (en) 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
JP2007174441A (ja) 2005-12-23 2007-07-05 Mitsumi Electric Co Ltd ハンズフリーキットシステム
US8949266B2 (en) * 2007-03-07 2015-02-03 Vlingo Corporation Multiple web-based content category searching in mobile search application
US20080288252A1 (en) * 2007-03-07 2008-11-20 Cerra Joseph P Speech recognition of speech recorded by a mobile communication facility
WO2009158581A2 (en) * 2008-06-27 2009-12-30 Adpassage, Inc. System and method for spoken topic or criterion recognition in digital media and contextual advertising

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337039A (ja) * 2002-05-16 2003-11-28 Pioneer Electronic Corp 対話型情報提供装置、対話型情報提供プログラム、及びそれを記憶した記憶媒体
JP2006195637A (ja) * 2005-01-12 2006-07-27 Toyota Motor Corp 車両用音声対話システム
JP2007072331A (ja) * 2005-09-09 2007-03-22 Matsushita Electric Ind Co Ltd 音声対話方法および音声対話システム
JP2007212421A (ja) * 2006-02-13 2007-08-23 Denso Corp 自動車用もてなし情報提供システム

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012063582A (ja) * 2010-09-16 2012-03-29 Denso Corp 車載音声認識装置
JP2014219937A (ja) * 2013-05-10 2014-11-20 パナソニック株式会社 嗜好判断システム
JP2015022310A (ja) * 2013-07-19 2015-02-02 英奇達資訊股▲ふん▼有限公司 音声アシスタントパーソナライズの方法
JP2017515134A (ja) * 2014-01-15 2017-06-08 マイクロソフト テクノロジー ライセンシング,エルエルシー 模写によるデジタル携帯情報端末の対話、および応答時のリッチなマルチメディア
JP2016143192A (ja) * 2015-01-30 2016-08-08 株式会社日本ラノス 旅行プラン提案システム、サーバ装置、サーバプログラム、クライアント装置及びクライアントプログラム
US10410650B2 (en) 2015-05-20 2019-09-10 Huawei Technologies Co., Ltd. Method for locating sound emitting position and terminal device
JP2018524620A (ja) * 2015-05-20 2018-08-30 華為技術有限公司Huawei Technologies Co.,Ltd. 音声の発生位置を特定するための方法及び端末デバイス
JP2017067849A (ja) * 2015-09-28 2017-04-06 株式会社デンソー 対話装置及び対話方法
JP2017107326A (ja) * 2015-12-08 2017-06-15 株式会社ぐるなび 情報処理装置、情報処理方法及びプログラム
JP2017107392A (ja) * 2015-12-09 2017-06-15 トヨタ自動車株式会社 目的地推定装置
JPWO2017168467A1 (ja) * 2016-03-30 2019-01-17 川崎重工業株式会社 鞍乗型車両の情報出力装置
JP2018527638A (ja) * 2016-07-20 2018-09-20 平安科技(深▲ジェン▼)有限公司Ping An Technology(Shenzhen)Co.,Ltd. 自動返答方法、自動返答装置、自動返答機器、自動返答プログラムおよびコンピュータ読み取り可能記憶媒体
JP2018025646A (ja) * 2016-08-09 2018-02-15 キヤノン株式会社 音処理装置、音処理方法、およびプログラム
JP2018156134A (ja) * 2017-03-15 2018-10-04 フジテック株式会社 受電システム
JP2018199391A (ja) * 2017-05-26 2018-12-20 トヨタ紡織株式会社 乗物用照明装置
JP2018045694A (ja) * 2017-10-06 2018-03-22 ヤフー株式会社 地図検索装置、地図検索方法、および地図検索プログラム
JP2019105966A (ja) * 2017-12-12 2019-06-27 日産自動車株式会社 情報処理方法及び情報処理装置
JP7043818B2 (ja) 2017-12-12 2022-03-30 日産自動車株式会社 情報処理方法及び情報処理装置
JP2019117562A (ja) * 2017-12-27 2019-07-18 トヨタ自動車株式会社 車室内環境調整装置、プログラム及び車室内環境調整システム
JP2022051777A (ja) * 2018-06-12 2022-04-01 トヨタ自動車株式会社 車両用コクピット
JP7327536B2 (ja) 2018-06-12 2023-08-16 トヨタ自動車株式会社 車両用コクピット
JP2020052281A (ja) * 2018-09-27 2020-04-02 セコム株式会社 訓練システム及びプログラム
JP2020052290A (ja) * 2018-09-27 2020-04-02 セコム株式会社 訓練システム及びプログラム
JP7220042B2 (ja) 2018-09-27 2023-02-09 セコム株式会社 訓練システム及びプログラム
JP7220043B2 (ja) 2018-09-27 2023-02-09 セコム株式会社 訓練システム及びプログラム
JPWO2020129182A1 (ja) * 2018-12-19 2021-10-14 株式会社ニコン 対話装置、対話システムおよび対話プログラム
JP7207425B2 (ja) 2018-12-19 2023-01-18 株式会社ニコン 対話装置、対話システムおよび対話プログラム
US12247841B2 (en) 2018-12-19 2025-03-11 Nikon Corporation Navigation device, vehicle, navigation method, and non-transitory storage medium
JP7252029B2 (ja) 2019-03-26 2023-04-04 本田技研工業株式会社 サーバ装置、情報提供方法、およびプログラム
JP2020160719A (ja) * 2019-03-26 2020-10-01 本田技研工業株式会社 サーバ装置、エージェント装置、情報提供方法、およびプログラム
US12159619B2 (en) 2021-03-19 2024-12-03 Samsung Electronics Co., Ltd. Electronic device including personalized text to speech module and method for controlling the same
US12304518B2 (en) 2022-09-27 2025-05-20 Subaru Corporation Vehicle
WO2025142263A1 (ja) * 2023-12-28 2025-07-03 マレリ株式会社 運転支援システム

Also Published As

Publication number Publication date
US8185380B2 (en) 2012-05-22
US20090292528A1 (en) 2009-11-26
JP4547721B2 (ja) 2010-09-22

Similar Documents

Publication Publication Date Title
JP4547721B2 (ja) 自動車用情報提供システム
JP4509042B2 (ja) 自動車用もてなし情報提供システム
JP4332813B2 (ja) 自動車用ユーザーもてなしシステム
JP4441887B2 (ja) 自動車用ユーザーもてなしシステム
JP5152570B2 (ja) 自動車用ユーザーもてなしシステム
US8140344B2 (en) Vehicular user hospitality system
JP2008126818A (ja) 自動車用ユーザーもてなしシステム
US11194405B2 (en) Method for controlling information display apparatus, and information display apparatus
JP6656079B2 (ja) 情報提示装置の制御方法、及び、情報提示装置
JP4609527B2 (ja) 自動車用情報提供システム
JP4525925B2 (ja) 自動車用ユーザーもてなしシステム
JP5045302B2 (ja) 自動車用情報提供装置
CN106562793A (zh) 信息提示装置的控制方法、以及信息提示装置
JP6115577B2 (ja) 車両用乗員感情対応制御装置
JP6083441B2 (ja) 車両用乗員感情対応制御装置
JP4535272B2 (ja) 自動車用ユーザーもてなしシステム
JP4525926B2 (ja) 自動車用ユーザーもてなしシステム
JP4561703B2 (ja) 顔認識装置及びそれを用いた自動車用ユーザーもてなしシステム
JP2016137200A (ja) 車両用乗員感情対応制御装置
JP2006282116A (ja) 自動車用ユーザーもてなしシステム
JP4621983B2 (ja) 自動車用ユーザーもてなしシステム
JP4968532B2 (ja) 自動車用ユーザーもてなしシステム
JP4535273B2 (ja) 自動車用ユーザーもてなしシステム
JP2016137201A (ja) 車両用乗員感情対応制御装置
JP2016137202A (ja) 車両用乗員感情対応制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100627

R151 Written notification of patent or utility model registration

Ref document number: 4547721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees