[go: up one dir, main page]

JP2017162268A - 対話システムおよび制御プログラム - Google Patents

対話システムおよび制御プログラム Download PDF

Info

Publication number
JP2017162268A
JP2017162268A JP2016047006A JP2016047006A JP2017162268A JP 2017162268 A JP2017162268 A JP 2017162268A JP 2016047006 A JP2016047006 A JP 2016047006A JP 2016047006 A JP2016047006 A JP 2016047006A JP 2017162268 A JP2017162268 A JP 2017162268A
Authority
JP
Japan
Prior art keywords
person
robot
touch display
script
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016047006A
Other languages
English (en)
Inventor
浩平 小川
Kohei Ogawa
浩平 小川
美紀 渡辺
Miki Watanabe
美紀 渡辺
石黒 浩
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Osaka NUC
Original Assignee
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC filed Critical Osaka University NUC
Priority to JP2016047006A priority Critical patent/JP2017162268A/ja
Publication of JP2017162268A publication Critical patent/JP2017162268A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【構成】対話システム10では、ダイアログデータベース14に予め設定しているスクリプトに従って、ロボットRから発話し、その発話に対して人Hが返答するための1つまたは2以上の選択肢をスクリプトに従ってタッチディスプレイ12に表示する。人Hがその選択肢をタッチして選択すると、選択された返答の内容が、タッチディスプレイ12に関連して設けられたスピーカから発話される。タッチディスプレイ12に表示する選択肢は、「情報の収集」、「関係性の構築」、「意思決定に向けた説得」、「意思決定」、「目的のない雑談」などの対話のフェーズに応じて設定される。【効果】スクリプトに従ってすべて発話されるが、人が返答項目を選択するので、人は自分の意思を表明した実感を持ちながら、ロボットとの自然な対話を継続することができる。【選択図】図1

Description

この発明は、対話システムおよび制御プログラムに関し、特にたとえば、ロボットのようなエージェントまたは人と、少なくとも1人の人とがタッチディスプレイを通して対話する、新規な対話システムおよび制御プログラムに関する。
近年の音声認識の技術の発展により、たとえば特許文献1のような対話システムが提案されている。特許文献1のシステムは、人とロボットとの対話システムにおいて、両者の同調を図ることで、持続的で自然なインタラクションを実現しようとするものである。
特開2012‐181697号公報[G06F 3/16…]
特許文献1の技術においても、音声認識に基づく処理には限界があり、人と同等の対話感を与えること、および特定の内容を対話を通じて適切に伝達することは容易ではない。
それゆえに、この発明の主たる目的は、新規な、対話システムおよび制御プログラムを提供することである。
この発明の他の目的は、人に対話に参加している感覚を持続させることができる、対話システムおよび制御プログラムを提供することである。
この発明の他の目的は、質問に対して適切な内容を伝達することができる、対話システムおよび制御プログラムを提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、スクリプトを予め設定しているダイアログデータベース、ダイアログデータベースのスクリプトに従って発話する発話エージェント、発話エージェントによる発話に対して人が返答すべき1つまたは2以上の選択肢をスクリプトに従って表示する表示手段、およびディスプレイに表示された選択肢を人が選択したとき、その選択肢の内容をスクリプトに従って発話する発話手段を備える、対話システムである。
第1の発明では、対話システム(10:実施例において相当する部分を例示する参照符号。以下同様。)は、スクリプトを予め設定しているダイアログデータベース(14)を備える。たとえばロボット(R)のような発話エージェントは、たとえば対話制御マネージャ(16)のような制御手段によって、ダイアログデータベースのスクリプトに従って、たとえば人(H)に対して発話する。この発話に対して人は返答するのであるが、表示手段(16、24)は、ダイアログデータベースのスクリプトに従って、ディスプレイ(12、122)に、人が返答すべき1つまたは2以上の選択肢を表示させる。この選択肢の表示を見て、人がそのうちのどれか1つを選択すると、発話手段(24、26)が、の選択肢の内容をスクリプトに従って発話する。
第1の発明によれば、発話エージェントの発話と人の返答はすべてスクリプトに従っているため、対話の破綻はない。そのうえ、人は自分で選択肢を選択し、その内容が音声で発話されるので、スクリプトに従っているとはいえ、人は自分の意思を反映した選択肢(返答)であると認識させることができる。
第2の発明は、第1の発明に従属し、表示手段に表示される選択肢は、似通った意味を持つ2以上の選択肢を含む、対話システムである。
第2の発明では、人の最終的な意思決定の対話フェーズでは、たとえば対話エージェントが商品の購入を人に持ちかけた場合、意思決定の最終段階において、たとえば
「気に入ったので買います」、「うん、そうします」というような、すべて同意を示す返答のみを提示することで、意思決定の誘導を行うことができる。
第2の発明によれば、人の意思決定を誘導することができる。
第3の発明は、第1または第2の発明に従属し、表示手段に表示される選択肢は、1つである、対話システムである。
第3の発明では、最終的に意思決定してもらいたい方向に人を誘導するために返答の選択肢を1つに限定することで、強制的に対話システムが想定する方向に人を誘導する。
第3の発明によれば、選択肢を1つに限定することで、強制的に人の返答を誘導し、人のその後の意思決定を、対話システムが想定する方向に誘導することができる。
第4の発明は、ダイアログデータベースに予め設定されているスクリプトに従って対話する対話システムのコンピュータによって実行される制御プログラムであって、コンピュータを、ダイアログデータベースのスクリプトに従って発話する発話エージェント、発話エージェントによる発話に対して人が返答すべき1つまたは2以上の選択肢をスクリプトに従って表示する表示手段、およびディスプレイに表示された選択肢を人が選択したとき、その選択肢の内容をスクリプトに従って発話する発話手段として機能させる、制御プログラムである。
第4の発明によっても、第1の発明と同様の効果が期待できる。
この発明によれば、発話エージェントの発話と人の返答はすべてスクリプトに従っているため、対話の破綻がなく、しかも自分の意思を反映した返答を行ったと人に認識させることができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の対話システムの概要を示す概略図である。 図2は図1実施例における対話制御マネージャの構成の一例を示すブロック図である。 図3は図1実施例におけるロボットの一例を示す概略図である。 図4は図3のロボットを制御するロボットコントローラの構成の一例を示すブロック図である。 図5は図1実施例におけるタッチディスプレイI/Fの構成の一例を示すブロック図である。 図6は図1に示す対話制御マネージャの動作の一例を示すフロー図である。 図7は図1に示すロボットコントローラの動作の一例を示すフロー図である。 図8は図1に示すタッチディスプレイI/Fの動作の一例を示すフロー図である。 図9は図1実施例においてタッチディスプレイに表示される選択肢(返答項目)を例示する図解図である。 図10はこの発明の他の実施例の対話システムの概要を示す概略図である。
図1を参照して、この実施例の対話システム10の対話場所には、対話エージェントとしてのロボットRと、1人の人Hが存在する。ただし、ロボットRの数や人Hの数は2以上であってもよい。そして、この実施例の対話システム10では、ロボットRと人Hとがタッチディスプレイ(タッチディスプレイ)12を通じて対話する。
簡単に言えば、ダイアログデータベース14に予め設定または準備したダイアログまたはスクリプト(台本)に従って対話制御マネージャ16がロボットRに、人Hに対する質問など発話させるとともに、タッチディスプレイ12に人Hが返答の際に選択できる1つまたは2以上の返答項目を表示する。
人Hは返答項目の1つをタッチディスプレイ12上で選択する。応じて、タッチディスプレイ12がその選択した返答項目に応じた発話を、人Hの返答として発話する。実施例の対話システム10は、このような対話を繰り返す、新規な対話システムである。
人が発話するとき、その発話に応じる形で相手の発話が生成されなければ、対話を続けていくこと自体が困難になりやすいため、音声認識および自然言語処理の能力が完璧でないロボットは、人間の発話に対して適切な発話をし続けることは容易ではなく、対話は破綻しやすい。
そこで、この実施例では、ロボットが発話する際に、必ずしも人に発話で返答させる形にするのではなく、タッチディスプレイ12だけで返答させる。こうすることによって、ロボットの能力不足による対話の破綻を回避することができる。しかも、タッチディスプレイ12にロボットRの発話人H対する返答としてふさわしい返答項目を表示し、それを人Hに選択させることによって、人Hに対話に参加している感覚を持続させ、さらにはロボットRからの質問に対して適切な返答を返すことでできる。
この実施例のような対話システム10は、たとえば、情報収集サービス、情報提供サービス、広告サービス、販売サービスなどのシステムとして利用可能である。
対話システム10は、上述のようにロボットRに人Hに対して発話させたり、タッチディスプレイ12上に人Hの返答のための返答項目を表示したりするための、ダイアログ(Dialog:対話)データベース14を備える。ここで、「ダイアログ」は、対話中に行うべき発話や非言語動作の指令の系列を意味し、ダイアログデータベース14は、ダイアログの集合(たとえば、バナナの何が好きという対話やロボット介護の何が大切かという対話など、各トピックの対話のための指令の系列が含まれる)である。そして、「スクリプト」は、その指令の系列を表す文字列のことであり、スクリプトデータは、その指令を表す文字列である。したがって、スクリプトデータの系列がスクリプトになる。スクリプトは、この実施例では、State Chart XML (SCXML: w3c.org)により記述され、すべてダイアログデータベース14に保管されている。
一例として、『T=XX、RH SPEAKER=R L=HUMAN TEXT=……、NONVERVAL=……』というスクリプトにおいて、「T=XX」は、当該スクリプトが実行されるべき時間(または時刻)XXであり、「RH SPEAKER=R L=HUMAN」は、ロボットRから人Hに向かって発話することを意味し、「TEXT=……」が発話すべきテキスト文を示す。「NONVERVAL=……」は、たとえばロボットRの動作、人Hを見る、頷く、首を横に振る、首をかしげるなどの、非言語動作を示す。
このようなスクリプトは、対話制御マネージャ16によって、ダイアログキュー18からロボットRを制御するためのロボットコントローラ20に送信される。
図2に示す対話制御マネージャ16は、CPU16aを含み、CPU16aには、内部バス16bを介して通信装置16cが接続される。通信装置16cは、たとえばネットワークインタフェース(NIC)などを含み、CPU16aはこの通信装置16cを介してロボットコントローラ20、タッチディスプレイI/F24などと通信でき、それらの間でデータの授受を行うことができる。
CPU16aにはさらに、内部バス16bを介して、メモリ16dおよび入力装置16eが接続される。メモリ16dはROMやRAMを含む。メモリI/F16fを通してダイアログデータベース14から、スクリプト(ダイアログ)を読み込み、それをメモリ16dに一時的に記憶する。
また、対話制御マネージャ16に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ16dに記憶される。対話制御マネージャ16はメモリ16dに記憶されたプログラムに従って動作する。
ダイアログキュー18もたとえばメモリ16dの中の一領域であるが、このダイアログキュー18には、次ダイアログ候補プール22にロードされているスクリプトデータを、次にロボットRが実行できるように,待ち行列の形でロードすることができる。
図3を参照して、この図3は実施例のロボットRの外観を示し、ロボットRは台30上に、台30に対して、前後左右に回転できるように、設けられる。つまり、胴体32には2自由度が設定されている。
胴体32の人の肩に相当する左右位置からは、それぞれに、肩関節(図示せず)によって、右腕34Rおよび左腕34Lが、前後左右に回転可能に設けられる。つまり、右腕34Rおよび左腕34Lには、それぞれ、2自由度が設定されている。
胴体32の上端中央部には首36が設けられ、さらにその上には頭部38が設けられる。首36すなわち頭部38は、胴体32に対して、ロール角(左右の傾げ)、ピッチ各(前後の傾げ)、ヨー(左右の回転)で3自由度が設定されている。
頭部38の前面すなわち人間の顔に相当する面には、右目40Rおよび左目40Lが設けられ、右目40Rおよび左目40Lには眼球42Rおよび42Lが設けられる。右目40Rおよび左目40Lは、まぶたを閉じたり開いたりでき、眼球42Rおよび42Lはそれぞれ上下左右に回転可能である。つまり、右目40Rおよび左目40Lすなわちまぶたには1自由度が、眼球42Rおよび42Lには2自由度が設定されている。
顔にはさらに、口44が設けられていて、口44は、閉じたり開いたりできる。つまり、口44には1自由度が設定されている。
胴体32の、人間の胸の位置には、対話システム10において人Hに聞かせるための発話を行うスピーカ46および環境特に人Hの発話音声を聞き取るマイク48が設けられる。
なお、頭部38の顔の額に相当する部分には動画または静止画を撮影できるカメラ50が内蔵される。このカメラ50は、対面する人Hを撮影でき、このカメラ50からのカメラ信号(映像信号)は、環境カメラ16(図1)と同様に、センサマネージャ18のセンサI/Fを介してCPU22aに、入力されてもよい。
図4はロボットRの動作(発話や非言語動作など)を制御するロボットコントローラ20を示すブロック図である。この図4を参照して、ロボットコントローラ20は、CPU20aを含み、CPU20aには、内部バス20bを介して通信装置20cが接続される。通信装置20cは、たとえばネットワークインタフェースなどを含み、CPU20aはこの通信装置20cを介して対話制御マネージャ16、さらには外部のコンピュータや他のロボット(ともに図示せず)などと通信でき、それらの間でデータの授受を行うことができる。
CPU20aにはさらに、内部バス20bを介して、メモリ20dが接続される。メモリ20dはROMやRAMを含む。対話制御マネージャ16から送られる制御データやスクリプトデータがメモリ20dに一時的に記憶される。
また、ロボット制御に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ20dに記憶される。ロボットコントローラ20はメモリ20dに記憶されたプログラムに従ってロボットRの動作を制御する。
つまり、ロボットコントローラ20のCPU20aにはさらに、たとえばDSPで構成された出力ボード20eが接続され、この出力ボード20eは、ロボットRの上述の各部(図3)に設けられたアクチュエータの動作を制御する。ただし、ロボットRの各部の具体的な動作は、実施例には関係しないので、ここでは詳しい説明は省略する
なお、図3に示すロボットRのスピーカ46がロボットコントローラ20の出力ボード20eに接続される。したがって、CPU20aは、対話制御マネージャ16から与えられ、必要に応じてメモリ20dに記憶されたスクリプトデータに従って、スピーカ46から発声(発話)させる。
さらに、図3に示すロボットRのマイク48やカメラ50が入力ボード20fを経て、CPU20aに入力される。CPU20aは、その入力データを、対話制御マネージャ16に送る。対話制御マネージャ16は、マイク48から取り込んだ音声データをメモリ16d(図2)に記憶し、必要に応じて、音声認識処理を実行する。対話制御マネージャ16はまた、カメラ50からのカメラ信号を処理して、対話場所の状況をセンシングする。
また、図1実施例の対話システム10に用いられるロボットRは図3を参照して上で説明したロボットに限定されるものではなく、少なくともスクリプトに従って発話できる機能があればよい。
図5はタッチディスプレイ14の表示や発話を制御するタッチディスプレイI/F24を示すブロック図である。タッチディスプレイI/F24は、CPU24aを含み、CPU24aには、内部バス24bを介して通信装置24cが接続される。通信装置24cは、たとえばネットワークインタフェースなどを含み、CPU24aはこの通信装置24cを介して対話制御マネージャ16などと通信でき、それらの間でデータの授受を行うことができる。
CPU24aにはさらに、内部バス24bを介して、メモリ24dが接続される。メモリ24dはROMやRAMを含む。対話制御マネージャ16から送られる制御データやスクリプトデータがメモリ24dに一時的に記憶される。
また、タッチディスプレイ12の制御に必要なプログラム(OSやセンサ信号取得プログラムなど)は、メモリ24dに記憶される。タッチディスプレイI/F24はメモリ24dに記憶されたプログラムに従ってタッチディスプレイ12の動作を制御する。
つまり、タッチディスプレイI/F24のCPU24aにはさらに、たとえばDSPで構成された出力ボード24eが接続され、この出力ボード24eは、タッチディスプレイ12に設けられているスピーカ26から音声を出力させるとともに、タッチディスプレイ12に表示データを出力する。
ただし、スピーカ26はタッチディスプレイ12に設けられてもいいが、タッチディスプレイ12とは別にそれの近傍に設けられていてもよい。
タッチディスプレイI/F24のCPU24aにはさらに、入力ボード24fが接続され、この入力ボード24fは、タッチディスプレイ12に設けられている座標検出回路28からの座標データ(タッチ座標データ)を取得してCPU24aに入力する。CPU24aは、その入力座標データを、対話制御マネージャ16に送る。対話制御マネージャ16は、その座標データを受けて、そのとき人Hがタッチディスプレイ12上のどの返答項目にタッチしたかを知ることができる。
図1の対話システム10では、対話場所のロボットRは、先に説明したスクリプトに従って対話を進行するが、ロボットRの発話およびタッチディスプレイ12による発話を統括的に制御するのが、対話制御マネージャ16である。
図6に示すフロー図は、その対話制御マネージャ16のCPU16a(図2)の動作を示す。この図6の動作は、たとえばフレームレート程度の速度で繰り返し実行される。
最初のステップS1でCPU16aは、ダイアログデータベース14(図1)から上述したようなスクリプトデータを読み込むなど、初期化を実行する。
続くステップS3においてCPU16aは、たとえばロボットコントローラ20から取り込んだカメラ信号やマイク信号などのセンサデータを更新する。
次のステップS5では、ステップS3で更新したセンサデータに基づいて、対話制御マネージャ16のCPU16aは、対話場所に人Hがいるかどうか判断する。このステップS5で“NO”なら、ステップS3に戻って待機する。
ステップS5で“YES”を判断したとき、CPU16aは、次のステップS7において、次候補プール22から次候補のスクリプトデータを読み込む。そして、ステップS9で、次候補スクリプトがあるかどうか判断する。
次候補スクリプトがあれば、ステップS11においてCPU16aは、そのスクリプトはロボットRの制御用のスクリプトであるかどうか判断する。このステップS11で“YES”ならステップS13において、ロボットコントローラ20がロボットRの制御動作を実行する。ステップS11で“NO”ならステップS15でさらに、次候補スクリプトはタッチディスプレイ12のためのものかどうか判断する。ステップS15で“YES”ならステップS17において、タッチディスプレイI/F24がタッチディスプレイ12の制御動作を実行する。
つまり、次候補プール22に登録されている情報から、ロボットRを制御するかタッチディスプレイ12に表示するかを、対話の制御ルールに従って対話制御マネージャ16が決定し、ロボットコントローラ20もしくはタッチディスプレイI/F24に制御信号を伝達する。たとえば、ロボットRを制御すべきときは、ステップS11で、発話する内容に最適な制御信号および再生音声の情報をロボットコントローラ20に伝達する。タッチディスプレイ12を制御すべき場合は、タッチディスプレイ12に表示して人Hに選択させるための返答項目の情報を伝達する。
図7を参照して、ロボットコントローラ20は、ステップS31で初期化を実行する。ロボットコントローラ20によって制御するロボットRの動作は、アイドル動作と制御信号に従った動作の2種類である。アイドル動作の実行とは、明示的な制御信号が対話制御マネージャ16から送信されていない場合でも、止まることなく、瞬き、呼吸、近くの人の方を見る、などの基本的な動作をさせることを指す。その際、ロボットコントローラ20の動作フローとは独立に、ロボットRのマイク48やカメラ50などのセンサを用いて人Hの存在の有無や人の位置などの情報を取得することで、より社会的にふさわしい動作を実現する(ステップS33)。
次に、アイドル動作が実行されているなかで、対話制御マネージャ16からの制御信号を受信した場合、ステップS35で“YES”を判断し、ステップS37において、ロボットコントローラ20のCPU20aは、その制御信号に従った動作をロボットRに実行させる。具体的には、指示された台詞(テキスト文)の発話とそれに従う動作を実行する。
なお、ステップS37の動作が終了したとき、ロボットコントローラ20のCPU20aがロボットRの動作が終了したロボット終了フラグ(図示せず)を対話制御マネージャ16に送って、図6の対話制御マネージャ16による制御に遷移する。それによって、対話制御マネージャ16はタッチディスプレイ12での表示タスクに移行する。つまり、対話制御マネージャ16は、ロボットコントローラ20からのロボット終了フラグを待って、タッチディスプレイ12の制御に移行する。
図8を参照して、タッチディスプレイ12の動作は図1および図5で示したタッチディスプレイI/F24によって制御する。タッチディスプレイI/F24のCPU24aは、ステップS41で初期化を実行する。そして、ステップS43で対話制御マネージャ16から制御信号を受け取ったかどうか判断し、ステップS43で“YES”を判断したとき、ステップS45でその送信された制御信号に従って、その状態において表示すべき1または2以上の選択肢(返答項目)を表示する。ただし、実施例では人HからロボットRへ質問するための選択肢も存在するが、このような選択肢も便宜上「返答項目」と呼ぶことがある。
その後、ステップS47でユーザが表示されたいずれかの返答項目にタッチしたと判定できた場合、ステップS49において、その選択された返答項目の音声による読み上げを行う。
この実施例のようにタッチディスプレイ12の画面に表示された複数個の選択肢(返答項目)の中から自分の意思で1つを選択すると、与えられたのはシステムが設定した有限個の選択肢であるにも拘わらず、選択した返答が自分の意見であるように人Hに感じさせることができる。また、タッチディスプレイ12に表示されたものの中から人Hに選択してもらうことで、ロボットRは音声認識を使わずに対話することができる。
また、人Hが選択した選択肢(返答項目)をタッチディスプレイ12またはそれぞれの近傍に設けたスピーカ26から読み上げる(発話する)ようにすれば、人Hはあたかもその返答を自分が発話したように感じ、自然な対話感が損なわれない。
ここで、人Hがどの返答項目を選択したか(タッチしたか)は、先に説明したように、タッチディスプレイ12に関連して設けられた座標検出回路28(図5)が検出したタッチ位置をCPU24aが判定することによって判断される。そして、この判断結果(選択した返答項目)は、それ以降の対話の進捗のために、対話制御マネージャ16に返される。
その後、読み上げられた音声の終了を判定した(ステップS51)後、図6にリターンして、対話制御マネージャ16の制御に遷移する。
ここで、ステップS49の動作が終了したとき、タッチディスプレイI/F24のCPU24aがタッチディスプレイ12での動作が終了したタッチディスプレイ終了フラグ(図示せず)を対話制御マネージャ16に送って、図6の対話制御マネージャ16によるロボットRの制御に遷移する。
このように、タッチディスプレイ12による人Hの選択した返答の発話音声の終了を待って、ロボットRが次の発話を開始することにより、あたかもロボットRがタッチディスプレイ12すなわち人Hからの音声を理解した上で、次の発話をしたように感じさせることができる。
ここで、対話制御マネージャ16が、タッチディスプレイI/F24すなわちタッチディスプレイ12に送信する動作指令の決定プロセスについて説明する。
まず、一連の対話を、「情報の収集」、「関係性の構築」、「意思決定に向けた説得」、「意思決定」、「目的のない雑談」の5つのフェーズに分類する。ただし、以下において「相手」とは、人Hから見たロボットRのことを指す。
「情報の収集」とは日常会話を通じて、人Hの考えや好みなどの情報を収集することが目的である。具体的には、「今日はどこから来ましたか?」や「名前はなんというのですか?」といった質問が考えられる。ここで収集された情報は、その後の「意思決定に向けた説得」などで利用することができる。
情報を収集する場合、人Hの情報を正確に取得する必要があるため、意味の異なる4つの質問をタッチディスプレイに表示する。その際、人H自身に当てはまる事柄が、その選択肢の1つには必ず合致するよう文言(ダイアログまたはスクリプト)を設計する。たとえば「どこから来ましたか」という質問に対しては、図9(A)に示すように、「大阪です」、「兵庫です」、「京都です」および「日本のどこかだよ」という選択肢(返答項目)をタッチディスプレイ12に表示する。
ただし、返答項目(選択肢)は4つ以上でもよいが、実施例では4つとした。その理由は、選択肢が5つ以上になると、表示されている選択肢(の内容)を理解するために時間がかかってしまい、対話感が阻害されると考えるからである。
次に、「関係の構築」とは、人Hと相手(ロボットR)との関係をより深めることが目的である。お互いの関係性を深めるためには、様々な方法があるが、その中でも効果的な方法はお互いに好意をもっていることを確かめあうことである。しかし、感情とは曖昧なものであるため、「情報の収集」で用いた4つの選択肢では人Hの感情に合致した候補を提示することが困難である。そこで、「関係の構築」フェーズではタッチディスプレイ12が、適切なタイミングで、対話システム10すなわちダイアログデータベース14に予め用意している文言(テキスト文)を自動的に読み上げる。具体的には、「(ロボットR)なんだかとってもうれしそうに見えます。」という問いかけに対して「(人H)はい、とても楽しいです」といった返答を自動的に読み上げる。これにより、現在自分がうれしいという感情の認定が行われる。また、逆に「(人H)私と話していて楽しいでしょう?」という質問を自動的に読み上げ、それに対して「(ロボットR)はい、楽しいです」とロボットRにも自動的に返答させることで、お互いに好意を持っている状況を構築することができる。感情とは定義が曖昧であり、人も自分自身でどのような感情であるか明確に理解することが難しい事柄である。そのため、たとえ自動的に読み上げられたとしても、それを自分の本来持っている感情であると認定されやすいと考えられる。
次に「意思決定に向けた説得」とは、最終的に意思決定してもらいたい方向に人Hを誘導するための、ある問いかけに対しての同意を得ることを指す。具体的には、後の意思決定に影響を与える相手からの質問に対する返答の選択肢を1つに限定することで、強制的にシステム側が想定する方向に人Hを誘導する。人Hに対して、ある意思決定をしてもらうためには、それに必要な一定の根拠が必要である。たとえば、ロボットRと人Hの対話の目的が商品の購入である場合、突然買って下さいと言っても、購入するという意思決定にはつながりにくい。一方、事前におすすめする商品の色と人Hの好みが一致していることがお互いの間で会話を通じて明らかにされていた場合、その会話が購入にいたる根拠になる。
たとえば、「(ロボットR)このカラーはお客さんにぴったりですね。お客さんもお好きですよね?」という質問に対して「(人H)はい、好きです」と返答している場合、その会話はその後の意思決定に影響を与えることが予想される。このような後の意思決定に影響を与える質問の場合、図9(B)に示すように、選択肢を1つに限定することで、強制的に人Hの返答を誘導する。これにより、その後に意思決定を、システムが想定する方向に誘導することができる。
次に、「意思決定」とは、人Hの最終的な意思決定の表明のことを指す。具体的には、人Hに最終的な意思決定を促す際に、ロボットRからの提案について同意する意味をもつが、表現の異なる複数の選択肢を提示することにより、返答が誘導されているにも関わらず自分で意思決定を行ったと感じされることができる。
たとえば、「(ロボットR)お客さん、この商品購入しますか?」に対して、図9(C)に示すように、「気に入ったので買います」「うん、そうします」といった双方ともに同意を示す返答のみを提示することで、意思決定の誘導を行うことができる。ここで、同義の返答を複数表示する理由は、複数の中から1つを選択するという決定を人Hに促すことで、その選択に対する責任が生じるためである。最終的な意思決定を行うことは、これまでの「意思決定に向けた説得」や「関係を深める」フェーズでの選択よりも、より重い責任が生じ、熟慮が必要とされる行為である。そのため「自動的に読み上げる」や「選択肢を1つだけ提示する」といった方法では、人Hが自身で意思決定した感覚を与えることが困難である。よって、「意思決定」フェーズでは、同義の表現の異なる複数個の選択肢の中から選択させるという方法を採用した。
なお、ロボットRと人Hの自然な会話に必要な条件として、会話のターンテイキング(turn taking:話者交替)が挙げられる。つまり、相手の発話に対して適切なタイミングで発話する必要がある。そのためにはタッチディスプレイ12において人Hが返答するタイミングを適切に人Hに伝える必要がある。実施例では、人Hからの返答が必要とされないときはタッチディスプレイ12になにも表示しないこととし、返答が必要とされるときだけタッチディスプレイ12に選択肢を表示するようにした。その際、ビープ音を鳴らすなどして、表示された選択肢に人Hの注意を向けさせる。
また、たとえば、ロボットRの視線の向き、つまりアイコンタクトなどの非言語的な情報を与えることでさらに効果的にターンテイキングのタイミングを人Hに通知することができる。
さらに、タッチディスプレイ12に表示した選択肢の内容を人Hが理解しなければならないため、返答に時間がかかる場合がある。しかし、対話の内容によっては「即座に返答する」、「あえて言いよどむ」といった社会的に正しいタイミングでの発話が 期待される場合がある。
そういう場合は、タッチディスプレイ12に選択肢を表示せず、予め決められた内容を、適切なタイミングで自動的に読み上げる。これにより、より効果的に自然な会話を実現することができる。この場合の問題としては、自動的に読み上げられることで、自らの選択ではないという感覚を人Hに与えてしまう可能性があるが、会話のほとんどは自分で選択しているため、必要なときだけ自動的に返答しても、自分の意思が阻害されたとは思わないであろう。
上述の実施例は、物理的なエージェントであるロボットRを用いた対話システムであるが、この発明は、そのような物理的なエージェントだけでなく、たとえばディスプレイの画面上に表示されるアバタないしキャラクタのようなエージェントと人Hとの対話システムも適用されてもよい。この場合、図1のロボットコントローラ20は、そのようなアバタやキャラクタを表示するためのディスプレイI/F(図示せず)に代えられる。
さらには、人Hの相手は、エージェントである必要はなく、相手も人であってよい。その場合の実施例が図10に示される。
この実施例では、人H1が図1実施例のロボットRに相当し、人H2が図1実施例の人Hに相当すると理解されたい。つまり、人H1がロボットRに代わるので、対話制御マネージャ16は、人H1のためのタッチディスプレイ121またはその近傍に設けたスピーカ(図示せず:図5のスピーカ26に相当する。)から、図1実施例のロボットRの発話文を発話させる。このような人H1のタッチディスプレイ121からの発話に対して、人H2は、図1実施例の人Hと同様に、自己のタッチディスプレイ122に表示された選択肢(返答項目)を、タッチして選択する。すると、その選択した項目を、タッチディスプレイ122またはその近傍に設けたスピーカ(図示せず:図5のスピーカ26に相当する。)から、発話する。
この図10の実施例によれば、人どうしの対話において、言葉を発することが難しい人、たとえば、心理的に言葉を発することに躊躇を覚える人、発話を行うことが困難な障害を持つ人でも、対話をすることができる。また、対話システムが人の代わりにすべての発話文を読み上げることで、あたかもその発話は人の意図に沿ったものであるように感じさせることができる。
図10実施例では、上述とは逆に、人H2が図1実施例のロボットRに相当し、人H1が図1実施例の人Hに相当するものとしてもよい。
たとえば図1の実施例におけるロボットRは、それ自身のスピーカ46からスクリプトに従った発話文を発話し、図10の実施例におけるタッチディスプレイ121または122に関連して設けられているスピーカからスクリプトに従った発話文を発話するので、これらのロボットRやタッチディスプレイ121(122)を用いて発話させる対話制御マネージャ16、ロボットコントローラ20、タッチディスプレイI/F24等は、発話エージェントということができる。
なお、上述の実施例では、人Hまたは人H2もしくは人H1の返答項目(選択肢)をタッチディスプレイで表示し、タッチによって選択させたが、タッチディスプレイに限ることなく、表示のために他のディスプレイを用い、選択のために他のポインティングデバイスを用いることができる。
さらに、図1において、対話制御マネージャ16、ロボットコントローラ20、タッチディスプレイI/F24はそれぞれ別々のものとして図示したが、これらは1つのコンピュータで実現するようにしてもよい。
10 …対話システム
R …ロボットR
H、H1、H2 …人
12、121、122 …タッチディスプレイ
14 …ダイアログデータベース
16 …対話制御マネージャ
18 …ダイアログキュー
20 …ロボットコントローラ
22 …次候補プール
24 …タッチディスプレイI/F
26、46 …スピーカ
28 …座標検出回路

Claims (4)

  1. スクリプトを予め設定しているダイアログデータベース、
    前記ダイアログデータベースのスクリプトに従って発話する発話エージェント、
    前記発話エージェントによる発話に対して人が返答すべき1つまたは2以上の選択肢をスクリプトに従って表示する表示手段、および
    前記表示手段に表示された選択肢を人が選択したとき、その選択肢の内容をスクリプトに従って発話する発話手段を備える、対話システム。
  2. 前記表示手段に表示される選択肢は、似通った意味を持つ2以上の選択肢を含む、請求項1記載の対話システム。
  3. 前記表示手段に表示される選択肢は、1つである、請求項1または2記載の対話システム。
  4. ダイアログデータベースに予め設定されているスクリプトに従って対話する対話システムのコンピュータによって実行される制御プログラムであって、前記コンピュータを
    前記ダイアログデータベースのスクリプトに従って発話する発話エージェント、
    前記発話エージェントによる発話に対して人が返答すべき1つまたは2以上の選択肢をスクリプトに従って表示する表示手段、および
    前記ディスプレイに表示された選択肢を人が選択したとき、その選択肢の内容をスクリプトに従って発話する発話手段として機能させる、制御プログラム。
JP2016047006A 2016-03-10 2016-03-10 対話システムおよび制御プログラム Pending JP2017162268A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016047006A JP2017162268A (ja) 2016-03-10 2016-03-10 対話システムおよび制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016047006A JP2017162268A (ja) 2016-03-10 2016-03-10 対話システムおよび制御プログラム

Publications (1)

Publication Number Publication Date
JP2017162268A true JP2017162268A (ja) 2017-09-14

Family

ID=59856936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016047006A Pending JP2017162268A (ja) 2016-03-10 2016-03-10 対話システムおよび制御プログラム

Country Status (1)

Country Link
JP (1) JP2017162268A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021003273A (ja) * 2019-06-26 2021-01-14 三菱電機株式会社 音入出力装置
CN112488239A (zh) * 2020-12-02 2021-03-12 罗科仕管理顾问有限公司 用于基于人工智能的计算机辅助说服系统的方法和装置
WO2021153101A1 (ja) * 2020-01-27 2021-08-05 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04266781A (ja) * 1990-11-14 1992-09-22 Robert M Best ビデオゲーム方法および装置
JP2002117186A (ja) * 2000-10-10 2002-04-19 Soft Service:Kk アンケート管理装置及びアンケート方法
JP2004054883A (ja) * 2001-11-13 2004-02-19 Equos Research Co Ltd 車載用エージェントシステム及び対話型操作制御システム
JP2010067152A (ja) * 2008-09-12 2010-03-25 Fuji Xerox Co Ltd 情報処理装置及び情報処理プログラム
JP2012181697A (ja) * 2011-03-01 2012-09-20 Nec Corp 対話システム、対話制御方法およびプログラム
EP2933071A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems for managing dialogs of a robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04266781A (ja) * 1990-11-14 1992-09-22 Robert M Best ビデオゲーム方法および装置
JP2002117186A (ja) * 2000-10-10 2002-04-19 Soft Service:Kk アンケート管理装置及びアンケート方法
JP2004054883A (ja) * 2001-11-13 2004-02-19 Equos Research Co Ltd 車載用エージェントシステム及び対話型操作制御システム
JP2010067152A (ja) * 2008-09-12 2010-03-25 Fuji Xerox Co Ltd 情報処理装置及び情報処理プログラム
JP2012181697A (ja) * 2011-03-01 2012-09-20 Nec Corp 対話システム、対話制御方法およびプログラム
EP2933071A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Methods and systems for managing dialogs of a robot

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"YESorはいとは(イェスオワハイとは)[単語記事]", ニコニコ大百科[ONLINE], JPN6019047742, ISSN: 0004346748 *
"アンゼロット(あんぜろっと)とは", ピクシブ百科事典[ONLINE], JPN6019047740, ISSN: 0004346747 *
"選択肢は『はい』か『イエス』とは(センタクシハハイカイエスとは)[単語記事]", ニコニコ大百科, JPN6019047744, ISSN: 0004346749 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021003273A (ja) * 2019-06-26 2021-01-14 三菱電機株式会社 音入出力装置
JP7336892B2 (ja) 2019-06-26 2023-09-01 三菱電機株式会社 音入出力装置
WO2021153101A1 (ja) * 2020-01-27 2021-08-05 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN112488239A (zh) * 2020-12-02 2021-03-12 罗科仕管理顾问有限公司 用于基于人工智能的计算机辅助说服系统的方法和装置
CN112488239B (zh) * 2020-12-02 2022-01-07 罗科仕管理顾问有限公司 用于基于人工智能的计算机辅助说服系统的方法和装置

Similar Documents

Publication Publication Date Title
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
US11024294B2 (en) System and method for dialogue management
JP6818280B2 (ja) 対話システム、対話方法、対話装置、およびプログラム
JP7517390B2 (ja) コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US11003860B2 (en) System and method for learning preferences in dialogue personalization
JP6583765B2 (ja) エージェント対話システムおよびプログラム
JP6992957B2 (ja) エージェント対話システム
JP6719741B2 (ja) 対話方法、対話装置、及びプログラム
CN119998774A (zh) 显示控制装置、显示控制方法和显示控制程序
JP6970413B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
WO2017200074A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP6551793B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
Ehret et al. Who's next? Integrating Non-verbal turn-taking cues for embodied conversational agents
JP7286303B2 (ja) 会議支援システム及び会議用ロボット
JP2017162268A (ja) 対話システムおよび制御プログラム
Iio et al. Starting a conversation by multi-robot cooperative behavior
US20240323332A1 (en) System and method for generating and interacting with conversational three-dimensional subjects
Ishiguro et al. Development of cybernetic avatars with humanlike presence and lifelikeness
JP2023131825A (ja) 情報処理装置、制御プログラムおよび制御方法
JP2018174425A (ja) 会議システムおよび制御プログラム
JPWO2017200077A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP2018175461A (ja) 返答インタフェースおよび対話訓練システム
JP7432960B2 (ja) 対話システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200915