JP2018161706A - ロボット制御システムおよびロボット制御装置 - Google Patents
ロボット制御システムおよびロボット制御装置 Download PDFInfo
- Publication number
- JP2018161706A JP2018161706A JP2017059990A JP2017059990A JP2018161706A JP 2018161706 A JP2018161706 A JP 2018161706A JP 2017059990 A JP2017059990 A JP 2017059990A JP 2017059990 A JP2017059990 A JP 2017059990A JP 2018161706 A JP2018161706 A JP 2018161706A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- dialogue
- scenario
- control system
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】飲食店においてロボットと自然な対話を行うことができるロボット制御システムおよびロボット制御装置を提供する。【解決手段】飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボット2と、ロボット2を操作する指令信号を生成する操作端末3と、顧客の飲食店内での滞在状態を判断する滞在状態判断部342と、操作端末3の操作に応じた動作をロボット2に行わせる前に、滞在状態判断部342にて判断された顧客の滞在状態に基づいた事前動作をロボット2に行わせる動作制御部345と、を備える。【選択図】図1
Description
本発明は、ロボット制御システムおよびロボット制御装置に関する。
近年、レストランその他公共施設において、来場客の案内役としてヒューマノイド型ロボットを活用する事例がみられる。このようなロボットとのコミュニケーション(対話)を専用の操作端末を用いて行う技術が検討されており、この技術によれば、ユーザは、操作端末を介してロボットとの対話を楽しんだり、案内情報を入手したりすることができる。
具体的には、飲食店に来店した顧客に対して、飲食店のテーブル席に設置されたロボットとの間で直接的あるいはタブレット等を介して間接的に対話することができるサービスを提供することができる。この場合、顧客に対して推奨メニューを提示したり、雑談をしたりすることで、飲食サービスの満足度を向上させることができる。
しかしながら、ユーザがロボットに向けた対話を行った後、ロボットが応答の発話動作を行うまでの間に長いタイムラグがあると、対話の途切れによる違和感をユーザに与えてしまう虞がある。
本発明はこのような点を考慮してなされたものであり、飲食店におけるロボットとの対話を違和感なく自然に行うことができるロボット制御システムおよびロボット制御装置を提供することを目的とする。
本発明は、飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットと、ロボットを操作する指令信号を生成する操作端末と、顧客の飲食店内での滞在状態を判断する滞在状態判断部と、操作端末の操作に応じた動作をロボットに行わせる前に、滞在状態判断部にて判断された顧客の滞在状態に基づいた事前動作をロボットに行わせる動作制御部と、を備える、ロボット制御システムである。
本発明によるロボット制御システムにおいて、動作制御部は、操作端末の操作に応じた動作をロボットが実行可能になるまでの間に、事前動作をロボットに行わせてもよい。
本発明によるロボット制御システムにおいて、操作端末の操作に応じた動作は、操作端末の操作に応じた対話動作を含み、事前動作は、顧客の滞在状態に基づいてロボットが行う予め定めた対話動作を含んでもよい。
本発明によるロボット制御システムにおいて、指令信号は、飲食店に来店した顧客が操作端末を操作することで選択された対話シナリオ情報に基づく対話のための選択肢に基づいて生成され、操作端末の操作に応じた動作は、選択された選択肢に基づく対話シナリオの進行に伴ってロボットが行う対話動作を含み、事前動作は、操作端末の操作に応じた対話動作をロボットが開始するまでの間を繋ぐ相槌動作を含んでもよい。
本発明によるロボット制御システムにおいて、対話動作は、操作端末の操作に応じてロボットが発話する動作を含み、相槌動作は、ロボットが予め定めた発話を行う動作を含んでもよい。
本発明によるロボット制御システムにおいて、事前動作は、ロボットの姿勢および外観の少なくとも一方を変化させる動作を含んでもよい。
本発明によるロボット制御システムにおいて、対話動作は、飲食店に来店した顧客との飲食物のメニュー選択に関する対話動作を含んでもよい。
本発明によるロボット制御システムにおいて、動作制御部は、選択肢の選択結果によらずロボットに顧客の滞在状態に応じた共通の相槌動作を含む事前動作を行わせてもよい。
本発明によるロボット制御システムにおいて、動作制御部は、顧客の飲食店内での滞在時間の経過に応じて変化する相槌動作を含む事前動作を行わせてもよい。
本発明によるロボット制御システムにおいて、操作端末の操作に応じた動作は、ロボットが発話する第1動作と、第1動作に先だってロボットの姿勢および外観の少なくとも一方を変化させる第2動作と、を含んでおり、事前動作は、ロボットが第2動作を開始する前に行われてもよい。
本発明によるロボット制御システムにおいて、動作制御部は、ロボットまたは操作端末の内部に設けられてもよい。
本発明は、飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットに対して指令信号を送信するロボット制御装置であって、顧客の飲食店内での滞在状態を判断し、ロボットを操作する操作端末の操作に応じた動作をロボットに行わせる前に、判断した顧客の滞在状態に基づいた事前動作をロボットに行わせる動作制御部を有するロボット制御装置である。
本発明によれば、飲食店においてロボットと自然な対話を行うことができる。
以下、本発明の実施形態に係るロボット制御システムおよびロボット制御装置の構成及び作用について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。
(第1の実施形態)
図1は、第1の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(point of sales)システムなどの店舗システム5とを備える。ロボット制御システム1は、飲食店の来店客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話するためのシステムである。図1の例におけるロボット2は、人間に似た外観および対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。ロボット2は、姿勢や動作等をプログラム可能な汎用のロボットでもよいし、本ロボット制御システム1用に開発されたロボットでもよい。
図1は、第1の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(point of sales)システムなどの店舗システム5とを備える。ロボット制御システム1は、飲食店の来店客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話するためのシステムである。図1の例におけるロボット2は、人間に似た外観および対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。ロボット2は、姿勢や動作等をプログラム可能な汎用のロボットでもよいし、本ロボット制御システム1用に開発されたロボットでもよい。
(ロボット2)
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動される。なお、ロボット2は、電池等のバッテリ駆動型であってもよい。
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動される。なお、ロボット2は、電池等のバッテリ駆動型であってもよい。
ロボット駆動部21は、例えば、胴体部、腕部、首部、眼球部、瞼部または口部等の自由度を有するロボット2の部位を駆動するアクチュエータと、ロボット2の発話音声を出力する音声出力装置と、ロボット2の眼球部を点灯させる点灯装置とを有する。ロボット駆動部21を必要に応じて駆動することで、ユーザとの対話を行うために、ロボット2に発話させたり、ロボット2の姿勢を変化させたり、ロボット2の外観を変化(例えば、眼球部を所定の点灯色で点灯)させたりすることができる。ロボット駆動部21には、ロボット制御部22から、ロボット駆動部21の駆動を制御する駆動制御信号が入力される。ロボット駆動部21は、駆動制御信号に応じて駆動される。
ロボット制御部22は、指令信号の一例であるロボット制御コマンドを操作端末3から受信する。ロボット制御部22は、受信されたロボット制御コマンドに基づいて既述した駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力する。すなわち、ロボット2は、飲食店に来客した顧客と対話するためロボット制御コマンドに応じて動作することができる。なお、ロボット制御コマンドは、これによって駆動を制御しようとするロボット駆動部21の種類や制御内容に応じて多種多様である。例えば、ロボット制御コマンドには、ロボット2の姿勢や位置や点灯状態を制御するためのコマンドや、ロボット2を発話させるためのコマンドがある。ロボット2を発話させるためのコマンドには、発話内容を示すデータ(後述するロボット側シナリオデータ)が含まれる。
ロボット制御部22は、例えば、アプリケーションプログラムやこれを動作させるオペレーティングシステムなどのソフトウェアが記憶された少なくとも1つのメモリと、メモリに記憶されたソフトウェアを実行するCPU(Central Processing Unit)とを有し、メモリに記憶されたソフトウェアをCPUが実行することで駆動制御信号を生成してもよい。
(操作端末3)
操作端末3は、ユーザが操作するために携帯する(すなわち、把持する)ものであり、例えばタッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、方位センサ31と動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。方位センサ31は、操作端末3の方位を検出する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32に出力する。
操作端末3は、ユーザが操作するために携帯する(すなわち、把持する)ものであり、例えばタッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、方位センサ31と動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。方位センサ31は、操作端末3の方位を検出する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32に出力する。
動作生成部32は、方位センサ31からの方位検出信号に基づいて、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。動作生成部32は、生成されたロボット制御コマンドを、例えばWiFiなどの無線通信によってロボット制御部22に送信する。ロボット制御部22は、動作生成部32からのロボット制御コマンドを受信し、受信されたロボット制御コマンドに応じた駆動制御信号をロボット駆動部21に出力することで、操作端末3が存在する方向をロボット2が向くようにロボット駆動部21の駆動を制御する。これにより、ロボット2と向き合う状態でユーザがロボット2と対話することができるので、ユーザは、違和感なく自然にロボット2との対話を行うことができ、対話による満足感を向上させることができる。
図1に示すように、操作端末3は、対話シナリオ情報を用いてユーザとロボット2との間での対話を行うための構成として、既述した動作生成部32に加えて、更に、シナリオDB(データベース)33と、シナリオ制御部34と、表示部35と、タッチパネル等の入力部36と、音声出力部37とを有する。
シナリオDB33には、ユーザとロボット2との間での対話を行うための複数の対話シナリオ情報が蓄積されている。対話シナリオ情報は、複数の対話シナリオを含んでいる。対話シナリオとは、ユーザとロボット2との間でやり取りされる対話のストーリである。飲食店に入店した顧客は、入店してから退店するまでの間に複数の滞在状態を遷移する。そこで、シナリオDBには、各遷移状態ごとに別個の対話シナリオが蓄積されている。また、ある滞在状態にて実行された対話シナリオの進行中に、顧客が操作端末3で複数の選択肢の中から特定の選択肢を選択した場合には、別の対話シナリオに切り替わる場合もありうる。各対話シナリオは、ロボット2が対話(すなわち、発話)に用いるロボット側シナリオデータと、ユーザが対話(すなわち、操作端末3での選択)に用いるユーザ側シナリオデータとで構成されている。ユーザ側シナリオデータは、各対話シナリオにおけるロボット2の発話に対するユーザ側の選択肢等を集めたデータである。ユーザ側シナリオデータは、対話シナリオの進行に合わせて、操作端末3の表示部35に選択肢等を表示するために用いられる。ユーザは、表示された選択肢の中から特定の選択肢を入力部36にて選択することができる。そして、ユーザ側シナリオデータに示される対話シナリオの選択肢のそれぞれに、互いに異なる新たな(下位の)ロボット側シナリオデータが対応付けられている。すなわち、対話シナリオ情報は、ロボット側シナリオデータとユーザ側シナリオデータが交互にノードとして結合されたツリー構造を有する。ツリー構造のうち、最上位から最下位にわたる所定の一連のノード群は、例えば典型的な対話に用いられる基本シナリオとして管理され、他のノード群は、基本シナリオを補正する補正シナリオとして管理されていてもよい。
また、対話シナリオ情報は、飲食店におけるユーザの滞在状態すなわち動作状態を示すステータスデータに応じて複数のシナリオ群に区分されている。
図1の例におけるステータスデータは、ユーザが着席したことを示す第1状態、ユーザが飲食物の注文をしたことを示す第2状態、注文した飲食物がユーザに提供されたことを示す第3状態、ユーザが提供された飲食物の飲食を完了したことを示す第4状態、およびユーザが会計を完了したことを示す第5状態の各状態を示す。これに限られず、ステータスデータは、ユーザが離席したことを示す離席状態、ユーザ同士が会話をしている会話状態、又は、ユーザが食後にデザートを注文した状態などを備えていてもよい。このように、ステータスデータは、時間の経過とともに変化するユーザの状態を示す情報である。
また、図1の例における対話シナリオ情報は、着席から注文までの期間における対話に用いられる第1シナリオ群と、注文から飲食物提供までの期間における対話に用いられる第2シナリオ群と、飲食物提供から食事終了までの間における対話に用いられる第3のシナリオ群と、食事終了から会計までの間における対話に用いられる第4シナリオ群とに区分されている。各シナリオ群は、ユーザの滞在状態に適したシナリオデータの束であり、滞在状態に合わせた種々のシナリオデータを含む。例えば、ユーザの滞在状態が着席から注文までの滞在状態である場合、シナリオ群には、それぞれの時刻に合わせたメニューを提示するシナリオデータや、大人、小人の人数により対話の内容や、話し方が変化するシナリオデータ、その他様々なシチュエーションに応じたシナリオデータが含まれている。
また、ロボット側シナリオデータには、ロボット2の疑似的な感情や意図等のロボット2の内部状態すなわち心理状態を数値化した内部状態パラメータが対応付けられている。内部状態パラメータは、例えば、喜び等の感情を数値化した正感情値(+)と、悲しみ等の感情を数値化した負感情値(−)を含む。
また、シナリオDB33には、操作端末3の操作に応じた動作をロボット2に行わせる前に、飲食店におけるユーザの滞在状態に基づいた事前動作をロボット2に行わせるための事前動作データが記憶されている。
事前動作とは、操作端末3の操作に応じた動作をロボット2が行う前に、ユーザの滞在状態に基づいてロボット2が行う予め定めた対話動作を含む動作である。
操作端末3の操作からこの操作に応じた発話動作をロボット2が実行可能になるまでの間には、タイムラグがある。このタイムラグによる対話の途切れを補間して自然な対話を行うために、操作端末3の操作に応じたロボット2の動作に先立つ事前動作が行われる。事前動作は、操作端末3の操作に応じたロボット2の動作と比較して、操作端末3の操作からのタイムラグが少ない動作である。
事前動作は、相槌動作を含む。相槌動作とは、操作端末3の操作に応じた対話動作をロボット2が開始するまでの間を繋ぐ動作である。相槌動作は、ロボット2が予め定められた発話を行う動作、または、ロボット2が頷く動作(すなわち、頭部を縦方向に振る動作)、もしくはこれらの双方を含む動作である。相槌動作がロボット2の発話動作を含む場合、この発話動作を含む相槌動作をロボット2に行わせるための事前動作データは、発話動作における発話内容を示すデータとなる。この場合、事前動作データは、例えば、「うんうん」、「なるほど」、「へぇ」などの人間同士の会話で日常的に相槌として用いられる発話内容を示すデータとなる。相槌動作がロボット2の頷き動作を含む場合、この頷き動作を含む相槌動作をロボット2に行わせるための事前動作データは、例えば、頷き動作が含まれることを示すデータとなる。頷き動作が含まれることを示すデータは、例えば、頷き“有り”を示すフラグなどであってもよいが、これには限定されず、コンセプトに応じた種々の態様のデータを採用することができる。
また、事前動作は、相槌動作に替えて、または、相槌動作に加えて、頷き動作以外のロボット2の姿勢および外観の少なくとも一方を変化させる動作を含んでもよい。この場合、ロボット2の姿勢を変化させる動作は、例えば、ロボット2の口部を開閉させる動作であってもよい。また、ロボット2の外観を変化させる動作は、例えば、ロボット2の眼球部を点灯させる動作であってもよい。
事前動作データは、飲食店におけるユーザの滞在状態すなわちステータスデータに応じて複数に区分されている。図1の例における事前動作データは、着席から注文までの期間における対話に用いられる第1の事前動作データと、注文から飲食物提供までの期間における対話に用いられる第2の事前動作データと、飲食物提供から飲食終了までの間における対話に用いられる第3の事前動作データと、食事終了から会計までの間における対話に用いられる第4の事前動作データとに区分されている。
滞在状態に応じた好適な事前動作をロボット2に行なわせるため、第1〜第4の事前動作データは、それぞれに対応する滞在状態に応じて互いに異なり得る。例えば、第1の事前動作データは、発話動作および頷き動作のうち発話動作のみを含む相槌動作をロボット2に行わせるデータであってもよい。第2の事前動作データは、発話動作および頷き動作の双方を含む相槌動作をロボット2に行わせるデータであってもよい。第3の事前動作データは、頷き動作のみを含む相槌動作をロボット2に行わせるデータであってもよい。
なお、ユーザからの対話に応答するタイミングで行われる事前動作ではなく、ロボット2から対話を切り出すタイミングで行われる事前動作に用いる事前動作データについては、不自然とならないように、相槌動作以外の動作(例えば、ロボット2の姿勢および外観の少なくとも一方を変化させる動作)をロボット2に行わせる事前動作データであることが望ましい。
シナリオ制御部34は、店舗システム5から出力されたステータスデータに基づいてシナリオおよび相槌動作を制御する。図2は、第1の実施形態によるロボット制御システム1において、シナリオ制御部34を示すブロック図である。図2に示すように、シナリオ制御部34は、受信部341と、滞在状態判断部342と、情報取得部343と、動作制御部の一例である対話制御部345と、を備える。
受信部341は、図2に示すように、店舗システム5から出力されたステータスデータを受信する。ステータスデータは、例えば飲食店の店舗スタッフが携帯する注文用のハンディ端末4にて入力可能である。このステータスデータは、ハンディ端末4から店舗システム5に送信された上で、店舗システム5からシナリオ制御部34の受信部341へと送信される。また、ステータスデータは、店舗システム5を経由せずに、ハンディ端末4から直接受信部341を介して操作端末3へと送信されるようにしてもよい。
滞在状態判断部342は、受信部341を介して受信されたステータスデータに基づいて、ユーザの滞在状態を判断する。例えば、滞在状態判定部342は、受信部341を介してユーザが着席したことを示すステータスデータを受信すると、ユーザが着席後、注文前の滞在状態であると判断する。また、滞在状態判定部342は、受信部341を介してユーザが飲食物を注文したことを示すステータスデータを受信すると、ユーザが注文後、飲食物の提供待ちの滞在状態であると判断する。既述したステータスデータと同様に、滞在状態も、時間の経過とともに変化するユーザの状態を示す情報である。
なお、ステータスデータと滞在状態の関連性は、上述したもの以外の構成であってもよい。例えば、店舗スタッフが、ステータスデータとして滞在状態そのものを入力するようにしてもよい。すなわち、ユーザの行為をトリガとして入力するのではなく、状態そのものを入力するものであってもよい。具体的には、店舗スタッフが、着席した、注文した、といった行為を入力するのではなく、着席している状態、注文して飲食物待機中の状態といった状態を直接入力するようにしてもよい。この場合、滞在状態判断部342は、受信したステータスデータそのものを滞在状態であると判断する。
情報取得部343は、シナリオDB33から、滞在状態判断部342が判断した滞在状態に応じた事前動作データを取得する。事前動作データを取得するのは、対話制御部345であってもよい。
また、情報取得部343は、シナリオDB33から、滞在状態判断部342が判断した滞在状態および後述する対話シナリオ選択信号(図2参照)で選択されたユーザ側の対話の選択肢に応じた対話シナリオ情報を選択して取得する。情報取得部343は、シナリオDB33に格納された滞在状態に応じたシナリオ群の中から、ユーザが選択した選択肢に応答するシナリオデータを選択するようにしてもよいし、滞在状態に応じたシナリオ群そのものをシナリオDB33から取得した上で、取得されたシナリオ群の中から、ユーザが選択した選択肢に応答するシナリオデータを選択するようにしてもよい。シナリオ群からシナリオデータを選択するのは、対話制御部345であってもよい。
ここで、情報取得部343は、シナリオDB33からシナリオデータを選択するにあたって、既述したように、滞在状態に応じるようにシナリオデータを選択する必要があるだけでなく、操作端末3でユーザが選んだ選択肢に応じるようにシナリオデータを選択する必要がある。このため、操作端末3での選択肢の選択から情報取得部343でのシナリオデータの選択までの間には、シナリオデータの選択処理に要するタイムラグがある。
これに対して、シナリオDB33から事前動作データを選択するにあたっては、滞在状態に応じるように事前動作データを選択する必要はあるものの、操作端末3でユーザが選んだ選択肢に応じるように事前動作データを選択する必要はない。すなわち、後述するように、同じ滞在状態の下では、選択肢の選択結果によらず共通の事前動作データを用いた事前動作が行われる。このため、操作端末3での選択肢の選択から情報取得部343での事前動作データの選択までの間には、タイムラグが殆ど無い。
このように、事前動作データの選択には、シナリオデータの選択に要するタイムラグのような遅延が殆ど無いため、後述するように、シナリオデータに基づく対話動作が実行される前に事前動作データに基づく事前動作を実行することができる。
また、情報取得部343は、シナリオDB33から対話シナリオ情報を取得するとき、対話シナリオ情報のうちロボット側シナリオデータに対応付けられた内部状態パラメータもシナリオDB33から同時に取得する。
また、情報取得部343は、メニュー中にお薦めのメニューがある場合に、当該お薦めのメニューを対話シナリオへと挿入してもよい。情報取得部343は、シナリオDB33その他の記憶部からお薦めのメニューを取得してもよい。
対話制御部345は、図2に示すように、情報取得部343で取得された滞在状態に応じた事前動作データを動作生成部32に出力する。事前動作データを出力することで、対話制御部345は、操作端末3の操作に応じた対話動作をロボット2に行わせる前に、滞在状態判断部342にて判断された顧客の滞在状態に基づいた事前動作をロボットに行わせる。また、対話制御部345は、選択肢の選択結果によらずロボット2にユーザの滞在状態に応じた共通の相槌動作を含む事前動作を行わせる。
また、対話制御部345は、図2に示すように、情報取得部343で取得された滞在状態に応じた対話シナリオ情報のうち、ロボット側シナリオデータを動作生成部32に出力する。このとき、対話制御部345は、ロボット側シナリオデータに対応付けられた内部状態パラメータを情報取得部343から取得し、取得された内部状態パラメータをロボット側シナリオデータと同時に動作生成部32に出力する。対話制御部345は、自身が取得した滞在状態に応じた事前動作データおよび対話シナリオ情報を動作生成部32に出力してもよい。
動作生成部32は、図2に示すように、対話制御部345から入力された事前動作データに基づいてロボット2に事前動作を指令するための事前動作用ロボット制御コマンドを生成し、生成された事前動作用ロボット制御コマンドをロボット制御部22に送信する。事前動作用ロボット制御コマンドを送信することで、ロボット2に事前動作を行わせることができる。
事前動作が発話動作による相槌動作を含む場合、動作生成部32は、事前動作用ロボット制御コマンドの少なくとも一部として、事前動作データを音声化した音声データを生成および送信する。音声データを送信することで、ロボット2に相槌動作における発話動作を行わせることができる。なお、事前動作用ロボット制御コマンドとして音声データを送信する代わりに、ロボット2内に音声データを格納しておき、動作生成部32が、事前動作用ロボット制御コマンドとしてロボット2内の音声データに紐づけられたIDを送信してもよい。この場合、ロボット2側で、IDに紐づけられた音声データを再生して相槌動作における発話動作を行えばよい。また、事前動作が頷き動作による相槌動作を含む場合、動作生成部32は、事前動作用ロボット制御コマンドの少なくとも一部として、ロボット2の頷き動作を指令する信号を生成および送信する。また、事前動作がロボット2の姿勢および外観の少なくとも一方を変化させる動作を含む場合、動作生成部32は、事前動作用ロボット制御コマンドの少なくとも一部として、ロボット2の姿勢および外観の少なくとも一方を変化させる動作を指令する信号を生成および送信する。
また、動作生成部32は、図2に示すように、対話制御部345から入力されたロボット側シナリオデータに基づいてロボット2に対話動作を指令するための対話動作用ロボット制御コマンドを生成し、生成された対話動作用ロボット制御コマンドをロボット制御部22に送信する。対話動作用ロボット制御コマンドを送信することで、ロボット2に対話動作を行わせることができる。
対話動作が発話動作を含む場合、動作生成部32は、対話動作用ロボット制御コマンドの少なくとも一部として、ロボット側シナリオデータを音声化した音声データを生成および送信する。なお、事前動作用ロボット制御コマンドの場合と同様に、対話動作用ロボット制御コマンドとして音声データを送信する代わりに、ロボット2内に音声データを格納しておき、動作生成部32が、対話動作用ロボット制御コマンドとして、ロボット2内の音声データに紐づけられたIDを送信してもよい。また、対話動作がロボット2の姿勢および外観の少なくとも一方を変化させる動作を含む場合、動作生成部32は、対話動作用ロボット制御コマンドの少なくとも一部として、ロボット2の姿勢および外観の少なくとも一方を変化させる動作を指令する信号を生成および送信する。
対話動作用ロボット制御コマンドの生成において、動作生成部32は、ロボット側シナリオデータに対応付けられた内部パラメータを考慮して、対話動作の内容に、発話音声のトーンや、眼球部の点灯状態やロボット2の姿勢等を含ませる。
図2に示すように、対話制御部345は、情報取得部343で取得された滞在状態に応じた対話シナリオ情報のうち、ユーザ側シナリオデータを画像化して表示部35に出力する。表示部35は、対話制御部345から出力された画像化されたユーザ側シナリオデータに応じた対話の選択肢(図5参照)を表示する。対話制御部345が表示部35に出力するデータは、ユーザ側シナリオデータには限られず、ユーザがメニューを選択する際には、飲食物の画像や動画を表示部35へと出力するようにしてもよい。すなわち、対話に用いる言葉、文字に関する情報だけではなく、適宜、画像、動画等、表示に用いることのできるデータを表示部35へと出力するようにしてもよい。
また、これには限られず、必要に応じて操作端末3から音声を出力させたり、操作端末3を振動させたりしてもよく、この場合には、これらの音声データ、振動データ等を出力するようにしてもよい。また、ロボット2が音声を発する場合には、ロボット2が発する音声を文字として表示部35へと併せて出力するようにしてもよい。
一方、ユーザは、表示部35に表示されている対話の選択肢に基づき、図2に示すように、入力部36を介して選択肢の選択結果を示す対話シナリオ選択信号をシナリオ制御部34に入力する。
そして、対話制御部345は、入力部36から入力された対話シナリオ選択信号で選択された対話の選択肢に応答するため、既述したように、選択された選択肢に応じて情報取得部343で選択されたロボット側シナリオデータを、動作生成部32に出力する。
以上のように、第1の実施形態において、対話制御部345は、ステータスデータに基づいて判断された滞在状態に応じて、シナリオDB33に格納されている各種のシナリオデータから適したものを情報取得部343から取得し、動作生成部32、表示部35へと出力する。さらに、対話制御部345は、入力部36から入力された対話シナリオ選択信号に応じて、対話シナリオ選択信号で選択された対話シナリオに応答する新たなロボット側シナリオデータをシナリオDB33から選択する。そして、選択された新たなロボット側シナリオデータを、発話のために動作生成部32へと出力する。この処理を繰り返すことにより、ユーザとロボット2との間の対話を行うことが可能となる。
また、対話制御部345は、対話シナリオ選択信号の受信からのタイムラグがあるシナリオデータの選択に先立って、滞在状態に応じた事前動作データをシナリオDB33から速やかに選択して動作生成部32に出力する。この処理を滞在状態の変化に応じて繰り返すことにより、ユーザとロボット2との間で滞在状態に適した途切れがない自然な対話を行うことが可能となる。
以上の構成により、飲食店におけるロボット2との対話を違和感なく自然に行うことが可能となる。
また、飲食サービス業においては、着席、注文、飲食物提供、食事終了、会計などのユーザの滞在状態すなわち時間経過に応じて、ユーザとの間で交わすべき対話の内容が大きく変化する。第1の実施形態によれば、ステータスデータに応じて異なるシナリオ群の対話シナリオ情報を用いて対話を行うことができるので、飲食サービスの提供場面におけるロボット2との対話感をより向上させることができる。
また、内部状態パラメータの蓄積状態に応じて対話内容を可変とすることで、ロボット2との対話感をさらに向上させることができる。
さらに、ユーザが選択した対話シナリオを音声出力することで、ユーザの発話を模擬することができるので、ロボット2との対話感をより一層向上させることができる。
また、ロボット側シナリオデータのうち、データ本体の識別情報であるシナリオIDのみをシナリオDB33に蓄積し、データ本体はロボット2側に蓄積させることで、ロボット2に発話をさせる際には、操作端末3側からロボット2側にシナリオIDを送信し、ロボット2側でシナリオIDに対応するデータ本体を音声出力すれば済む。この場合、操作端末3からロボット2にデータ本体を送信する場合と比較してデータ送信量を削減でき、対話の迅速性を向上させることが可能となる。
(動作例)
次に、図1のロボット制御システム1の主要な動作例について説明する。図3は、第1の実施形態によるロボット制御システム1の動作例を示すフローチャートである。図3のフローチャートは、必要に応じて繰り返される。
次に、図1のロボット制御システム1の主要な動作例について説明する。図3は、第1の実施形態によるロボット制御システム1の動作例を示すフローチャートである。図3のフローチャートは、必要に応じて繰り返される。
図3に示すように、先ず、滞在状態判断部342は、受信部341および店舗システム5を介してハンディ端末4からステータスデータを取得する(ステップS1)。
ここで、図4は、第1の実施形態によるロボット制御システム1の動作例において、滞在状態に基づいた事前動作の処理を示す図である。図4には、ステータスデータA1〜A5と、ステータスデータA1〜A5に基づいて判断される滞在状態B1〜B4と、滞在状態B1〜B4における事前動作に用いられる事前動作データC1〜C4とが時系列順に示されている。
図4の例において、滞在状態判断部342は、ユーザが入店または着席したことを示す第1のステータスデータA1、ユーザが飲食物を注文したことを示す第2のステータスデータA2、ユーザに飲食物が提供されたことを示す第3のステータスデータA3、ユーザが飲食を終了したことを示す第4のステータスデータA4、または、ユーザが会計または離席したことを示す第5のステータスデータA5を取得する。
ステータスデータの取得後、図3に示すように、滞在状態判断部342は、取得されたステータスデータに基づいてユーザの滞在状態を判断する(ステップS2)。
図4の例において、滞在状態判断部342は、第1のステータスデータA1を取得した場合、現在のユーザの滞在状態が、ユーザが飲食店に入店、又は、着席してから注文をするまでの状態である第1の滞在状態B1であると判断する。第2のステータスデータA2を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが注文した飲食物が提供されるのを待っている状態、すなわち、注文をして飲食物の提供を待機している第2の滞在状態B2であると判断する。第3のステータスデータA3を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが飲食物の飲食を完了するまでの状態、すなわち、飲食中である第3の滞在状態B3であると判断する。第4のステータスデータA4を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが飲食を完了してから退店するまでの状態である第4の滞在状態B4であると判断する。第5のステータスデータA5を取得した場合、滞在状態判断部342は、滞在状態を初期状態すなわちユーザの入店前の状態へと戻すようにしてもよい。
滞在状態の判断後、図3に示すように、情報取得部343は、判断された滞在状態が変更されたか否かを判定する(ステップS3)。ここで、滞在状態の変更には、ユーザの入店前の初期状態から第1の滞在状態B1への変更も含まれる。
滞在状態が変更された場合(ステップS3:Yes)、情報取得部343は、変更された滞在状態に応じたシナリオ群をシナリオDB33から選択する(ステップS4)。一方、滞在状態が変更されていない場合(ステップS3:No)、対話制御部345および動作生成部32は、後述する事前動作処理を実行する(ステップS7)。なお、ユーザが入店した直度は、必ず滞在状態が初期状態から第1の滞在状態B1へと変更されるので、ユーザが入店した直後にステップS3の判定結果が否定的(ステップS3:No)となることはない。
シナリオ群の選択後、情報取得部343は、変更された滞在状態に応じた事前動作データをシナリオDB33から選択する(ステップS5)。なお、事前動作データの選択は、シナリオ群の選択(ステップS4)と前後が入れ替わってもよく、または、シナリオ群の選択と同時でもよい。
図4の例において、情報取得部343は、滞在状態が初期状態から第1の滞在状態B1に変更された場合、第1の滞在状態B1における事前動作に用いられる第1の事前動作データC1を、シナリオDB33から選択する。滞在状態が第1の滞在状態B1から第2の滞在状態B2に変更された場合、情報取得部343は、第2の滞在状態B2における事前動作に用いられる第2の事前動作データC2を、シナリオDB33から選択する。滞在状態が第2の滞在状態B2から第3の滞在状態B3に変更された場合、情報取得部343は、第3の滞在状態B3における事前動作に用いられる第3の事前動作データC3を、シナリオDB33から選択する。滞在状態が第3の滞在状態B3から第4の滞在状態B4に変更された場合、情報取得部343は、第4の滞在状態B4における事前動作に用いられる第4の事前動作データC4を、シナリオDB33から選択する。
事前動作データの選択後、図3に示すように、情報取得部343は、ステップS4で選択されたシナリオ群の中から、入力部36からの対話シナリオ選択信号の入力による対話の進行に応じた現在使用すべきシナリオを選択する(ステップS6)。
シナリオの選択後、対話制御部345および動作生成部32は、選択された事前動作データを用いた事前動作処理を実行する(ステップS7)。具体的には、対話制御部345は、情報取得部343で選択された事前動作データを動作生成部32に出力する。動作生成部32は、対話制御部345から入力された事前動作データに基づいて事前動作用ロボット制御コマンドを生成し、生成された事前動作用ロボット制御コマンドをロボット制御部22に出力する。これにより、事前動作用ロボット制御コマンドに示される事前動作をロボット2に行わせる。
事前動作処理後、対話制御部345および動作生成部32は、選択されたシナリオを用いた対話動作処理を実行する(ステップS8)。具体的には、対話制御部345は、情報取得部343で選択されたロボット側シナリオデータを、動作生成部32に出力する。動作生成部32は、対話制御部345から入力されたロボット側シナリオデータに基づいて対話動作用ロボット制御コマンドを生成し、生成された対話動作用ロボット制御コマンドをロボット制御部22に出力する。これにより、対話動作用ロボット制御コマンドに示される対話動作をロボット2に行わせる。また、対話制御部345は、情報取得部343で選択されたロボット側シナリオデータに応答するユーザ側シナリオデータを表示部35に出力することで、ロボット2の対話動作に応答するシナリオの選択肢を表示させる。
図5は、第1の実施形態によるロボット制御システム1の動作例において、着席から注文までの期間中の事前動作をともなう対話の一例を示す図である。図5の例において、ロボット2は、第1の滞在状態B1における対話動作として、操作端末3によっておすすめメニュー(図示せず)が選択されたことに応答する「おすすめメニューを選択してくれたんだ。ありがとう!」という発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「もちろん!」という選択肢と、「やっぱり変える」という選択肢を表示している。これらの選択肢のうち、図5の例では、「もちろん!」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。
そして、選択肢「もちろん!」の選択に応じて、ロボット2は、第1の事前動作データC1に基づく事前動作処理により、事前動作として、「うんうん」という発話動作のみによる相槌動作を行っている。
この相槌動作に続く操作端末3の操作に応じた対話動作として、ロボット2は、「おすすめのメニューは、取れたて野菜と柔らかいお肉に特性のソースで味付けしてあるから、グッドチョイスだよ!店員さんを呼んで注文しよう!」という発話動作を行っている。この発話動作は、ユーザの選択肢の選択結果「もちろん!」に応じたシナリオの選択処理を経て行われるため、「もちろん!」の選択からタイムラグがある。
しかるに、図5の例では、選択肢「もちろん!」の選択と、これに応答する発話動作との間に相槌動作「うんうん」が行われているため、選択肢の選択と発話動作とのタイムラグが、これらの対話の間を繋ぐ相槌という自然な動作で補間されている。このような相槌動作をともなう対話動作がなされることで、ユーザは、着席してから飲食物を注文するまでの間に、ロボット2との間で途切れ感の無い自然な対話を楽しむことができる。
また、飲食物が注文される前の第1の滞在状態B1においては、ロボット2の動き(すなわち姿勢の変化)に気を取られないように、ロボット2の発話と画面表示を重視した対話を進行させることが、所望の注文をすみやかに行ううえで好ましい。図5の例によれば、第1の滞在状態B1に応じた事前動作として、発話動作および頷き動作のうち発話動作のみを含む相槌動作を行うことで、第1の滞在状態B1に適合した事前動作を行うことができる。
図6は、第1の実施形態によるロボット制御システム1の動作例において、着席から注文までの期間中の事前動作をともなう対話の他の一例を示す図である。図6の例において、ロボット2は、図5の例と同様に、第1の滞在状態B1における対話動作として、「おすすめメニューを選択してくれたんだ。ありがとう!」という発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「もちろん!」という選択肢と、「やっぱり変える」という選択肢を表示している。図6の例では、これらの選択肢のうち、図5の例と異なり、「やっぱり変える」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。
そして、選択肢「やっぱり変える」の選択に応じて、ロボット2は、第1の事前動作データC1に基づく事前動作処理による事前動作として、図5の例と同様に、「うんうん」という発話動作のみによる相槌動作を行っている。この相槌動作に続く対話動作として、ロボット2は、「もういちどメニューを選び直してね。」という発話動作を行っている。
図6の例では、図5の例と同じ第1の滞在状態B1の下で、選択肢の選択の結果が図5の例と異なるにもかかわらず、図5の例と同じ相槌動作を行っている。すなわち、対話制御部345は、選択肢の選択結果によらずロボット2にユーザの滞在状態に応じた共通の相槌動作を含む事前動作を行わせている。このように、同じ滞在状態の下で、選択肢の選択結果によらず共通の相槌動作を行うことで、選択肢の選択結果に左右される操作端末3に応じた発話動作よりも迅速に相槌動作を行うことができる。これにより、操作端末3の操作に応じた対話動作に先立った事前動作を確実に行うことができる。
図7(a)は、第1の実施形態によるロボット制御システムの動作例において、注文から飲食物提供までの期間中の対話例を示す図である。図7(b)は、図7(a)に続く事前動作をともなう対話例を示す図である。
図7(a)の例において、ロボット2は、第2の滞在状態B2における対話動作として、「料理が来るまでお話しよう!」という発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「いいよ」という選択肢と、「やめとく」という選択肢を表示している。これらの選択肢のうち、図7(a)の例では、「いいよ」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。
図7(a)に続く図7(b)の例において、ロボット2は、図7(a)における選択肢「いいよ」の選択に応じて、第2の事前動作データC2に基づく事前動作として、「うんうん」という発話動作と、頷き動作とによる相槌動作を行っている。
この相槌動作に続く操作端末3の操作に応じた対話動作として、ロボット2は、「では、僕がクイズをだすよ。」という発話動作を行っている。この発話動作は、ユーザの選択肢の選択結果「いいよ」に応じたシナリオの選択処理を経て行われるため、選択肢「いいよ」の選択からタイムラグがある。
しかるに、図7(a)および図7(b)の例では、選択肢「いいよ」の選択と、これに応答する発話動作との間に、相槌動作として発話動作「うんうん」および頷き動作が行われているため、選択肢の選択と発話動作とのタイムラグが、これらの対話の間を繋ぐ相槌という自然な動作で補間されている。このような相槌動作をともなう対話動作がなされることで、ユーザは、飲食物を注文したから飲食物が提供されるまでの間に、ロボット2との間で途切れ感の無い自然な対話を楽しむことができる
また、飲食物の注文後、飲食物が提供される前の第2の滞在状態B2において、ユーザは、特にすることがないため、飲食物の注文前よりもロボット2への関心が高まり易い。このような第2の滞在状態B2においては、発話だけでなくロボット2の動きを交えた豊かな表現による対話を進行させることが、対話による満足感をユーザに与えるうえで好ましい。図7(b)の例によれば、第2の滞在状態B2に応じた事前動作として、発話動作および頷き動作の双方による相槌動作を行うことで、第2の滞在状態B2に適合した事前動作を行うことができる。
図8(a)は、第1の実施形態によるロボット制御システム1の動作例において、飲食物提供から飲食終了までの期間中の対話例を示す図である。図8(b)は、図8(a)に続く事前動作をともなう対話例を示す図である。
図8(a)の例において、ロボット2は、第3の滞在状態B3における対話動作として、「食事中だから後でお話しよう!」という発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「いいよ」という選択肢と、「やだ」という選択肢を表示している。これらの選択肢のうち、図8(a)の例では、「いいよ」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。
図8(a)に続く図8(b)の例において、ロボット2は、図8(a)における「いいよ」の選択に応じて、第3の事前動作データC3に基づく事前動作として、頷き動作のみによる相槌動作を行っている。
この相槌動作に続く操作端末3の操作に応じた対話動作として、ロボット2は、無言の食事姿勢をとっている。食事姿勢は、基本的に、飲食が終了して第4の滞在状態B4に応じたシナリオが選択されるまで継続する。このように、飲食中は、原則として対話は進行しないが、図8(b)に示すように、メニューの追加が可能な選択肢については、飲食中においても表示部35に選択可能な状態で表示してもよい。
飲食中の第3の滞在状態B3では、ユーザがロボット2の発話内容に気を取られて美味しい料理が冷めてしまわないように飲食に専念してもらうことが、料理への満足感をユーザに与えるうえで好ましい。図8(b)の例によれば、第3の滞在状態B3に応じた事前動作として、頷き動作のみによる相槌動作を行うことで、第3の滞在状態B3に適合した事前動作を行うことができる。
対話動作処理後、図3に示すように、対話制御部345は、入力部36からの対話シナリオ選択信号に基づいて、以降の対話に用いるシナリオが変更されるか否かを判定する(ステップS9)。
シナリオを変更する場合(ステップS9:Yes)、情報取得部343は、シナリオ群から新たなシナリオを選択する(ステップS6)。
シナリオを変更しない場合(ステップS9:No)、情報取得部343は、入力部36からの対話シナリオ選択信号に基づいて、対話を終了させるか否かを判定する(ステップS10)。
対話を終了させると判定した場合(ステップS10:Yes)、対話制御部345は、対話を終了させる。対話を終了させないと判定した場合(ステップS10:No)、ステップS1以降の処理を繰り返す。
以上述べたように、第1の実施形態によれば、滞在状態に応じた事前動作を前提として操作端末3の操作に応じた対話動作を行うことができるので、飲食店におけるロボット2との対話を、滞在状態に適合した態様で違和感なく自然に行うことができる。
なお、図6〜図9(d)では、異なる滞在状態に応じて変化する相槌動作を含む事前動作の例について説明した。これに対して、対話制御部345は、同じ滞在状態においても、ユーザの飲食店内での滞在時間の経過に応じて変化する相槌動作を含む事前動作を行わせてもよい。例えば、同じ滞在状態の下で、初めのうちは、発話動作と頷き動作との双方による相槌動作を行っていたが、時間が経つにつれて、頷き動作のみによる相槌動作を行ったり、また、相槌動作のスピードを遅くしたりしてもよい。この場合、同じ滞在状態の中での時間変化に応じてより好適な事前動作をロボット2に行わせることが可能となる。
(第2の実施形態)
次に、ロボットが第1動作と第1動作に先立つ第2動作による対話動作を行う第2の実施形態について説明する。
次に、ロボットが第1動作と第1動作に先立つ第2動作による対話動作を行う第2の実施形態について説明する。
図9(a)は、第2の実施形態によるロボット制御システム1の動作例において、選択肢の表示例を示す図である。図9(b)は、図9(a)に続く事前動作の一例を示す図である。図9(c)は、図9(b)に続く第2動作の一例を示す図である。図9(d)は、図9(c)に続く第1動作の一例を示す図である。ここで、第1動作とは、操作端末3の操作に応じたロボット2の発話動作である。
第2の実施形態において、操作端末3の操作に応じた対話動作は、ロボット2が発話する第1動作と、第1動作に先だってロボット2の姿勢および外観の少なくとも一方を変化させる第2動作と、を含んでいる。対話制御部345は、ロボット2が第2動作を開始する前に、ロボット2に事前動作を行わせる。以下、具体例を説明する。
図9(a)の例において、ロボット2は、第2の滞在状態B2における対話動作処理に応じた対話動作として、「では、僕がクイズをだすよという発話動作を行っている。このとき、操作端末3の表示部35は、ロボット2の発話動作に応答する対話の選択肢として、「楽しみ!」という選択肢と、「やだ」という選択肢を表示している。これらの選択肢のうち、図9(a)の例では、「楽しみ!」という選択肢が、入力部36の一例であるタッチパネルの押下によって選択されている。
図9(a)に続く図9(b)の例において、ロボット2は、図9(a)における選択肢「楽しみ!」の選択に応じて、第2の事前動作データC2に基づく事前動作として、「うんうん」という発話動作と、頷き動作とによる相槌動作を行っている。
この相槌動作に続く操作端末3の操作に応じた対話動作として、ロボット2は、先ず、図9(c)に示すように、第2動作の一例である眼球部の点灯を行っている。そして、眼球部の点灯に続く対話動作として、ロボット2は、図9(d)に示すように、第1動作の一例である「僕も楽しみ!では、第1問目!」という発話動作を行っている。
この発話動作(第1動作)は、ユーザの選択肢の選択結果「楽しみ!」に応じたシナリオの選択処理を経て行われるため、眼球部の点灯(第2動作)からタイムラグがある。
しかるに、図9(a)および図9(b)の例では、眼球部の点灯前に、相槌動作として発話動作「うんうん」および頷き動作が行われているため、眼球部の点灯と発話動作とのタイムラグによる違和感が、相槌動作によって緩和されている。このような相槌動作をともなう対話動作がなされることで、ユーザは、ロボット2との間で違和感のない自然な対話を楽しむことができる。
(第3の実施形態)
次に、シナリオDB33がクラウド上に存在する第3の実施形態について説明する。図10は、第3の実施形態によるロボット制御システム1を示すブロック図である。上述した実施形態においては、シナリオDB33が操作端末3内に設置されていた。これに対して、第3の実施形態においては、図10に示すように、シナリオDB33が操作端末3の外部に存在する。シナリオ制御部34は、ネットワーク6を介してシナリオDB33と接続される。
次に、シナリオDB33がクラウド上に存在する第3の実施形態について説明する。図10は、第3の実施形態によるロボット制御システム1を示すブロック図である。上述した実施形態においては、シナリオDB33が操作端末3内に設置されていた。これに対して、第3の実施形態においては、図10に示すように、シナリオDB33が操作端末3の外部に存在する。シナリオ制御部34は、ネットワーク6を介してシナリオDB33と接続される。
シナリオDB33は、操作端末3の外部の所定のサーバに備えられているものでもよく、または、特定のサーバではなく、ネットワーク6により接続される所謂クラウド上に存在するデータベースであってもよい。ネットワーク6と、操作端末3又はシナリオDB33は、有線又は無線の通信を介して接続される。
第3の実施形態によれば、シナリオDB33を操作端末3内ではなく外部に有することにより、操作端末3の容量を確保することが可能となるとともに、シナリオデータの一元管理をすることも可能となる。さらに、シナリオDB33がクラウド上に存在し、特定多数の編集者がシナリオデータを編集、あるいは、追加することが可能であるように設定することにより、よりバリエーションに富んだ対話内容を選択することも可能となる。
(第4の実施形態)
次に、ロボット2側に主要な制御機能を備えた第4の実施形態について説明する。図11は、第4の実施形態によるロボット制御システム1を示すブロック図である。図11に示すように、動作生成部32、シナリオ制御部34、及び、シナリオDB33は、操作端末3ではなく、ロボット2内に備えられているものとしてもよい。すなわち、主要な制御機能を操作端末3ではなく、ロボット2に備えるようにしてもよい。動作生成部32、及び、シナリオ制御部34の動作は、上述した実施形態における動作と大きく異なることはなく、本実施形態においても、図3に示すフローチャートにしたがって事前動作をともなう対話の処理が実行される。
次に、ロボット2側に主要な制御機能を備えた第4の実施形態について説明する。図11は、第4の実施形態によるロボット制御システム1を示すブロック図である。図11に示すように、動作生成部32、シナリオ制御部34、及び、シナリオDB33は、操作端末3ではなく、ロボット2内に備えられているものとしてもよい。すなわち、主要な制御機能を操作端末3ではなく、ロボット2に備えるようにしてもよい。動作生成部32、及び、シナリオ制御部34の動作は、上述した実施形態における動作と大きく異なることはなく、本実施形態においても、図3に示すフローチャートにしたがって事前動作をともなう対話の処理が実行される。
第4の実施形態によれば、操作端末3の構成を簡略化でき、また、操作端末3からロボット2へと送信する通信料を削減できるため、操作端末3とロボット2との間の通信回線の性能が低い場合でも、支障なくロボット2との対話を行うことができる。なお、動作生成部32は、操作端末3及びロボット2の外部に設けられていてもよく、例えば、店舗システム5に内蔵されていてもよいし、店舗システム5とは別個の通信機器内に設けてもよい。
本発明の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本発明の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
1 ロボット制御システム、2 ロボット、22 ロボット制御部、3 操作端末、34 シナリオ制御部
Claims (12)
- 飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットと、
前記ロボットを操作する前記指令信号を生成する操作端末と、
前記顧客の前記飲食店内での滞在状態を判断する滞在状態判断部と、
前記操作端末の操作に応じた動作を前記ロボットに行わせる前に、前記滞在状態判断部にて判断された前記顧客の滞在状態に基づいた事前動作を前記ロボットに行わせる動作制御部と、を備える、ロボット制御システム。 - 前記動作制御部は、前記操作端末の操作に応じた動作を前記ロボットが実行可能になるまでの間に、前記事前動作を前記ロボットに行わせる、請求項1に記載のロボット制御システム。
- 前記操作端末の操作に応じた動作は、前記操作端末の操作に応じた対話動作を含み、
前記事前動作は、前記顧客の滞在状態に基づいて前記ロボットが行う予め定めた対話動作を含む、請求項1または2に記載のロボット制御システム。 - 前記指令信号は、前記飲食店に来店した顧客が前記操作端末を操作することで選択された対話シナリオ情報に基づく対話のための選択肢に基づいて生成され、
前記操作端末の操作に応じた動作は、前記選択された選択肢に基づく対話シナリオの進行に伴って前記ロボットが行う対話動作を含み、
前記事前動作は、前記操作端末の操作に応じた対話動作を前記ロボットが開始するまでの間を繋ぐ相槌動作を含む、請求項1乃至3のいずれか一項に記載のロボット制御システム。 - 前記対話動作は、前記操作端末の操作に応じて前記ロボットが発話する動作を含み、
前記相槌動作は、前記ロボットが予め定めた発話を行う動作を含む、請求項4に記載のロボット制御システム。 - 前記事前動作は、前記ロボットの姿勢および外観の少なくとも一方を変化させる動作を含む、請求項1乃至5のいずれか一項に記載のロボット制御システム。
- 前記対話動作は、前記飲食店に来店した顧客との飲食物のメニュー選択に関する対話動作を含む、請求項3乃至5のいずれか一項に記載のロボット制御システム。
- 前記動作制御部は、前記選択肢の選択結果によらず前記ロボットに前記顧客の滞在状態に応じた共通の相槌動作を含む前記事前動作を行わせる、請求項4または5に記載のロボット制御システム。
- 前記動作制御部は、前記顧客の前記飲食店内での滞在時間の経過に応じて変化する前記相槌動作を含む前記事前動作を行わせる、請求項3乃至7のいずれか一項に記載のロボット制御システム。
- 前記操作端末の操作に応じた動作は、前記ロボットが発話する第1動作と、前記第1動作に先だって前記ロボットの姿勢および外観の少なくとも一方を変化させる第2動作と、を含んでおり、
前記事前動作は、前記ロボットが前記第2動作を開始する前に行われる、請求項1乃至9のいずれか一項に記載のロボット制御システム。 - 前記動作制御部は、前記ロボットまたは前記操作端末の内部に設けられる、請求項1乃至10のいずれか一項に記載のロボット制御システム。
- 飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットに対して前記指令信号を送信するロボット制御装置であって、
前記顧客の前記飲食店内での滞在状態を判断し、前記ロボットを操作する操作端末の操作に応じた動作を前記ロボットに行わせる前に、判断した前記顧客の滞在状態に基づいた事前動作を前記ロボットに行わせる動作制御部を有するロボット制御装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017059990A JP2018161706A (ja) | 2017-03-24 | 2017-03-24 | ロボット制御システムおよびロボット制御装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017059990A JP2018161706A (ja) | 2017-03-24 | 2017-03-24 | ロボット制御システムおよびロボット制御装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018161706A true JP2018161706A (ja) | 2018-10-18 |
Family
ID=63859121
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017059990A Pending JP2018161706A (ja) | 2017-03-24 | 2017-03-24 | ロボット制御システムおよびロボット制御装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018161706A (ja) |
-
2017
- 2017-03-24 JP JP2017059990A patent/JP2018161706A/ja active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11024294B2 (en) | System and method for dialogue management | |
| CN111801730B (zh) | 用于人工智能驱动的自动伴侣的系统和方法 | |
| US11222632B2 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
| US11003860B2 (en) | System and method for learning preferences in dialogue personalization | |
| Pearl | Designing voice user interfaces: Principles of conversational experiences | |
| US11468894B2 (en) | System and method for personalizing dialogue based on user's appearances | |
| US11504856B2 (en) | System and method for selective animatronic peripheral response for human machine dialogue | |
| CN105989165B (zh) | 在即时聊天工具中播放表情信息的方法、装置及系统 | |
| US10967508B2 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
| US10994421B2 (en) | System and method for dynamic robot profile configurations based on user interactions | |
| AU2017228574A1 (en) | Apparatus and methods for providing a persistent companion device | |
| WO2018174289A1 (ja) | 対話制御システム、及び、ロボット制御システム | |
| US20220241977A1 (en) | System and method for dynamic program configuration | |
| US20190248001A1 (en) | Conversation output system, conversation output method, and non-transitory recording medium | |
| WO2018174287A1 (ja) | 店舗管理システム | |
| JP2018161706A (ja) | ロボット制御システムおよびロボット制御装置 | |
| JP2018161707A (ja) | ロボット制御システムおよびロボット制御装置 | |
| JP2018161703A (ja) | 対話制御装置およびロボット制御システム | |
| WO2018174285A1 (ja) | 対話制御装置及び対話システム | |
| JP2018161708A (ja) | ロボット制御システムおよびロボット制御装置 | |
| JP2018161710A (ja) | 対話制御装置及びロボット制御システム | |
| JP2018161709A (ja) | 対話制御システムおよび対話制御装置 | |
| JP2018161715A (ja) | 対話制御装置および対話システム | |
| JP2018161702A (ja) | ロボット制御システムおよびロボット制御装置 | |
| Kim et al. | Synchronized multimodal expression generation using editing toolkit for a human-friendly robot |