[go: up one dir, main page]

JP2018161713A - Dialog control device and robot control system - Google Patents

Dialog control device and robot control system Download PDF

Info

Publication number
JP2018161713A
JP2018161713A JP2017060035A JP2017060035A JP2018161713A JP 2018161713 A JP2018161713 A JP 2018161713A JP 2017060035 A JP2017060035 A JP 2017060035A JP 2017060035 A JP2017060035 A JP 2017060035A JP 2018161713 A JP2018161713 A JP 2018161713A
Authority
JP
Japan
Prior art keywords
scenario
dialogue
unit
dialog
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017060035A
Other languages
Japanese (ja)
Inventor
内 智 彦 大
Tomohiko Ouchi
内 智 彦 大
田 雄 介 柴
Yusuke Shibata
田 雄 介 柴
川 浩 平 小
Kohei Ogawa
川 浩 平 小
川 雄一郎 吉
Yuichiro Yoshikawa
川 雄一郎 吉
黒 浩 石
Hiroshi Ishiguro
黒 浩 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zensho Holdings Co Ltd
University of Osaka NUC
Original Assignee
Osaka University NUC
Zensho Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Zensho Holdings Co Ltd filed Critical Osaka University NUC
Priority to JP2017060035A priority Critical patent/JP2018161713A/en
Publication of JP2018161713A publication Critical patent/JP2018161713A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Cash Registers Or Receiving Machines (AREA)

Abstract

【課題】顧客との自然な対話を行うことが可能な対話制御装置およびロボット制御システムを提供する。【解決手段】対話制御装置は、情報取得部と、シナリオ進行制御部と、シナリオ補正部と、補正対話シナリオ発話部と、を備える。情報取得部は、飲食店に来店した顧客と対話するための対話シナリオ情報を複数の対話シナリオ情報から取得する。シナリオ進行制御部は、取得した対話シナリオ情報に対応する対話シナリオの進行を制御する。シナリオ補正部は、滞在状態判断部にて判断された顧客の滞在状態に基づいて、対話シナリオの補正処理を行う。補正対話シナリオ発話部は、対話シナリオの進行を戻す又は進める指示がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオをシナリオ補正部にて補正処理された対話シナリオに置き換えて発話させる。【選択図】図1An interactive control apparatus and a robot control system capable of performing a natural dialog with a customer are provided. A dialogue control apparatus includes an information acquisition unit, a scenario progress control unit, a scenario correction unit, and a corrected dialogue scenario utterance unit. The information acquisition unit acquires dialog scenario information for interacting with a customer who has visited a restaurant from a plurality of dialog scenario information. The scenario progress control unit controls the progress of the dialog scenario corresponding to the acquired dialog scenario information. The scenario correction unit corrects the dialogue scenario based on the stay state of the customer determined by the stay state determination unit. The corrected dialogue scenario utterance unit is a dialogue scenario in which the scenario correction unit corrects the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after when an instruction to return or advance the dialogue scenario is given. To speak. [Selection] Figure 1

Description

本発明は、対話制御装置およびロボット制御システムに関する。   The present invention relates to a dialog control device and a robot control system.

近年、レストランその他公共施設において、来場客の案内役としてヒューマノイド型ロボットを活用する事例が見られる(特許文献1参照)。このようなロボットとのコミュニケーション(対話)を専用の操作端末を用いて行う技術が検討されており、この技術によれば、顧客は、操作端末を介してロボットとの対話を楽しんだり、案内情報を入手したりすることができる。   In recent years, there have been cases where humanoid robots are used as a guide for visitors in restaurants and other public facilities (see Patent Document 1). A technology for performing communication (dialogue) with such robots using dedicated operation terminals is being studied. According to this technology, customers can enjoy dialogues with robots via operation terminals and provide guidance information. Can be obtained.

具体的には、テーブル席に設置されたロボットと、直接的あるいはタブレット等を介して間接的に対話を行うサービスが考えられる。この場合、お薦めメニューを提示したり、雑談をしたりすることにより顧客の満足度を向上させることができる。   Specifically, a service is conceivable in which the user can interact directly or indirectly with a robot installed at a table seat. In this case, customer satisfaction can be improved by presenting a recommended menu or chatting.

特開2015−66623号公報Japanese Patent Laying-Open No. 2015-66623

しかしながら、飲食店内では様々な音(会話、食器音、人の歩く音、店員のあいさつ等)が入り混じっており、ロボットの発話内容を聞き取れないことが多々あり、聞き漏らした内容を再度再生する必要が生じることがある。この際に一度話した内容と同じ内容をロボットに発話させると、“いかにもロボットと対話している”と客に感じさせてしまうという問題がある。   However, various sounds (conversations, tableware sounds, people walking, clerk greetings, etc.) are mixed in the restaurant, and it is often impossible to hear the content of the robot's utterance. May occur. In this case, if the robot speaks the same content as once spoken, there is a problem that it makes the customer feel that they are “interacting with the robot”.

そこで、本発明が解決しようとする課題は、顧客との自然な対話を行うことが可能な対話制御装置およびロボット制御システムを提供することである。   Therefore, the problem to be solved by the present invention is to provide a dialog control device and a robot control system capable of performing a natural dialog with a customer.

一実施形態に係る対話制御装置は、飲食店に来店した顧客と対話するための対話シナリオ情報を複数の対話シナリオ情報から取得する情報取得部と、取得した対話シナリオ情報に対応する対話シナリオの進行を制御するシナリオ進行制御部と、顧客の飲食店内での滞在状態を判断する滞在状態判断部と、滞在状態判断部にて判断された顧客の滞在状態に基づいて、対話シナリオの補正処理を行うシナリオ補正部と、対話シナリオの進行を戻す又は進める指示がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオをシナリオ補正部にて補正処理された対話シナリオに置き換えて発話させる補正対話シナリオ発話部と、を備える。   An interactive control device according to an embodiment includes an information acquisition unit that acquires interactive scenario information for interacting with a customer who has visited a restaurant from a plurality of interactive scenario information, and progress of the interactive scenario corresponding to the acquired interactive scenario information Based on the stay state of the customer determined by the stay state determination unit and the stay state determination unit that determines the stay state of the customer in the restaurant When the scenario correction unit and an instruction to return or advance the progress of the dialog scenario are given, the dialog scenario executed immediately before or the dialog scenario to be executed immediately after is replaced with the dialog scenario corrected by the scenario correction unit. And a corrected dialogue scenario utterance section that causes the user to utter.

補正対話シナリオ発話部は、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオをシナリオ補正部にて補正処理された対話シナリオに置き換えて発話させる前に、予め定めた所定の言葉を発話させもよい。   The corrected dialogue scenario utterance unit replaces the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after with the dialogue scenario corrected by the scenario correction unit and utters a predetermined predetermined word. You can also speak.

所定の言葉は、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオの発話を開始することを報知する言葉を含めてもよい。   The predetermined word may include a word informing that the utterance of the dialog scenario executed immediately before or the dialog scenario to be executed immediately after is started.

シナリオ補正部は、滞在状態判断部にて判断された顧客の滞在状態に基づいて、対話シナリオを要約する補正処理を行うようにしてもよい。   The scenario correction unit may perform correction processing for summarizing the dialogue scenario based on the stay state of the customer determined by the stay state determination unit.

シナリオ補正部は、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを要約した要約シナリオを生成し、補正対話シナリオ発話部は、生成された要約シナリオを発話させもよい。   The scenario correction unit may generate a summary scenario that summarizes the dialog scenario executed immediately before or the dialog scenario to be executed immediately after, and the correction dialog scenario utterance unit may utter the generated summary scenario.

補正対話シナリオ発話部は、直前に実行された対話シナリオ及び直後に実行されるべき対話シナリオの要約を蓄積したシナリオ要約蓄積部から取得して発話させもよい。   The corrected dialogue scenario utterance unit may acquire the dialogue scenario executed immediately before and the summary of the dialogue scenario to be executed immediately after, from the scenario summary accumulation unit that accumulated the utterance.

ロボットとの対話のための情報入力、情報選択および情報操作の少なくとも一つを行うユーザインタフェース部を更に備え、補正対話シナリオ発話部は、ユーザインタフェース部によって対話シナリオの進行を戻すまたは進める情報入力、情報選択または情報操作がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを要約してロボットに発話させてもよい。   A user interface unit that performs at least one of information input, information selection, and information operation for dialogue with the robot, and the correction dialogue scenario utterance unit is an information input that returns or advances the progress of the dialogue scenario by the user interface unit; When information selection or information manipulation is performed, the dialog scenario executed immediately before or the dialog scenario to be executed immediately after may be summarized and the robot may speak.

ユーザインタフェース部は、タッチパネルを有し、タッチパネル内に対話の進行を制御するための少なくとも一つの指標を表示させる第1制御部と、指標の操作に応じて、対話を進めるか、戻すか、停止するか、又は切り替える制御を行う第2制御部と、を更に備えてもよい。   The user interface unit has a touch panel, and a first control unit that displays at least one index for controlling the progress of the dialog in the touch panel, and advances, returns, or stops the dialog according to the operation of the index Or a second control unit that performs control of switching.

ユーザインタフェース部は、指標に基づいてタッチパネルをなぞった方向を示す第1検出信号を出力し、第2制御部は、第1検出信号に基づき、対話を進めるか、又は戻すかの制御を行い、補正対話シナリオ発話部は、第2制御部が対話を戻す制御又は対話を進める制御を行う際に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを要約して発話させてもよい。   The user interface unit outputs a first detection signal indicating a direction in which the touch panel is traced based on the index, and the second control unit controls whether to advance or return the dialogue based on the first detection signal, The correction dialogue scenario utterance unit may summarize the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after the second control unit performs control to return the dialogue or control to advance the dialogue. Good.

一実施形態に係るロボット制御システムは、指示信号に応じた動作を行うロボットと、
指示信号を生成してロボットを操作する操作端末と、を備え、操作端末は、
飲食店に来店した顧客と対話するための対話シナリオ情報を複数の対話シナリオ情報から取得する情報取得部と、取得した対話シナリオ情報に対応する対話シナリオの進行を制御するシナリオ進行制御部と、顧客の飲食店内での滞在状態を判断する滞在状態判断部と、滞在状態判断部にて判断された顧客の滞在状態に基づいて、対話シナリオの補正処理を行うシナリオ補正部と、対話シナリオの進行を戻す又は進める指示がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオをシナリオ補正部にて補正処理された対話シナリオに置き換えて発話させる対話シナリオ発話部と、を備える。
A robot control system according to an embodiment includes a robot that performs an operation according to an instruction signal;
An operation terminal for operating the robot by generating an instruction signal,
An information acquisition unit that acquires dialogue scenario information for interacting with a customer who has visited a restaurant from a plurality of dialogue scenario information, a scenario progress control unit that controls the progress of the conversation scenario corresponding to the acquired dialogue scenario information, and the customer The stay state determination unit that determines the stay state in the restaurant, the scenario correction unit that corrects the dialogue scenario based on the stay state of the customer determined by the stay state determination unit, and the progress of the conversation scenario A dialogue scenario utterance unit that, when instructed to return or proceed, replaces the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after with the dialogue scenario corrected by the scenario correction unit, and Prepare.

本発明によれば、顧客との自然な対話を行うことが可能な対話制御装置およびロボット制御システムを提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the dialog control apparatus and robot control system which can perform a natural dialog with a customer can be provided.

一実施形態に係るロボット制御システムの一例を示すブロック図。The block diagram which shows an example of the robot control system which concerns on one Embodiment. 一実施形態に係る入力部の一例を示すブロック図。The block diagram which shows an example of the input part which concerns on one Embodiment. 一実施形態に係るシナリオ制御部のブロック図。The block diagram of the scenario control part which concerns on one Embodiment. シナリオ制御が行う対話の進行制御に関する動作例を示すフローチャー。A flowchart showing an operation example related to the progress control of the dialogue performed by the scenario control. 図4中のステップS13の詳細な処理を示すフローチャート。The flowchart which shows the detailed process of step S13 in FIG. ロボットとユーザとの対話の一例を示す図。The figure which shows an example of the dialogue between a robot and a user. 選択肢がユーザにより選択された場合の表示部の表示例を示す図。The figure which shows the example of a display of a display part when a choice is selected by the user. 図5で先送りがユ−ザに指示された場面を示す図。FIG. 6 is a diagram illustrating a scene in which a user is instructed to send forward in FIG. 5. 注文が終了し、料理が来るのを待っている場面を示す図。The figure which shows the scene which is waiting for order to finish and a dish to come. 第1変形例に係るロボット制御システムの一例を示すブロック図。The block diagram which shows an example of the robot control system which concerns on a 1st modification. 第2変形例に係るロボット制御システムの構成を示す図The figure which shows the structure of the robot control system which concerns on a 2nd modification.

以下、本発明の実施形態に係る対話制御システム及びロボット制御システムの構成及び作用について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分又は同様な機能を有する部分には同一の符号又は類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。   Hereinafter, configurations and operations of a dialog control system and a robot control system according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, embodiment shown below is an example of embodiment of this invention, This invention is limited to these embodiment, and is not interpreted. In the drawings referred to in this embodiment, the same portions or portions having similar functions are denoted by the same reference symbols or similar symbols, and repeated description thereof may be omitted. In addition, the dimensional ratio in the drawing may be different from the actual ratio for convenience of explanation, or a part of the configuration may be omitted from the drawing.

図1は、本発明の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(Point of Sales)システムなどの店舗システム5と、を備える。ロボット制御システム1は、例えば、飲食店の顧客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話をするためのシステムである。なお、本実施形態に係る対話制御装置は、操作端末3により構成される。   FIG. 1 is a block diagram showing a robot control system 1 according to an embodiment of the present invention. As shown in FIG. 1, the robot control system 1 includes a robot 2, an operation terminal 3 that is an example of a robot control device, a handy terminal 4, and a store system 5 such as a POS (Point of Sales) system. . The robot control system 1 is, for example, a system for a restaurant customer (hereinafter referred to as a user) to interact with the robot 2 via the operation terminal 3 that operates the robot 2. Note that the dialogue control apparatus according to the present embodiment includes the operation terminal 3.

図1におけるロボット2は、人間に似た外観及び対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。   The robot 2 in FIG. 1 is a machine having a human-like appearance and interactive function, that is, a humanoid. Note that the robot 2 may have a dissimilar appearance to humans such as animals and characters. Further, the robot 2 may be a virtual robot based on an image displayed on the display unit 35.

(ロボット2)
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動するものであってもよいし、電池等のバッテリにより駆動するものであってもよい。
(Robot 2)
As shown in FIG. 1, the robot 2 includes a robot drive unit 21 and a robot control unit 22 that is an example of a drive control unit. The robot 2 may be driven by electric power supplied from a commercial power source, or may be driven by a battery such as a battery.

ロボット駆動部21は、ロボット2の発話音声を出力する音声出力装置を備える。ロボット駆動部21を必要に応じて駆動させることにより、ユーザとの対話を行うためにロボット2に発話させることができる。ロボット駆動部21には、ロボット制御部22から、ロボット駆動部21の駆動を制御する駆動制御信号が入力される。ロボット駆動部21は、駆動制御信号に応じて駆動される。なお、ロボット駆動部21は、他に、自由度を有するロボット2の部位を駆動するアクチュエータや、ロボット2の眼球部を点灯させる点灯装置等を有していてもよい。   The robot drive unit 21 includes a voice output device that outputs the speech voice of the robot 2. By driving the robot drive unit 21 as necessary, the robot 2 can speak to perform a dialogue with the user. A drive control signal for controlling the drive of the robot drive unit 21 is input from the robot control unit 22 to the robot drive unit 21. The robot drive unit 21 is driven according to the drive control signal. In addition, the robot drive unit 21 may include an actuator that drives a portion of the robot 2 having a degree of freedom, a lighting device that lights the eyeball unit of the robot 2, and the like.

ロボット制御部22は、指令信号の一例であるロボット制御コマンドを操作端末3から受信する。ロボット制御部22は、受信したロボット制御コマンドに基づいて上述の駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21へと出力する。すなわち、ロボット2は、ロボット制御コマンドに応じて動作することができる。なお、ロボット2を発話させるためのコマンドには、発話内容を示すデータ(後述するシナリオデータ)が含まれる。   The robot control unit 22 receives a robot control command, which is an example of a command signal, from the operation terminal 3. The robot control unit 22 generates the above-described drive control signal based on the received robot control command, and outputs the generated drive control signal to the robot drive unit 21. That is, the robot 2 can operate according to the robot control command. Note that the command for causing the robot 2 to speak includes data indicating the content of the utterance (scenario data described later).

ロボット制御部22は、例えば、アプリケーションプログラムやこれを動作させるオペレーティングシステムなどのソフトウェアが記憶された少なくとも1つのメモリと、メモリに記憶されたソフトウェアを実行するCPU(Central Processing Unit)とを有し、メモリに記憶されたソフトウェアをCPUが実行することにより駆動制御信号を生成してもよい。   The robot control unit 22 includes, for example, at least one memory in which software such as an application program and an operating system for operating the application program is stored, and a CPU (Central Processing Unit) that executes the software stored in the memory. The drive control signal may be generated by the CPU executing software stored in the memory.

(操作端末3)
操作端末3は、ユーザが携帯するものであり、例えば、タッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、センサの一例である方位センサ31と、指令信号生成部及び送信部の一例である動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。
(Operation terminal 3)
The operation terminal 3 is carried by the user and is, for example, a tablet terminal having a touch function. In addition, the operation terminal 3 may be a smartphone, a desktop display type terminal, or the like. As illustrated in FIG. 1, the operation terminal 3 includes an orientation sensor 31 that is an example of a sensor, and an operation generation unit 32 that is an example of a command signal generation unit and a transmission unit. The operation terminal 3 is driven by electric power supplied from the built-in battery.

方位センサ31は、操作端末3の方位を示す方位検出信号を動作生成部32へと出力する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32へと出力する。動作生成部32は、例えば、方位センサ31からの方位検出信号に基づいて、操作端末3が存在する方向を向くように、ロボット2の姿勢を制御するためのロボット制御コマンドを生成する。   The orientation sensor 31 outputs an orientation detection signal indicating the orientation of the operation terminal 3 to the motion generation unit 32. The direction sensor 31 outputs a direction detection signal indicating the detected direction of the operation terminal 3 to the motion generation unit 32. For example, the motion generation unit 32 generates a robot control command for controlling the posture of the robot 2 so as to face the direction in which the operation terminal 3 exists based on the direction detection signal from the direction sensor 31.

動作生成部32は、方位センサ31の出力に基づいてロボット2の動作を制御するロボット制御コマンドを生成する。動作生成部32は、生成されたロボット制御コマンドを、例えば、Wi−Fiなどの無線通信を介してロボット制御部22へと送信する。ロボット制御部22は、動作生成部32からのロボット制御コマンドを受信し、受信されたロボット制御コマンドに応じた駆動制御信号をロボット駆動部21へと出力することにより、ロボット2の動作の制御を行う。   The motion generation unit 32 generates a robot control command for controlling the motion of the robot 2 based on the output of the direction sensor 31. The motion generation unit 32 transmits the generated robot control command to the robot control unit 22 via wireless communication such as Wi-Fi, for example. The robot control unit 22 receives the robot control command from the motion generation unit 32, and outputs a drive control signal corresponding to the received robot control command to the robot drive unit 21, thereby controlling the operation of the robot 2. Do.

また、動作生成部32は、対話に用いるシナリオデータに基づいてロボット2を制御するロボット制御コマンドを生成する。これにより、対話データを音声として発生させるロボット制御コマンドをロボット制御部22へと送信することにより、ロボット2から音声を発生させる。この際、シナリオデータに基づいてロボット2の口の部分を開閉させたり、光らせたりするロボット制御コマンドを併せてロボット制御部22に送信し、ロボット2の口を開閉させたり、光らせたりさせることもできる。ロボット2から出力される音声は、意味のある言葉を含む発話でもよいし、言葉を含まない擬制音などでもよい。   Further, the motion generation unit 32 generates a robot control command for controlling the robot 2 based on scenario data used for dialogue. Thus, the robot 2 generates a voice by transmitting a robot control command for generating dialogue data as a voice to the robot control unit 22. At this time, a robot control command for opening / closing or illuminating the mouth portion of the robot 2 based on the scenario data is also transmitted to the robot control unit 22 to open / close or illuminate the mouth of the robot 2. it can. The voice output from the robot 2 may be an utterance that includes a meaningful word, or may be an artificial sound that does not include a word.

ロボット2の動作としては、音声を用いてユーザと会話を行う対話動作も含まれる。ユーザとロボット2との間での対話を行うための構成として、操作端末3は、上述の動作生成部32に加え、さらに、シナリオDB(データベース)33と、シナリオ制御部34と、表示部35と、入力部36と、音声出力部37とを備える。   The operation of the robot 2 includes an interactive operation in which a conversation with the user is performed using voice. As a configuration for performing a dialogue between the user and the robot 2, the operation terminal 3 includes a scenario DB (database) 33, a scenario control unit 34, and a display unit 35 in addition to the motion generation unit 32 described above. And an input unit 36 and an audio output unit 37.

図1に示すように、シナリオDB33Aには、ユーザとロボット2との間での対話を行うための複数の対話シナリオ情報が蓄積されている。対話シナリオ情報には、複数のシナリオ群(各シナリオ群は複数の対話シナリオを有する)や、複数の対話シナリオが含まれており、一つの対話シナリオは、ロボット2とユーザとの間でやり取りされる対話のストーリである。一つの対話シナリオには、ロボット2が対話、すなわち発話、動作などに用いるロボット側シナリオデータと、ユーザが対話、すなわち、操作端末3での選択に用いるユーザ側シナリオデータとで構成されている。ユーザ側シナリオデータは、ロボット側シナリオデータに対して応答可能な幾つかの対話シナリオデータを含んでおり、これらの中から任意のデータをユーザは入力部36にて選択することができる。そして、ユーザ側シナリオデータに示される対話シナリオの選択肢のそれぞれに、互いに異なる新たな下位のユーザ側シナリオデータが対応付けられている。すなわち、対話シナリオデータは、ロボット側シナリオデータとユーザ側シナリオデータが交互にノードとして結合されたツリー構造を有する。ツリー構造のうち、最上位から最下位にわたる所定の一連のノード群は、例えば典型的な対話に用いられる基本シナリオとして管理されている。また、他のノード群は、基本シナリオを補正する補正シナリオとして管理されていてもよい。   As shown in FIG. 1, the scenario DB 33A stores a plurality of pieces of dialog scenario information for performing a dialog between the user and the robot 2. The dialogue scenario information includes a plurality of scenario groups (each scenario group has a plurality of dialogue scenarios) and a plurality of dialogue scenarios. One dialogue scenario is exchanged between the robot 2 and the user. This is a story of dialogue. One dialogue scenario includes robot-side scenario data used by the robot 2 for dialogue, that is, speech and movement, and user-side scenario data used for dialogue, that is, selection by the operation terminal 3. The user-side scenario data includes some dialogue scenario data that can respond to the robot-side scenario data, and the user can select arbitrary data from among these by the input unit 36. Then, different lower-order user-side scenario data different from each other are associated with each of the dialogue scenario options shown in the user-side scenario data. That is, the dialogue scenario data has a tree structure in which the robot side scenario data and the user side scenario data are alternately coupled as nodes. In the tree structure, a predetermined series of nodes ranging from the highest level to the lowest level is managed as a basic scenario used for a typical dialogue, for example. Other node groups may be managed as a correction scenario for correcting the basic scenario.

シナリオDB33Bは、対話シナリオの要約を蓄積している。すなわち、このシナリオDB33Bは、シナリオDB33Aと対となるデータベースであり、シナリオDB33Bは、シナリオDB33Aが蓄積する対話シナリオ情報の要約を蓄積している。なお、本実施形態に係るシナリオDB33Aがシナリオ要約蓄積部を構成している。   The scenario DB 33B accumulates a summary of dialogue scenarios. That is, the scenario DB 33B is a database that is paired with the scenario DB 33A, and the scenario DB 33B stores a summary of the dialogue scenario information stored in the scenario DB 33A. The scenario DB 33A according to the present embodiment constitutes a scenario summary accumulation unit.

シナリオ制御部34は、店舗システム5から出力されたデータに基づいてシナリオを制御する。本実施形態に係る表示部35はタッチパネルを構成する例えば液晶パネルである。また、本実施形態に係る入力部36は、タッチパネルをタッチまたはスワイプする(触る、またはなぞる)ことで、種々の情報を入力する。   The scenario control unit 34 controls the scenario based on the data output from the store system 5. The display unit 35 according to the present embodiment is, for example, a liquid crystal panel constituting a touch panel. The input unit 36 according to the present embodiment inputs various information by touching or swiping (touching or tracing) the touch panel.

図2は、入力部36の一例を示すブロック図である。この図2に示すように入力部36は、第1信号入力部361と、第2信号入力部362とを備える。第1信号入力部361は、表示部35に表示される指標に基づいてタッチパネルをなぞった方向を示す第1検出信号を出力する。第2信号入力部362は、タッチパネル上の指標がタッチされたか否かを示す第2検出信号を出力する。第3信号入力部363は、タッチパネル上をタッチされた座標とその時刻とを示す第3検出信号を出力する。なお、表示部35と、入力部36と、音声出力部37とが本実施形態に係るユーザインタフェース部を構成している。すなわち、本実施形態に係るユーザインタフェース部は、タッチパネルを有し、表示部35に表示される指標に基づいてタッチパネルをなぞった方向を示す第1検出信号を出力する。   FIG. 2 is a block diagram illustrating an example of the input unit 36. As shown in FIG. 2, the input unit 36 includes a first signal input unit 361 and a second signal input unit 362. The first signal input unit 361 outputs a first detection signal indicating the direction of tracing the touch panel based on the index displayed on the display unit 35. The second signal input unit 362 outputs a second detection signal indicating whether or not an index on the touch panel has been touched. The third signal input unit 363 outputs a third detection signal indicating the coordinates touched on the touch panel and the time. The display unit 35, the input unit 36, and the audio output unit 37 constitute a user interface unit according to the present embodiment. That is, the user interface unit according to the present embodiment has a touch panel, and outputs a first detection signal indicating a direction in which the touch panel is traced based on an index displayed on the display unit 35.

音声出力部37は、シナリオ制御部34の制御に従い、音声を発生する。速度検出部38は、第3信号入力部363が出力する第3信号を用いて、例えば表示部35及び入力部36により構成されるタッチパネルをなぞる速度を検出する。なお、本実施形態に係る表示部35及び入力部36はタッチパネルを構成するが、これに限定されず、表示部35と、入力部36とをそれぞれ別体の装置として構成してもよい。   The sound output unit 37 generates sound according to the control of the scenario control unit 34. The speed detection unit 38 detects the speed of tracing the touch panel constituted by the display unit 35 and the input unit 36 using the third signal output from the third signal input unit 363, for example. In addition, although the display part 35 and the input part 36 which concern on this embodiment comprise a touch panel, it is not limited to this, You may comprise the display part 35 and the input part 36 as a respectively separate apparatus.

ここで、図3に基づき、シナリオ制御部34の具体的な構成を説明する。図3は、シナリオ制御部34のブロック図を示す図である。この図3に示すように、シナリオ制御部34は、受信部341と、滞在状態判断部342と、情報取得部343と、対話制御部345と、を備える。また、シナリオ制御部34は、推奨メニュー提供部344を備えていてもよい。このように、推奨メニュー提供部344は、必須の構成部ではない。   Here, a specific configuration of the scenario control unit 34 will be described with reference to FIG. FIG. 3 is a block diagram of the scenario control unit 34. As shown in FIG. 3, the scenario control unit 34 includes a reception unit 341, a stay state determination unit 342, an information acquisition unit 343, and a dialogue control unit 345. Further, the scenario control unit 34 may include a recommended menu providing unit 344. Thus, the recommended menu providing unit 344 is not an essential component.

受信部341は、店舗システム5から出力されたステータスデータを含む情報を受信する。ステータスデータは、例えば飲食店の店舗スタッフが携帯する注文用のハンディ端末4にて入力可能である。このステータスデータは、ハンディ端末4から店舗システム5に送信され、その後、店舗システム5からシナリオ制御部34の受信部341へと送信される。また、ステータスデータは、店舗システム5を経由せずに、ハンディ端末4から直接、受信部341を介して操作端末3へと送信されるようにしてもよい。   The receiving unit 341 receives information including status data output from the store system 5. The status data can be input, for example, at the handy terminal 4 for ordering carried by the store staff of the restaurant. This status data is transmitted from the handy terminal 4 to the store system 5 and then transmitted from the store system 5 to the receiving unit 341 of the scenario control unit 34. The status data may be transmitted directly from the handy terminal 4 to the operation terminal 3 via the receiving unit 341 without passing through the store system 5.

ステータスデータの例としては、ユーザが入店したことを示す第1状態、ユーザが着席したことを示す第2状態、ユーザが飲食物を注文したことを示す第3状態、注文した飲食物がユーザに提供されたことを示す第4状態、ユーザが提供された飲食物の飲食を完了したことを示す第5状態、ユーザが退店したことを示す第6状態などがある。これには限られず、ステータスデータは、ユーザが離席したことを示す離席状態、ユーザ同士が会話をしている会話状態、又は、ユーザが食後にデザートを注文した状態などを備えていてもよい。このように、ステータスデータは、時間の経過とともに変化するユーザの滞在状態を判断するのに用いられる情報である。   Examples of status data include a first state indicating that the user has entered the store, a second state indicating that the user has been seated, a third state indicating that the user has ordered food and drink, and the ordered food and drink being the user. There are a fourth state indicating that the user has been provided, a fifth state indicating that the user has finished eating and drinking food and drink, a sixth state indicating that the user has left the store, and the like. The status data is not limited to this, and the status data may include a leaving state indicating that the user has left the seat, a conversation state in which the users are having a conversation, or a state in which the user has ordered dessert after eating. Good. Thus, the status data is information used to determine the staying state of the user that changes with the passage of time.

滞在状態判断部342は、受信部341が受信した情報のうち、ステータスデータに基づいて、例えばユーザの飲食店内での滞在状態を判断する。滞在状態判断部342は、例えば受信部341を介してユーザが着席したことを示す第2状態の信号を受信すると、飲食店に入店または着席してから飲食物を注文するまでの状態であると判断する。同様に、滞在状態判断部342は、例えば受信部341を介して第3状態の信号を受信すると、ユーザが注文した飲食物が提供されるのを待っている状態であると判断する。同様に、滞在状態判断部342は、例えば受信部341を介して第4状態の信号を受信すると、ユーザが飲食物の飲食を完了するまでの状態であると判断する。上述のステータスデータと同様に、滞在状態も、時間の経過とともに変化するユーザの状態を示す情報である。   The stay state determination unit 342 determines, for example, the stay state of the user in the restaurant based on the status data among the information received by the reception unit 341. The stay state determination unit 342 is a state from entering the restaurant or ordering food after receiving the signal of the second state indicating that the user is seated via the reception unit 341, for example. Judge. Similarly, when the stay state determination unit 342 receives the signal of the third state via the reception unit 341, for example, the stay state determination unit 342 determines that the food and drink ordered by the user is waiting to be provided. Similarly, when the stay state determination unit 342 receives the signal of the fourth state via the reception unit 341, for example, the stay state determination unit 342 determines that the state is until the user completes the eating and drinking of the food and drink. Similar to the above-described status data, the staying state is information indicating the state of the user that changes over time.

なお、ステータスデータと滞在状態の関連性は、上述したもの以外の構成であってもよい。例えば、店舗スタッフが、ステータスデータとして滞在状態そのものを入力するようにしてもよい。すなわち、ユーザの行為をトリガとして入力するのではなく、状態そのものを入力するものであってもよい。具体的には、店舗スタッフが、着席した、注文した、といった行為を入力するのではなく、着席している状態、注文して飲食物待機中の状態といった状態を直接入力するようにしてもよい。この場合、滞在状態判断部342は、受信したステータスデータそのものを滞在状態であると判断する。このような入力の違いは、基本的には設計事項の問題である。   The relationship between the status data and the staying state may be a configuration other than those described above. For example, the store staff may input the stay state itself as the status data. That is, instead of inputting the user's action as a trigger, the state itself may be input. Specifically, the store staff may not directly input the act of being seated or ordered, but directly input the state of being seated or ordering and waiting for food or drink. . In this case, stay state determination unit 342 determines that the received status data itself is a stay state. This difference in input is basically a matter of design matters.

情報取得部343は、飲食店に来店したユーザと対話するための対話シナリオ情報をシナリオDB33A内の複数の対話シナリオ情報の中から取得する。すなわち、この情報取得部343は、対話制御部345の制御に従い、シナリオDB33Aに記憶される複数の対話シナリオ情報の中から、ユーザと対話するための対話シナリオ情報を取得し、対話制御部345に出力する。情報取得部343は、ユーザの滞在状態に応じて対話するシナリオデータを取得するようにしてもよいし、情報取得部343がシナリオ群を取得した上で、当該シナリオ群から対話に用いるシナリオデータを選択して出力するようにしてもよい。   The information acquisition unit 343 acquires dialogue scenario information for interacting with a user who has visited the restaurant from a plurality of dialogue scenario information in the scenario DB 33A. That is, the information acquisition unit 343 acquires dialogue scenario information for interacting with the user from the plurality of dialogue scenario information stored in the scenario DB 33A according to the control of the dialogue control unit 345, and sends it to the dialogue control unit 345. Output. The information acquisition unit 343 may acquire scenario data for dialogue according to the staying state of the user, or after the scenario information is acquired by the information acquisition unit 343, scenario data to be used for dialogue from the scenario group. You may make it select and output.

推奨メニュー提供部344は、メニュー中にお薦めのメニューがある場合に、当該お薦めのメニューに関する推奨メニュー情報を情報取得部343に送信する。情報取得部343は、シナリオDB33Aから、当該推奨メニューに関する対話シナリオ情報を取得する。   When there is a recommended menu in the menu, the recommended menu providing unit 344 transmits recommended menu information related to the recommended menu to the information acquisition unit 343. The information acquisition unit 343 acquires dialogue scenario information related to the recommended menu from the scenario DB 33A.

例えば、ユーザが着席後、注文前の滞在状態である場合に、情報取得部343で取得した推奨メニューに関する対話シナリオ情報に基づいて、推奨メニュー提供部344が推奨メニューを出力するようにしてもよい。   For example, the recommended menu providing unit 344 may output the recommended menu based on the dialogue scenario information regarding the recommended menu acquired by the information acquiring unit 343 when the user is in the stay state before ordering after sitting. .

対話制御部345は、対話シナリオ情報に基づいて、対話シナリオを進行させる。すなわち、本実施形態に係る対話制御部345は、第1制御部345Aと、第2制御部345Bと、シナリオ補正部345Cと、補正対話シナリオ発話部345Dとを、備えている。
第1制御部345Aは、指標をユーザインタフェース部が有するタッチパネルに表示させる表示制御を行う。すなわち、第1制御部345Aは、タッチパネル内に対話の進行を制御するための少なくとも一つの指標を表示させる。
The dialogue control unit 345 advances the dialogue scenario based on the dialogue scenario information. That is, the dialogue control unit 345 according to the present embodiment includes a first control unit 345A, a second control unit 345B, a scenario correction unit 345C, and a corrected dialogue scenario utterance unit 345D.
The first control unit 345A performs display control for displaying the index on the touch panel of the user interface unit. That is, the first control unit 345A displays at least one index for controlling the progress of the dialogue in the touch panel.

例えば、第1制御部345Aは、入力された対話シナリオ情報に基づいてユーザ側の”対話シナリオの選択肢”を示す画像情報を指標として表示部35に表示させる。また、第1制御部345Aは、”先送り”、”戻り”、”停止”などの文字表示を指標として入力部36に表示させる。これらの”先送り”、”戻り”、”停止”、”対話シナリオの選択肢”などの指標は、それぞれが、対話シナリオの進行を”進める”、”戻す”、”停止する”、”切り替える”などの操作に対応している。   For example, the first control unit 345A causes the display unit 35 to display, as an index, image information indicating a “conversation scenario option” on the user side based on the input dialogue scenario information. In addition, the first control unit 345A causes the input unit 36 to display character displays such as “advance”, “return”, and “stop” as an index. These indicators such as “Past”, “Return”, “Stop”, “Dialogue scenario options” are “Progress”, “Return”, “Stop”, “Switch”, etc., respectively. It corresponds to the operation of.

第2制御部345Bは、情報取得部343が取得した対話シナリオ情報に基づき対話シナリオの進行を制御する。この第2制御部345Bは、対話シナリオの進行を行いつつ、対話シナリオ情報に含まれるロボット側シナリオデータを動作生成部32に出力し、ユーザ側のシナリオデータを第2制御部345Bに出力する。また、第2制御部345Bは、第1制御部345Aが表示させる指標の操作に応じて、対話を進めるか、戻すか、停止するか、又は切り替える制御を行う。例えば、ユーザは、表示部35に表示される指標が示す向きに従って、指標をなぞってもよく、指標をタッチしてもよい。例えば第2制御部345Bは、第1信号入力部361が生成したタッチパネルをなぞった方向を示す第1検出信号に基づき、対話を進めるか、又は戻すかの制御を行う。すなわち、第1制御部345Aは、上述の”進める”、”戻す”、”停止する”、”切り替える”などに対応する指示信号に基づき、ロボットとの対話の進行を制御する。   The second control unit 345B controls the progress of the dialogue scenario based on the dialogue scenario information acquired by the information acquisition unit 343. The second control unit 345B outputs the robot-side scenario data included in the dialogue scenario information to the action generation unit 32 and outputs the user-side scenario data to the second control unit 345B while the dialogue scenario proceeds. In addition, the second control unit 345B performs control for advancing, returning, stopping, or switching the dialogue according to the operation of the index displayed by the first control unit 345A. For example, the user may trace the index according to the direction indicated by the index displayed on the display unit 35 or may touch the index. For example, the second control unit 345B controls whether to advance or return the dialogue based on the first detection signal indicating the direction of tracing the touch panel generated by the first signal input unit 361. That is, the first control unit 345A controls the progress of the dialogue with the robot based on the instruction signals corresponding to the above-described “advance”, “return”, “stop”, “switch”, and the like.

シナリオ補正部345Cは、滞在状態判断部342にて判断されたユーザの滞在状態に基づいて、対話シナリオの補正処理を行う。例えば、シナリオ補正部345Cは、滞在状態判断部342にて判断されたユーザの滞在状態に基づいて、対話シナリオを要約する補正処理を行う。具体的には、滞在状態判断部342にて判断されたユーザの滞在状態に基づいて、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを要約した要約シナリオを生成する。すなわち、対話シナリオの補正処理には、対話シナリオの要約処理が含まれる。   The scenario correction unit 345C performs a correction process for the dialogue scenario based on the stay state of the user determined by the stay state determination unit 342. For example, the scenario correction unit 345C performs a correction process for summarizing the dialogue scenario based on the stay state of the user determined by the stay state determination unit 342. Specifically, based on the stay state of the user determined by the stay state determination unit 342, a summary scenario summarizing the dialog scenario executed immediately before or the dialog scenario to be executed immediately after is generated. In other words, the dialogue scenario correction processing includes dialogue scenario summarization processing.

より詳細には、シナリオ補正部345Cは、ユーザが飲食店に入店または着席してから飲食物を注文するまでの状態、すなわち注文前である場合、前発話又は後発話において必要不可欠となる情報を確実に残した要約とする補正を行う。例えば、前発話又は後発話が”僕のおすすめメニューは特製ハンバーグだよ”の場合、“特製ハンバーグが僕のおすすめ”のように情報を落とさずに補正する。このため、ユーザは、店舗側がユーザに対して確実に伝えたいメニューに関する情報を聞き漏らすことがなく、さらに、発話内用が変更されているので、ユーザは、ロボット2との対話に臨場感を得ることができる。   More specifically, the scenario correction unit 345C is indispensable in the previous utterance or the subsequent utterance when the user enters the restaurant or sits in the restaurant and orders the food and drink, that is, before the order. Amend the summary to ensure that For example, if the previous utterance or the subsequent utterance is “My recommended menu is a special hamburger”, the information is corrected without dropping information, such as “Special hamburger is my recommendation”. For this reason, the user does not miss the information about the menu that the store side wants to convey to the user reliably, and further, since the inside of the utterance has been changed, the user gets a sense of realism in the dialogue with the robot 2 be able to.

また、ユーザが注文した飲食物の提供を待っている状態である場合、シナリオ補正部345Cは、前発話又は後発話の内容を簡略化した要約とする補正を行う。例えば、雑談の対話シナリオにおいて、“昨日、脇道から車が飛び出してきて、とてもびっくりしたんだ”という前発話又は後発話に対して、“昨日の車にはびっくりしたよ”のように簡易的な情報のみを伝える補正を行う。このため、ユーザは再度同様の情報を聞くことになるが、簡易的な発話内容に変更されているので、ユーザは、ロボット2との対話により臨場感を得ることができる。   Moreover, when it is in the state waiting for provision of the food and drink which the user ordered, 345C scenario correction | amendment performs correction | amendment which makes the content of the front utterance or the back utterance simplified. For example, in a conversation scenario of chatting, a simple utterance like “I was surprised by yesterday's car” compared to the previous or later utterance that “I was very surprised when a car jumped out of a side street yesterday” Correction that conveys only correct information. For this reason, the user hears the same information again, but has been changed to a simple utterance content, so that the user can obtain a sense of realism through dialogue with the robot 2.

また、ユーザが食事中の状態である場合、シナリオ補正部345Cは、前発話又は後発話とは異なる発話内容、例えば、“食事中だからまた後で話をするよ”のように補正を行う。これにより、ユーザは対話のための操作が制限され食事に集中することが可能である。シナリオ補正部345Cは、食事終了後であり会計前の状態である場合、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを要約する。この場合、発話内容が要約されるため、ユーザはロボット2との対話により臨場間を感じることが可能である。   When the user is in a meal state, the scenario correction unit 345C corrects the utterance content different from the previous utterance or the later utterance, for example, “I will talk later because I am eating”. As a result, the user is restricted from interacting and can concentrate on the meal. The scenario correction unit 345C summarizes the dialog scenario executed immediately before or the dialog scenario to be executed immediately after the meal ends and before the accounting. In this case, since the content of the utterance is summarized, the user can feel the real time through the dialogue with the robot 2.

補正対話シナリオ発話部345Dは、対話シナリオの進行を戻す又は進める指示がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオをシナリオ補正部345Cにて補正処理された対話シナリオに置き換えて発話させる。また、補正対話シナリオ発話部345Dは、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオをシナリオ補正部345Cにて補正処理された対話シナリオに置き換えて発話させる前に、予め定めた所定の言葉を発話させる。より具体的には、補正対話シナリオ発話部345Dは、タッチパネルに表示される指標に対する操作がされた後に、この操作の内容に対応する所定の言葉を音声出力部37から音声出力させる。例えば、対話シナリオの進行を戻す場合、”もう一度言うね”などの言葉を予め定めた所定の言葉として発話させる。一方で、対話シナリオの進行を進める場合、”先に進むね”などの言葉を予め定めは、所定の言葉として発話させる。このように、この予め定めた所定の言葉には、対話シナリオ又は直後に実行されるべき対話シナリオの発話を開始することを報知する言葉が含まれる。   The corrected dialog scenario utterance unit 345D corrects the dialog scenario executed immediately before or the dialog scenario to be executed immediately after by the scenario correction unit 345C when an instruction to return or advance the progress of the dialog scenario is given. Replace with a dialogue scenario to utter. In addition, the corrected dialogue scenario utterance unit 345D replaces the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after with the dialogue scenario corrected by the scenario correction unit 345C before uttering. Speak a predetermined word. More specifically, the corrected dialogue scenario utterance unit 345D causes the voice output unit 37 to output a predetermined word corresponding to the content of the operation after an operation is performed on the indicator displayed on the touch panel. For example, when the progress of the dialogue scenario is returned, words such as “I say it again” are uttered as predetermined words. On the other hand, when advancing the progress of the dialogue scenario, a word such as “I'll go ahead” is determined in advance and uttered as a predetermined word. As described above, the predetermined predetermined words include words for informing that the dialogue scenario or the utterance of the dialogue scenario to be executed immediately after is started.

一方で、補正対話シナリオ発話部345Dは、直前に実行された対話シナリオ及び直後に実行されるべき対話シナリオの要約を蓄積したシナリオ要約DB33Bから取得して発話させることも可能である。この場合には、シナリオ補正部345Cを用いずに、直前に実行された対話シナリオ及び直後に実行されるべき対話シナリオの要約を発話させる。このように、補正対話シナリオ発話部345Dは、表示部35を有するユーザインタフェース部によって対話シナリオの進行を戻すまたは進める情報入力、情報選択または情報操作がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを要約してロボット2に発話させることが可能である。   On the other hand, the corrected dialogue scenario utterance unit 345D can also obtain and utter an acquired scenario from the scenario summary DB 33B in which the summary of the dialogue scenario to be executed immediately before and the summary of the dialogue scenario to be executed immediately after are accumulated. In this case, without using the scenario correction unit 345C, the dialog scenario executed immediately before and the summary of the dialog scenario to be executed immediately after are spoken. As described above, the corrected dialogue scenario utterance unit 345D performs the dialogue scenario executed immediately before when the information input, information selection, or information operation for returning or advancing the dialogue scenario is performed by the user interface unit having the display unit 35. Alternatively, it is possible to summarize the dialogue scenario to be executed immediately after and let the robot 2 speak.

以上の構成により、対話シナリオデータを用いてユーザとロボット2との間での対話を行うことができる。   With the above configuration, a dialogue between the user and the robot 2 can be performed using the dialogue scenario data.

次に、図4に基づき、シナリオ制御部34が行う対話の進行制御例を説明する。図4は、シナリオ制御部34が行う対話の進行制御に関する動作例を示すフローチャートである。   Next, an example of the progress control of the dialogue performed by the scenario control unit 34 will be described based on FIG. FIG. 4 is a flowchart showing an operation example related to the progress control of the dialogue performed by the scenario control unit 34.

まず、シナリオ制御部34の第2制御部345Bは、情報取得部343が取得した対話シナリオ情報に基づき、通常の発話をロボット2に行わせる(ステップS10)。次に、第2制御部345Bは、発話の戻りが指示されたか否かを判定する(ステップS11)。   First, the second control unit 345B of the scenario control unit 34 causes the robot 2 to perform normal speech based on the conversation scenario information acquired by the information acquisition unit 343 (step S10). Next, the second control unit 345B determines whether or not an instruction to return the utterance has been issued (step S11).

第2制御部345Bが発話の戻りが指示されていないと判断した場合(ステップS11:NO)、ステップS10にもどる。   When the second control unit 345B determines that the return of the utterance is not instructed (step S11: NO), the process returns to step S10.

一方で、第2制御部345Bが発話の戻りが指示されたと判断した場合(ステップS11:YES)、シナリオ補正部345Cは、直前に実行された対話シナリオ、より具体的には直前に発話した内容(以下、前発話とも呼ぶ)をシナリオDB33Aから呼び出し(ステップS12)、直前に実行された対話シナリオを要約した要約シナリオ、より具体的には前発話の要約を生成する(ステップS13)。   On the other hand, when the second control unit 345B determines that the return of the utterance has been instructed (step S11: YES), the scenario correction unit 345C displays the conversation scenario executed immediately before, more specifically, the content uttered immediately before. (Hereinafter also referred to as the previous utterance) is called from the scenario DB 33A (step S12), and a summary scenario summarizing the dialog scenario executed immediately before, more specifically, a summary of the previous utterance is generated (step S13).

次に、補正対話シナリオ発話部345Dは、シナリオ補正部345Cにて補正処理された対話シナリオをロボット2に発話させる(ステップS14)。こ場合、補正対話シナリオ発話部345Dは、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオをシナリオ補正部345Cにて補正処理された対話シナリオに置き換えて発話させる前に、予め定めた所定の言葉を発話させる。   Next, the corrected dialogue scenario utterance unit 345D causes the robot 2 to utter the dialogue scenario corrected by the scenario correction unit 345C (step S14). In this case, the corrected dialogue scenario utterance unit 345D determines in advance before replacing the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after with the dialogue scenario corrected by the scenario correction unit 345C. Speak the given word.

次に、第2制御部345Bは、対話シナリオに基づく対話が終了したか否かを判定し(ステップS15)、対話が終了していないと判断した場合(ステップS15:NO)、ステップS10にもどる。   Next, the second control unit 345B determines whether or not the dialogue based on the dialogue scenario has ended (step S15), and when determining that the dialogue has not ended (step S15: NO), returns to step S10. .

一方で、対話が終了したと判断した場合(ステップS15:YES)、第2制御部345Bは、全体処理を終了する。   On the other hand, when it is determined that the dialogue has ended (step S15: YES), the second control unit 345B ends the entire process.

次に、図5に基づき、図4中のステップS13の詳細な処理を説明する。図5は、図4中のステップS13の詳細な処理を示すフローチャートである。滞在状態判断部342は、受信部341を介して店舗システム5からステータスデータを取得する(ステップS20)。滞在状態判断部342は、受信した信号が、ユーザが入店したことを示す第1状態を示す信号、又はユーザが着席したことを示す第2状態を示す信号であるか否かを判定する(ステップS21)。   Next, based on FIG. 5, the detailed process of step S13 in FIG. 4 is demonstrated. FIG. 5 is a flowchart showing detailed processing of step S13 in FIG. The stay state determination unit 342 acquires status data from the store system 5 via the reception unit 341 (step S20). The stay state determination unit 342 determines whether the received signal is a signal indicating the first state indicating that the user has entered the store or a signal indicating the second state indicating that the user has been seated ( Step S21).

受信した信号が、ユーザが入店したことを示す第1状態を示す信号、又はユーザが着席したことを示す第2状態を示す信号である場合(ステップS21:YES)、滞在状態判断部342は、ユーザが飲食店に入店または着席してから飲食物を注文するまでの状態、すなわち注文前であると判断する。この場合、シナリオ補正部345Cは、注文前の状態であるので、必要不可欠な情報を確実に残した要約とする補正を行う。(ステップS22)。   When the received signal is a signal indicating the first state indicating that the user has entered the store, or a signal indicating the second state indicating that the user has been seated (step S21: YES), the stay state determining unit 342 , It is determined that the user is in a state before entering the restaurant or sitting at the restaurant and before ordering the food, that is, before ordering. In this case, since the scenario correction unit 345C is in a state before ordering, the scenario correction unit 345C performs correction to make a summary in which essential information is reliably left. (Step S22).

一方で、受信した信号が、ユーザが入店したことを示す第1状態を示す信号、及びユーザが着席したことを示す第2状態を示す信号でない場合(ステップS21:NO)、滞在状態判断部342は、ユーザが飲食物を注文したことを示す第3状態を示す信号であるか否かを判定する(ステップS23)。   On the other hand, if the received signal is not a signal indicating the first state indicating that the user has entered the store and a signal indicating the second state indicating that the user has been seated (step S21: NO), the stay state determining unit It is determined whether 342 is a signal which shows the 3rd state which shows that the user ordered food and drink (step S23).

受信した信号が、ユーザが飲食物を注文したことを示す第3状態を示す信号である場合(ステップS23:YES)、滞在状態判断部342は、ユーザが飲食物を注文したことを示す第3状態、すなわち商品の提供前の状態であると判断する。この場合、シナリオ補正部345Cは、前発話の情報を簡易的に要約した補正を行う(ステップS24)。   When the received signal is a signal indicating the third state indicating that the user has ordered food and drink (step S23: YES), the stay state determination unit 342 indicates that the user has ordered food and drink. It is determined that the state is the state before the product is provided. In this case, the scenario correction unit 345C performs correction that simply summarizes the information of the previous utterance (step S24).

一方で、受信した信号が、ユーザが飲食物を注文したことを示す第3状態を示す信号でない場合(ステップS23:NO)、滞在状態判断部342は、注文した飲食物がユーザに提供されたことを示す第4状態を示す信号であるか否かを判定する(ステップS25)。   On the other hand, when the received signal is not a signal indicating the third state indicating that the user has ordered food and drink (step S23: NO), the stay state determination unit 342 provides the user with the ordered food and drink. It is determined whether or not the signal indicates the fourth state (step S25).

受信した信号が、注文した飲食物がユーザに提供されたことを示す第4状態を示す信号である場合(ステップS25:YES)、滞在状態判断部342は、注文した飲食物がユーザに提供されたことを示す第4状態、すなわち、ユーザが飲食物の飲食を完了するまでの状態であると判断する。この場合、シナリオ補正部345Cは、前発話とは異なる発話内容とする補正を行う(ステップS26)。   When the received signal is a signal indicating the fourth state indicating that the ordered food and drink is provided to the user (step S25: YES), the stay state determination unit 342 provides the ordered food and drink to the user. It is judged that it is the 4th state which shows that, ie, a state until a user completes eating and drinking of food and drink. In this case, the scenario correction unit 345C corrects the utterance content different from the previous utterance (step S26).

一方で、受信した信号が、注文した飲食物がユーザに提供されたことを示す第4状態を示す信号でない場合(ステップS25:NO)、ユーザが提供された飲食物の飲食を完了したことを示す第5状態であると判断する。この場合、シナリオ補正部345Cは、前発話の情報を簡易的に要約した補正を行う(ステップS27)。なお、各ステップS22,S24,S26,S27の補正処理は一例であり、必要不可欠な情報を含む要約とするか、簡易的な要約とするか、要約以外の発話内容とするかは適宜変更可能である。また、上記例では、前発話に対する補正処理を示しているが、後発話に対する補正処理も同様に行うことができる。   On the other hand, when the received signal is not a signal indicating the fourth state indicating that the ordered food or drink is provided to the user (step S25: NO), the user has completed the food or drink provided. It is determined that this is the fifth state shown. In this case, the scenario correction unit 345C performs correction that simply summarizes the information of the previous utterance (step S27). In addition, the correction process of each step S22, S24, S26, S27 is an example, and it is possible to appropriately change whether the summary includes essential information, a simple summary, or utterance content other than the summary. It is. In the above example, the correction process for the previous utterance is shown, but the correction process for the subsequent utterance can be performed in the same manner.

このように、シナリオ補正部345Cは、滞在状態判断部342にて判断されたユーザの滞在状態に基づいて、対話シナリオの補正処理を行う。次に、対話シナリオの具体的な適用例について説明する。図6は、ロボット2とユーザとの対話の一例を示す図である。この図6に示すように、対話は、ロボット2と、操作端末3を用いて行われる。操作端末3は、例えば、表示部35と、表示部35に一体に組み込まれたタッチパネル式の入力部36と、を備えるタブレット型の携帯端末である。ロボット2からは、情報取得部343により選択されたロボット側シナリオデータに基づいて、例えば「なにを注文する?」という発話が実行される。   As described above, the scenario correction unit 345C performs the dialogue scenario correction process based on the stay state of the user determined by the stay state determination unit 342. Next, a specific application example of the dialogue scenario will be described. FIG. 6 is a diagram illustrating an example of a dialogue between the robot 2 and the user. As shown in FIG. 6, the dialogue is performed using the robot 2 and the operation terminal 3. The operation terminal 3 is, for example, a tablet-type portable terminal that includes a display unit 35 and a touch panel type input unit 36 integrated into the display unit 35. From the robot 2, for example, an utterance “What to order?” Is executed based on the robot-side scenario data selected by the information acquisition unit 343.

図7は、図6において、「おすすめメニューを教えて!」がユーザにより選択された場合の表示部35の表示例を示す図である。この図6に示すように、本日のおすすめメニューとして、推奨メニュー提供部344が提供した、「イタリア産チーズのハンバーグ」の文字が、画像や動画とともに表示される。それとともに、その他のおすすめメニューを併せて表示してもよい。さらに、ロボット2からイタリア産チーズのハンバーグの説明について、メニューの内容、おすすめの理由等を発話するようにしてもよい。ここでは、戻る、を示す指標がユーザに指示された場面を示している。この場面は、引き続き、注文前であるので、前発話である”僕のおすすめメニューは特製ハンバーグだよ”をほとんどそのまま要約した”特製ハンバーグが僕のおすすめ”と発言している。更に、補正対話シナリオ発話部345Dにより、ロボット2は”もう一度言うね。さっき言ったのは”という所定の発言をしている。   FIG. 7 is a diagram illustrating a display example of the display unit 35 when “Tell me a recommended menu!” In FIG. 6 is selected by the user. As shown in FIG. 6, the letters “Italian cheese hamburger” provided by the recommended menu providing unit 344 are displayed together with images and videos as the recommended menu for today. At the same time, other recommended menus may be displayed together. Further, regarding the explanation of the Italian cheese hamburger from the robot 2, the contents of the menu, the reason for recommendation, etc. may be spoken. Here, a scene in which an index indicating return is instructed by the user is shown. Since this scene is still before ordering, it is said that “a special hamburger is my recommendation”, which is a summary of the previous utterance “My recommended menu is a special hamburger”. Further, the robot 2 makes a predetermined statement “I say it again. What I said before” by the corrected dialogue scenario utterance unit 345D.

図8は、図5で先送りがユ−ザに指示された場面を示す図である。この場面は、図7と同様の表示である。この場面は、引き続き、注文前であるので、直後に実行されるべき対話シナリオである”僕のおすすめメニューは特製ハンバーグだよ”をほとんどそのまま要約した”特製ハンバーグが僕のおすすめ”と発言している。更に、補正対話シナリオ発話部345Dにより、ロボット2は”先に進むね”という所定の発言をしている。   FIG. 8 is a diagram showing a scene in which the user is instructed to move forward in FIG. This scene is the same display as in FIG. Since this scene is still before ordering, it is an interactive scenario that should be executed immediately after that "My recommended menu is a special hamburger" which is almost simply summarized as "Special hamburger is my recommendation" Yes. Further, the robot 2 makes a predetermined statement “Go ahead” by the corrected dialogue scenario utterance unit 345D.

図9は、注文が終了し、料理が来るのを待っている場面を示す図である。ここでは、戻る、を示す指標がユーザに指示された場面を示している。この場面は、注文が終了し、料理が来るのを待っている状態であるので、前発話である”デザートはバニラアイスがおすすめだよ”を簡略化して要約した”デザート”と発言している。更に、補正対話シナリオ発話部345Dにより、ロボット2は”もう一度言うね。さっき言ったのは”という所定の発言をしている。   FIG. 9 is a diagram illustrating a scene in which the order is finished and waiting for a dish to come. Here, a scene in which an index indicating return is instructed by the user is shown. This scene is a state where the order is finished and waiting for the food to come, so we say “dessert” which is a simplified summary of the previous utterance “Desert recommends vanilla ice cream” . Further, the robot 2 makes a predetermined statement “I say it again. What I said before” by the corrected dialogue scenario utterance unit 345D.

以上のように、本実施形態によれば、対話シナリオの進行を戻す又は進める指示がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを滞在状態判断部342にて判断されたユーザの滞在状態に基づいて、シナリオ補正部345Cにより補正処理した対話シナリオに置き換えて発話させることとした。これにより、ロボットとの対話を戻したり、進めたりする場合に、ユーザの滞在状態に応じて補正した直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを再びロボット2に発話させることができる。これにより、ユーザの状態、例えば、注文前である状態や、飲食中である状態に適した自然な対話を行うことができ、ユーザの満足度を高めることが可能となる。   As described above, according to the present embodiment, when an instruction to return or advance the progress of the dialogue scenario is given, the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after is given to the stay state determination unit 342. Based on the stay state of the user determined in this way, it is decided to replace the dialogue scenario corrected by the scenario correction unit 345C and speak. Thereby, when returning or advancing the dialogue with the robot, the robot 2 again speaks the dialogue scenario executed immediately before or corrected according to the staying state of the user. Can do. Thereby, a natural dialogue suitable for a user's state, for example, a state before ordering or a state where food is being eaten can be performed, and the satisfaction of the user can be increased.

なお、上記の説明においては、滞在状態は、店舗スタッフがハンディ端末4から入力した際に遷移するものであるとしたが、これには限られない。例えば、ユーザの注文を確定した後に、ユーザの注文した飲食物の平均的な提供までの待ち時間が経過した後に、飲食中の滞在状態へと遷移するようにしてもよい。また、例えば、飲食物の提供が完了した後、30分や45分と言った所定の時間後に自動的にユーザの飲食が完了した滞在状態へと遷移するようにしてもよい。   In the above description, the stay state is assumed to change when the store staff inputs from the handy terminal 4, but the present invention is not limited to this. For example, after a user's order is confirmed, after the waiting time until the average provision of the food and drink ordered by the user has elapsed, the state may transition to a staying state during eating and drinking. Further, for example, after the provision of food and drink is completed, the user may automatically transition to a stay state in which the user has finished eating after a predetermined time such as 30 minutes or 45 minutes.

特に、注文を受けた際には、店舗スタッフがハンディ端末4を操作するために滞在状態の更新を忘れることはないが、その他の滞在情報は、店舗スタッフが確認してハンディ端末4を操作しなくてはならないため、ハンディ端末4を介しての滞在情報の更新が為されない場合がある。このような場合に、予め決められた時間が経過すると自動的に滞在状態が遷移するようにしておくことは有効である。   In particular, when an order is received, the store staff does not forget to update the stay status in order to operate the handy terminal 4, but other stay information is confirmed by the store staff and operated by the handy terminal 4. Since it is necessary, the stay information may not be updated via the handy terminal 4. In such a case, it is effective to automatically change the stay state after a predetermined time has elapsed.

(第1変形例)
図10は、第1変形例に係るロボット制御システム1の一例を示すブロック図である。上述した実施形態においては、シナリオDB33Aは、操作端末3内に設置されているものであったが、これには限られない。例えば、図10に示すように、シナリオDB33Aは、操作端末3の外部にあるものでもよい。そして、シナリオ制御部34は、ネットワーク6を介してシナリオDB33Aと接続される。
(First modification)
FIG. 10 is a block diagram illustrating an example of the robot control system 1 according to the first modification. In the embodiment described above, the scenario DB 33A is installed in the operation terminal 3, but is not limited to this. For example, as shown in FIG. 10, the scenario DB 33 </ b> A may be outside the operation terminal 3. The scenario control unit 34 is connected to the scenario DB 33A via the network 6.

シナリオDB33Aは、操作端末3の外部の所定のサーバに備えられているものでもよいし、特定のサーバではなく、ネットワーク6により接続される所謂クラウド上に存在するデータベース(分散型データベースを含む)であってもよい。ネットワーク6と、操作端末3又はシナリオDB33Aは、有線又は無線の通信を介して接続される。   The scenario DB 33A may be provided in a predetermined server outside the operation terminal 3, or a database (including a distributed database) existing on a so-called cloud connected by the network 6 instead of a specific server. There may be. The network 6 and the operation terminal 3 or the scenario DB 33A are connected via wired or wireless communication.

本変形例によれば、シナリオDB33Aを操作端末3内ではなく外部に有することにより、操作端末3にてシナリオDBの管理を行う必要がなくなるとともに、シナリオデータの一元管理をすることも可能となる。さらに、シナリオDB33Aがクラウド上に存在し、特定多数の編集者がシナリオデータを編集、あるいは、追加することが可能であるように設定することにより、よりバリエーションに富んだ対話内容を選択することも可能となる。   According to this modification, by having the scenario DB 33A outside the operation terminal 3, it is not necessary to manage the scenario DB at the operation terminal 3, and the scenario data can be centrally managed. . In addition, the scenario DB 33A exists on the cloud, and it is possible to select more varied content of dialogue by setting so that a specific number of editors can edit or add scenario data. It becomes possible.

(第2変形例)
図11は、第2変形例に係るロボット制御システム1の構成を示す図である。この図11に示すように、動作生成部32、シナリオ制御部34、及び、シナリオDB33Aは、操作端末3ではなく、ロボット2内に備えられているものとしてもよい。すなわち、主要な制御機能を操作端末3ではなく、ロボット2に備えるようにしてもよい。動作生成部32、及び、シナリオ制御部34の動作は、上述した実施形態における動作と大きく異なることはなく、本変形例においても、図4に示すフローチャートにしたがって対話の処理が実行される。
(Second modification)
FIG. 11 is a diagram illustrating a configuration of the robot control system 1 according to the second modification. As illustrated in FIG. 11, the motion generation unit 32, the scenario control unit 34, and the scenario DB 33 </ b> A may be provided in the robot 2 instead of the operation terminal 3. That is, the main control function may be provided not in the operation terminal 3 but in the robot 2. The operations of the operation generation unit 32 and the scenario control unit 34 are not significantly different from the operations in the above-described embodiment, and in this modification as well, the dialogue process is executed according to the flowchart shown in FIG.

本変形例によれば、操作端末3の構成を簡略化でき、また、操作端末3からロボット2へと送信するデータ量を削減できるため、操作端末3とロボット2との間の通信回線の性能が低い場合でも、支障なくロボット2との対話を行うことができる。なお、動作生成部32は、操作端末3及びロボット2の外部に設けられていてもよく、例えば、店舗システム5に内蔵されていてもよいし、店舗システム5とは別個の通信機器内に設けてもよい。   According to this modification, the configuration of the operation terminal 3 can be simplified, and the amount of data transmitted from the operation terminal 3 to the robot 2 can be reduced, so that the performance of the communication line between the operation terminal 3 and the robot 2 can be reduced. Even when the value is low, dialogue with the robot 2 can be performed without any trouble. The motion generation unit 32 may be provided outside the operation terminal 3 and the robot 2. For example, the motion generation unit 32 may be built in the store system 5 or provided in a communication device separate from the store system 5. May be.

なお、上述した全ての実施形態及び変形例においては、対話は、ユーザ、又は、ロボット2が何かしらの情報を出力している状態として説明したが、これには限られない。例えば、食事中であれば、ロボット2との対話の必要性は低くなるので、このような場合においては、無言のシナリオをあらかじめ準備しておき、この無言のシナリオを出力するようにしてもよい。   In all the embodiments and modifications described above, the dialogue is described as a state in which the user or the robot 2 outputs some information, but is not limited thereto. For example, since it is less necessary to interact with the robot 2 during a meal, a silent scenario may be prepared in advance and the silent scenario may be output. .

上述した全ての実施形態及び変形例に係るロボット制御システム1は、既述したように飲食サービスに好適に適用することができるが、飲食サービス以外の種々のサービスに適用されてもよい。   The robot control system 1 according to all the embodiments and the modifications described above can be suitably applied to the eating and drinking service as described above, but may be applied to various services other than the eating and drinking service.

本発明の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本発明の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。   The aspect of the present invention is not limited to the individual embodiments described above, and includes various modifications that can be conceived by those skilled in the art, and the effects of the present invention are not limited to the contents described above. That is, various additions, modifications, and partial deletions can be made without departing from the concept and spirit of the present invention derived from the contents defined in the claims and equivalents thereof.

1 ロボット制御システム、2 ロボット、3 操作端末、33B シナリオ要約DB、34 シナリオ制御部、342 滞在状態判断部、343 情報取得部、345C シナリオ補正部、345D 補正対話シナリオ発話部 DESCRIPTION OF SYMBOLS 1 Robot control system, 2 Robot, 3 Operation terminal, 33B Scenario summary DB, 34 Scenario control part, 342 Stay state judgment part, 343 Information acquisition part, 345C Scenario correction part, 345D correction dialogue scenario speech part

Claims (10)

飲食店に来店した顧客と対話するための対話シナリオ情報を複数の対話シナリオ情報から取得する情報取得部と、
前記取得した対話シナリオ情報に対応する対話シナリオの進行を制御するシナリオ進行制御部と、
前記顧客の前記飲食店内での滞在状態を判断する滞在状態判断部と、
前記滞在状態判断部にて判断された顧客の滞在状態に基づいて、前記対話シナリオの補正処理を行うシナリオ補正部と、
前記対話シナリオの進行を戻す又は進める指示がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを前記シナリオ補正部にて補正処理された対話シナリオに置き換えて発話させる補正対話シナリオ発話部と、
を備える対話制御装置。
An information acquisition unit that acquires dialogue scenario information for interacting with a customer who has visited a restaurant from a plurality of dialogue scenario information;
A scenario progress control unit for controlling the progress of the dialog scenario corresponding to the acquired dialog scenario information;
A stay state determination unit for determining a stay state of the customer in the restaurant;
A scenario correction unit that performs correction processing of the dialogue scenario based on the stay state of the customer determined by the stay state determination unit;
When an instruction is given to return or advance the progress of the dialog scenario, the dialog scenario executed immediately before or the dialog scenario to be executed immediately after is replaced with the dialog scenario corrected by the scenario correction unit, and uttered. Correction dialogue scenario utterance part,
A dialogue control device comprising:
前記補正対話シナリオ発話部は、前記直前に実行された対話シナリオ又は前記直後に実行されるべき対話シナリオを前記シナリオ補正部にて補正処理された対話シナリオに置き換えて発話させる前に、予め定めた所定の言葉を発話させる請求項1に記載の対話制御装置。   The corrected dialogue scenario utterance unit is determined in advance before the utterance is performed by replacing the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after with the dialogue scenario corrected by the scenario correction unit. The dialogue control apparatus according to claim 1, wherein a predetermined word is uttered. 前記所定の言葉は、前記直前に実行された対話シナリオ又は前記直後に実行されるべき対話シナリオの発話を開始することを報知する言葉を含む、請求項2に記載の対話制御装置。   The dialogue control apparatus according to claim 2, wherein the predetermined word includes a word for notifying that the utterance of the dialogue scenario executed immediately before or the dialogue scenario to be executed immediately after is started. 前記シナリオ補正部は、前記滞在状態判断部にて判断された顧客の滞在状態に基づいて、前記対話シナリオを要約する補正処理を行う、請求項1乃至3のいずれか一項に記載の対話制御装置。   The dialogue control according to any one of claims 1 to 3, wherein the scenario correction unit performs a correction process for summarizing the dialogue scenario based on a stay state of the customer determined by the stay state determination unit. apparatus. 前記シナリオ補正部は、前記直前に実行された対話シナリオ又は前記直後に実行されるべき対話シナリオを要約した要約シナリオを生成し、
前記補正対話シナリオ発話部は、前記生成された要約シナリオを発話させる請求項4に記載の対話制御装置。
The scenario correction unit generates a summary scenario that summarizes the dialog scenario executed immediately before or the dialog scenario to be executed immediately after,
The dialogue control apparatus according to claim 4, wherein the corrected dialogue scenario utterance unit utters the generated summary scenario.
前記補正対話シナリオ発話部は、前記直前に実行された対話シナリオ及び前記直後に実行されるべき対話シナリオの要約を蓄積したシナリオ要約蓄積部から取得して発話させる請求項5に記載の対話制御装置。   6. The dialogue control apparatus according to claim 5, wherein the corrected dialogue scenario utterance unit obtains and speaks from the scenario summary accumulation unit that accumulates the dialogue scenario executed immediately before and the summary of the dialogue scenario to be executed immediately after. . ロボットとの対話のための情報入力、情報選択および情報操作の少なくとも一つを行うユーザインタフェース部を更に備え、
前記補正対話シナリオ発話部は、前記ユーザインタフェース部によって前記対話シナリオの進行を戻すまたは進める情報入力、情報選択または情報操作がされた場合に、前記直前に実行された対話シナリオ又は前記直後に実行されるべき対話シナリオを要約して前記ロボットに発話させる請求項5または6に記載の対話制御装置。
A user interface unit that performs at least one of information input, information selection, and information operation for dialogue with the robot;
The corrected dialogue scenario utterance unit is executed immediately before or immediately after the dialogue scenario executed immediately before or after information input, information selection, or information operation is performed by the user interface unit to return or advance the progress of the dialogue scenario. The dialogue control apparatus according to claim 5 or 6, wherein the dialogue scenario to be summed up is made to cause the robot to speak.
前記ユーザインタフェース部は、タッチパネルを有し、
前記タッチパネル内に前記対話の進行を制御するための少なくとも一つの指標を表示させる第1制御部と、
前記指標の操作に応じて、前記対話を進めるか、戻すか、停止するか、又は切り替える制御を行う第2制御部と、を更に備える請求項7に記載の対話制御装置。
The user interface unit has a touch panel,
A first control unit for displaying at least one index for controlling the progress of the dialogue in the touch panel;
The dialogue control device according to claim 7, further comprising: a second control unit that performs control to advance, return, stop, or switch the dialogue according to the operation of the index.
前記ユーザインタフェース部は、前記指標に基づいて前記タッチパネルをなぞった方向を示す第1検出信号を出力し、
前記第2制御部は、前記第1検出信号に基づき、前記対話を進めるか、又は戻すかの制御を行い、
前記補正対話シナリオ発話部は、前記第2制御部が前記対話を戻す制御又は前記対話を進める制御を行う際に、前記直前に実行された対話シナリオ又は前記直後に実行されるべき対話シナリオを要約して発話させる請求項8に記載の対話制御装置。
The user interface unit outputs a first detection signal indicating a direction of tracing the touch panel based on the index;
The second control unit controls whether to advance or return the dialogue based on the first detection signal,
The corrected dialogue scenario utterance unit summarizes the dialogue scenario executed immediately before or immediately after the dialogue scenario when the second control unit performs control to return the dialogue or control to advance the dialogue. The dialogue control device according to claim 8, which causes the user to speak.
指示信号に応じた動作を行うロボットと、
前記指示信号を生成して前記ロボットを操作する操作端末と、を備え、
前記操作端末は、
飲食店に来店した顧客と対話するための対話シナリオ情報を複数の対話シナリオ情報から取得する情報取得部と、
前記取得した対話シナリオ情報に対応する対話シナリオの進行を制御するシナリオ進行制御部と、
前記顧客の前記飲食店内での滞在状態を判断する滞在状態判断部と、
前記滞在状態判断部にて判断された顧客の滞在状態に基づいて、前記対話シナリオの補正処理を行うシナリオ補正部と、
前記対話シナリオの進行を戻す又は進める指示がされた場合に、直前に実行された対話シナリオ又は直後に実行されるべき対話シナリオを前記シナリオ補正部にて補正処理された対話シナリオに置き換えて発話させる対話シナリオ発話部と、
を備えるロボット制御システム。
A robot that operates in response to the instruction signal;
An operation terminal that generates the instruction signal and operates the robot,
The operation terminal is
An information acquisition unit that acquires dialogue scenario information for interacting with a customer who has visited a restaurant from a plurality of dialogue scenario information;
A scenario progress control unit for controlling the progress of the dialog scenario corresponding to the acquired dialog scenario information;
A stay state determination unit for determining a stay state of the customer in the restaurant;
A scenario correction unit that performs correction processing of the dialogue scenario based on the stay state of the customer determined by the stay state determination unit;
When an instruction is given to return or advance the progress of the dialog scenario, the dialog scenario executed immediately before or the dialog scenario to be executed immediately after is replaced with the dialog scenario corrected by the scenario correction unit, and uttered. Dialogue scenario utterance part,
A robot control system comprising:
JP2017060035A 2017-03-24 2017-03-24 Dialog control device and robot control system Pending JP2018161713A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017060035A JP2018161713A (en) 2017-03-24 2017-03-24 Dialog control device and robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017060035A JP2018161713A (en) 2017-03-24 2017-03-24 Dialog control device and robot control system

Publications (1)

Publication Number Publication Date
JP2018161713A true JP2018161713A (en) 2018-10-18

Family

ID=63859120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017060035A Pending JP2018161713A (en) 2017-03-24 2017-03-24 Dialog control device and robot control system

Country Status (1)

Country Link
JP (1) JP2018161713A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111104494A (en) * 2018-10-25 2020-05-05 丰田自动车株式会社 Dialogue device and control program for dialogue device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111104494A (en) * 2018-10-25 2020-05-05 丰田自动车株式会社 Dialogue device and control program for dialogue device

Similar Documents

Publication Publication Date Title
US11024294B2 (en) System and method for dialogue management
Pearl Designing voice user interfaces: Principles of conversational experiences
US20200219490A1 (en) Information Retrieval According To A User Interest Model
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US20140036022A1 (en) Providing a conversational video experience
US10967508B2 (en) System and method for dynamic robot configuration for enhanced digital experiences
JP6540414B2 (en) Speech processing apparatus and speech processing method
US20190205390A1 (en) System and Method for Learning Preferences in Dialogue Personalization
JP2005149481A (en) Information processor accompanied by information input using voice recognition
US11267121B2 (en) Conversation output system, conversation output method, and non-transitory recording medium
WO2019161237A1 (en) System and method for inferring scenes based on visual context-free grammar model
WO2018174289A1 (en) Conversation control system, and robot control system
JP2018161713A (en) Dialog control device and robot control system
JP2005148724A (en) Information processor accompanied by information input using voice recognition
JP2018161709A (en) Dialog control system and dialog control apparatus
WO2018174287A1 (en) Store management system
JP2001249924A (en) Interactive automatic explanation apparatus, interactive automatic explanation method, and recording medium recording an execution program of this method
JP2017162268A (en) Dialog system and control program
JP2018161703A (en) Dialogue control device and robot control system
JP7107248B2 (en) Dialogue system, dialogue method and program
JP2018161710A (en) Dialogue control device and robot control system
US20200130195A1 (en) Dialogue apparatus and control program for dialogue apparatus
Zargham Expanding speech interaction for domestic activities
JP2018163504A (en) Dialog control apparatus and dialog system
JP2005149480A (en) Information processor accompanied by information input using voice recognition