[go: up one dir, main page]

JP2018161707A - Robot control system and robot control device - Google Patents

Robot control system and robot control device Download PDF

Info

Publication number
JP2018161707A
JP2018161707A JP2017060000A JP2017060000A JP2018161707A JP 2018161707 A JP2018161707 A JP 2018161707A JP 2017060000 A JP2017060000 A JP 2017060000A JP 2017060000 A JP2017060000 A JP 2017060000A JP 2018161707 A JP2018161707 A JP 2018161707A
Authority
JP
Japan
Prior art keywords
robot
unit
dialogue
display
stay state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017060000A
Other languages
Japanese (ja)
Inventor
田 雄 介 柴
Yusuke Shibata
田 雄 介 柴
川 浩 平 小
Kohei Ogawa
川 浩 平 小
川 雄一郎 吉
Yuichiro Yoshikawa
川 雄一郎 吉
黒 浩 石
Hiroshi Ishiguro
黒 浩 石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zensho Holdings Co Ltd
University of Osaka NUC
Original Assignee
Osaka University NUC
Zensho Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Zensho Holdings Co Ltd filed Critical Osaka University NUC
Priority to JP2017060000A priority Critical patent/JP2018161707A/en
Publication of JP2018161707A publication Critical patent/JP2018161707A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】飲食店においてロボットと自然な対話を行うことができるロボット制御システムおよびロボット制御装置を提供する。【解決手段】飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボット2と、ロボット2を操作する指令信号を生成する操作端末3と、顧客の滞在状態を判断する滞在状態判断部342とを備え、操作端末3は、顧客とロボット2との対話に用いられる対話シナリオ情報に基づく対話シナリオの進行に合わせてロボット2との対話のための選択肢を表示させる表示処理部3453と、ロボット2の発話動作の動作期間内の所定のタイミングを滞在状態判断部342にて判断された滞在状態に基づいて推定するタイミング推定部3451と、タイミング推定部3451にて推定された所定のタイミングに基づいて、選択肢を表示させるよう表示処理部3453に指示する表示指示部3452とを備える。【選択図】図1The present invention provides a robot control system and a robot control apparatus capable of performing a natural dialogue with a robot in a restaurant. A robot that performs an operation according to a command signal to interact with a customer who has visited a restaurant, an operation terminal that generates a command signal for operating the robot, and a stay for determining a stay state of the customer. A display processing unit for displaying an option for dialogue with the robot 2 in accordance with the progress of the dialogue scenario based on the dialogue scenario information used for dialogue between the customer and the robot 2. 3453, a timing estimation unit 3451 for estimating a predetermined timing within the motion period of the utterance operation of the robot 2 based on the stay state determined by the stay state determination unit 342, and a predetermined timing estimated by the timing estimation unit 3451 And a display instructing unit 3453 for instructing the display processing unit 3453 to display the options based on the timing. [Selection] Figure 1

Description

本発明は、ロボット制御システムおよびロボット制御装置に関する。   The present invention relates to a robot control system and a robot control apparatus.

近年、レストランその他公共施設において、来場客の案内役としてヒューマノイド型ロボットを活用する事例がみられる。このようなロボットとのコミュニケーション(対話)を専用の操作端末を用いて行う技術が検討されており、この技術によれば、ユーザは、操作端末を介してロボットとの対話を楽しんだり、案内情報を入手したりすることができる。   In recent years, there are cases where humanoid robots are used as guides for visitors in restaurants and other public facilities. A technology for performing communication (dialogue) with such a robot using a dedicated operation terminal has been studied. According to this technology, a user can enjoy a dialogue with a robot via an operation terminal, or guide information can be obtained. Can be obtained.

具体的には、飲食店に来店した顧客に対して、飲食店のテーブル席に設置されたロボットとの間で直接的あるいはタブレット等を介して間接的に対話することができるサービスを提供することができる。この場合、顧客に対して推奨メニューを提示したり、雑談をしたりすることで、飲食サービスの満足度を向上させることができる。   Specifically, providing a service that allows a customer who visits a restaurant to directly or indirectly interact with a robot installed at a table seat of the restaurant via a tablet or the like Can do. In this case, the satisfaction of the eating and drinking service can be improved by presenting a recommended menu or chatting with the customer.

特開2015−66623号公報Japanese Patent Laying-Open No. 2015-66623

タブレット等の操作端末を介したロボットとの対話においては、ロボットの発話動作に応答するユーザ側の対話の選択肢を操作端末に表示する対話形式が想定される。しかしながら、このような対話形式を採用する場合、操作端末への選択肢の表示タイミングが不適切であると、ロボットとの対話が違和感のある不自然なものになってしまう虞がある。   In a dialog with a robot via an operation terminal such as a tablet, a dialog format is assumed in which user-side dialog options that respond to the speech operation of the robot are displayed on the operation terminal. However, when such an interactive format is employed, if the display timing of the options on the operation terminal is inappropriate, the interaction with the robot may become unnatural and unnatural.

本発明はこのような点を考慮してなされたものであり、飲食店におけるロボットとの対話を違和感なく自然に行うことができるロボット制御システムおよびロボット制御装置を提供することを目的とする。   The present invention has been made in consideration of such points, and an object thereof is to provide a robot control system and a robot control apparatus capable of naturally performing a dialogue with a robot in a restaurant without a sense of incongruity.

本発明は、飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットと、ロボットを操作する指令信号を生成する操作端末と、顧客の飲食店内での滞在状態を判断する滞在状態判断部と、を備え、操作端末は、顧客とロボットとの対話に用いられる対話シナリオ情報に基づく対話シナリオの進行に合わせて、ロボットとの対話のための選択肢を表示部に表示させる表示処理部と、ロボットの発話動作の動作期間内の所定のタイミングを、滞在状態判断部にて判断された滞在状態に基づいて、推定するタイミング推定部と、タイミング推定部にて推定された所定のタイミングに基づいて、選択肢を表示部に表示させるよう表示処理部に指示する表示指示部と、を備える、ロボット制御システムである。   The present invention determines a robot that performs an operation according to a command signal in order to interact with a customer who has visited a restaurant, an operation terminal that generates a command signal for operating the robot, and a staying state of the customer in the restaurant A display that displays options for dialogue with the robot in accordance with the progress of the dialogue scenario based on the dialogue scenario information used for dialogue between the customer and the robot. A processing unit, a timing estimation unit for estimating a predetermined timing within the operation period of the speech operation of the robot based on the stay state determined by the stay state determination unit, and a predetermined timing estimated by the timing estimation unit A robot control system comprising: a display instruction unit that instructs a display processing unit to display options on a display unit based on timing.

本発明によるロボット制御システムにおいて、所定のタイミングは、ロボットの動作の終了時刻に対する滞在状態に応じた所定時間前の時刻であってもよい。   In the robot control system according to the present invention, the predetermined timing may be a time before a predetermined time corresponding to the stay state with respect to the end time of the operation of the robot.

本発明によるロボット制御システムにおいて、所定のタイミングは、ロボットの動作期間内の特定の時刻に対する滞在状態に応じた所定時間前または所定時間後の時刻であってもよい。   In the robot control system according to the present invention, the predetermined timing may be a time before or after a predetermined time according to a staying state with respect to a specific time within an operation period of the robot.

本発明によるロボット制御システムにおいて、表示指示部は、ロボットが一つの動作を開始してから終了するまでの間に、表示部に選択肢を表示するよう表示処理部に指示してもよい。   In the robot control system according to the present invention, the display instruction unit may instruct the display processing unit to display options on the display unit between the start and end of one operation of the robot.

本発明によるロボット制御システムにおいて、ロボットの動作は、ロボットの発話を含み、表示指示部は、ロボットの発話に用いられるデータのデータ量に基づいて、表示部に選択肢を表示するタイミングを調整してもよい。   In the robot control system according to the present invention, the operation of the robot includes the utterance of the robot, and the display instruction unit adjusts the timing of displaying the options on the display unit based on the data amount of the data used for the utterance of the robot. Also good.

本発明によるロボット制御システムにおいて、表示指示部にて表示される選択肢は、既存の対話シナリオまたは新たな対話シナリオの進行に応じた選択肢であってもよい。   In the robot control system according to the present invention, the option displayed by the display instruction unit may be an option according to the progress of an existing dialog scenario or a new dialog scenario.

本発明によるロボット制御システムにおいて、ロボットの動作の終了時刻を含む予め設定された期間が経過する前は、表示部で表示された選択肢の選択操作を禁止し、予め設定された期間が経過した以後は、表示部で表示された選択肢の選択操作を許可する操作制御部を更に備えてもよい。   In the robot control system according to the present invention, before the preset period including the end time of the operation of the robot has elapsed, the selection operation of the option displayed on the display unit is prohibited, and after the preset period has elapsed. May further include an operation control unit that permits an operation of selecting an option displayed on the display unit.

本発明によるロボット制御システムにおいて、予め設定された期間は、複数の滞在状態のそれぞれに対応して設定されており、操作制御部は、滞在状態判断部にて判断された滞在状態に対応する予め設定された時間に基づいて、選択肢の選択操作を禁止または許可してもよい。   In the robot control system according to the present invention, the preset period is set corresponding to each of the plurality of stay states, and the operation control unit corresponds to the stay state determined by the stay state determination unit in advance. Based on the set time, the selection operation of options may be prohibited or permitted.

本発明によるロボット制御システムにおいて、予め設定された期間は、複数の滞在状態によらず、一定の期間であってもよい。   In the robot control system according to the present invention, the preset period may be a fixed period regardless of a plurality of staying states.

本発明によるロボット制御システムにおいて、対話シナリオ情報は、飲食物のメニュー選択に関する前記ロボットとの対話内容を含んでもよい。   In the robot control system according to the present invention, the dialogue scenario information may include a dialogue content with the robot regarding menu selection of food and drink.

本発明は、飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットに対して指令信号を送信するロボット制御装置であって、顧客の飲食店内での滞在状態を判断する滞在状態判断部と、顧客とロボットとの対話に用いられる対話シナリオ情報に基づく対話シナリオの進行に合わせて、ロボットとの対話のための選択肢を表示部に表示させる表示処理部と、ロボットの発話動作の動作期間内の所定のタイミングを、滞在状態判断部にて判断された滞在状態に基づいて、推定するタイミング推定部と、タイミング推定部にて推定された所定のタイミングに基づいて、選択肢を表示部に表示させるよう表示処理部に指示する表示指示部と、を備える、ロボット制御装置である。   The present invention is a robot control device that transmits a command signal to a robot that performs an operation according to a command signal in order to interact with a customer who has visited a restaurant, and determines a staying state of the customer in the restaurant The stay state determination unit, a display processing unit that displays options for dialogue with the robot in accordance with the progress of the dialogue scenario based on the dialogue scenario information used for dialogue between the customer and the robot, and the utterance of the robot Based on the stay state determined by the stay state determination unit based on the stay state determined by the stay state determination unit, the timing is estimated based on the predetermined timing estimated by the timing estimation unit. And a display instruction unit that instructs the display processing unit to display on the display unit.

本発明によれば、飲食店におけるロボットとの対話を違和感なく自然に行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the dialog with the robot in a restaurant can be performed naturally without a sense of incongruity.

第1の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムにおいて、シナリオ制御部を示すブロック図である。It is a block diagram which shows a scenario control part in the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムにおいて、対話制御部を示すブロック図である。It is a block diagram which shows a dialogue control part in the robot control system by a 1st embodiment. 第1の実施形態によるロボット制御システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムの動作例において、滞在状態に基づいた選択肢表示タイミングの推定処理を示す図である。It is a figure which shows the estimation process of the choice display timing based on a stay state in the operation example of the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムの動作例において、着席から注文までの期間中の選択肢の表示例を示す図である。It is a figure which shows the example of a display of the choice in the period from a seating to an order in the operation example of the robot control system by 1st Embodiment. 第1の実施形態によるロボット制御システムの動作例において、注文から飲食物提供までの期間中の選択肢の表示例を示す図である。In the operation example of the robot control system by 1st Embodiment, it is a figure which shows the example of a display of the choice in the period from order to provision of food and drink. 第1の実施形態によるロボット制御システムの動作例において、飲食物提供から飲食終了までの期間中の選択肢の表示例を示す図である。In the operation example of the robot control system by 1st Embodiment, it is a figure which shows the example of a display of the choice in the period from food-drink provision to the end of eating and drinking. 第2の実施形態によるロボット制御システムにおいて、対話制御部を示すブロック図である。It is a block diagram which shows a dialogue control part in the robot control system by a 2nd embodiment. 第2の実施形態によるロボット制御システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the robot control system by 2nd Embodiment. 第3の実施形態によるロボット制御システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the robot control system by 3rd Embodiment. 第4の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 4th Embodiment. 第5の実施形態によるロボット制御システムを示すブロック図である。It is a block diagram which shows the robot control system by 5th Embodiment.

以下、本発明の実施形態に係るロボット制御システムおよびロボット制御装置の構成及び作用について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。   Hereinafter, the configuration and operation of a robot control system and a robot control apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings. In addition, embodiment shown below is an example of embodiment of this invention, This invention is limited to these embodiment, and is not interpreted. In the drawings referred to in this embodiment, the same portions or portions having similar functions are denoted by the same reference symbols or similar reference symbols, and repeated description thereof may be omitted. In addition, the dimensional ratio in the drawing may be different from the actual ratio for convenience of explanation, or a part of the configuration may be omitted from the drawing.

(第1の実施形態)
図1は、第1の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(point of sales)システムなどの店舗システム5とを備える。ロボット制御システム1は、飲食店の来店客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話するためのシステムである。図1の例におけるロボット2は、人間に似た外観および対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。ロボット2は、姿勢や動作等をプログラム可能な汎用のロボットでもよいし、本ロボット制御システム1用に開発されたロボットでもよい。
(First embodiment)
FIG. 1 is a block diagram showing a robot control system 1 according to the first embodiment. As shown in FIG. 1, the robot control system 1 includes a robot 2, an operation terminal 3 which is an example of a robot control device, a handy terminal 4, and a store system 5 such as a POS (point of sales) system. The robot control system 1 is a system for a restaurant customer (hereinafter referred to as a user) to interact with the robot 2 via an operation terminal 3 that operates the robot 2. The robot 2 in the example of FIG. 1 is a machine having a human-like appearance and interactive function, that is, a humanoid. Note that the robot 2 may have a dissimilar appearance to humans such as animals and characters. Further, the robot 2 may be a virtual robot based on an image displayed on the display unit 35. The robot 2 may be a general-purpose robot that can be programmed in posture, motion, or the like, or may be a robot developed for the robot control system 1.

(ロボット2)
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動される。なお、ロボット2は、電池等のバッテリ駆動型であってもよい。
(Robot 2)
As shown in FIG. 1, the robot 2 includes a robot drive unit 21 and a robot control unit 22 that is an example of a drive control unit. The robot 2 is driven by electric power supplied from a commercial power source. The robot 2 may be a battery-driven type such as a battery.

ロボット駆動部21は、例えば、胴体部、腕部、首部、眼球部、瞼部または口部等の自由度を有するロボット2の部位を駆動するアクチュエータと、ロボット2の発話音声を出力する音声出力装置と、ロボット2の眼球部を点灯させる点灯装置とを有する。ロボット駆動部21を必要に応じて駆動することで、ユーザとの対話を行うために、ロボット2に発話させたり、ロボット2の姿勢を変化させたり、ロボット2の外観を変化(例えば、眼球部を所定の点灯色で点灯)させたりすることができる。ロボット駆動部21には、ロボット制御部22から、ロボット駆動部21の駆動を制御する駆動制御信号が入力される。ロボット駆動部21は、駆動制御信号に応じて駆動される。   The robot drive unit 21 includes, for example, an actuator that drives a part of the robot 2 having a degree of freedom, such as a body part, an arm part, a neck part, an eyeball part, a buttocks part, or a mouth part, and a voice output that outputs the speech voice of the robot 2 And a lighting device for lighting the eyeball portion of the robot 2. By driving the robot drive unit 21 as necessary, the robot 2 speaks, the posture of the robot 2 is changed, or the appearance of the robot 2 is changed (for example, an eyeball unit). Can be turned on with a predetermined lighting color. A drive control signal for controlling the drive of the robot drive unit 21 is input from the robot control unit 22 to the robot drive unit 21. The robot drive unit 21 is driven according to the drive control signal.

ロボット制御部22は、指令信号の一例であるロボット制御コマンドを操作端末3から受信する。ロボット制御部22は、受信されたロボット制御コマンドに基づいて既述した駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力する。すなわち、ロボット2は、飲食店に来客した顧客と対話するためロボット制御コマンドに応じて動作することができる。なお、ロボット制御コマンドは、これによって駆動を制御しようとするロボット駆動部21の種類や制御内容に応じて多種多様である。例えば、ロボット制御コマンドには、ロボット2の姿勢や位置や点灯状態を制御するためのコマンドや、ロボット2を発話させるためのコマンドがある。ロボット2を発話させるためのコマンドには、発話内容を示すデータ(後述するロボット側シナリオデータ)が含まれる。   The robot control unit 22 receives a robot control command, which is an example of a command signal, from the operation terminal 3. The robot control unit 22 generates the drive control signal described above based on the received robot control command, and outputs the generated drive control signal to the robot drive unit 21. That is, the robot 2 can operate according to the robot control command to interact with the customer who has visited the restaurant. There are various types of robot control commands depending on the type and control content of the robot drive unit 21 whose drive is to be controlled. For example, the robot control command includes a command for controlling the posture, position, and lighting state of the robot 2 and a command for causing the robot 2 to speak. The command for causing the robot 2 to speak includes data indicating the content of the speech (robot side scenario data described later).

ロボット制御部22は、例えば、アプリケーションプログラムやこれを動作させるオペレーティングシステムなどのソフトウェアが記憶された少なくとも1つのメモリと、メモリに記憶されたソフトウェアを実行するCPU(Central Processing Unit)とを有し、メモリに記憶されたソフトウェアをCPUが実行することで駆動制御信号を生成してもよい。   The robot control unit 22 includes, for example, at least one memory that stores software such as an application program and an operating system that operates the application program, and a CPU (Central Processing Unit) that executes the software stored in the memory. The drive control signal may be generated by the CPU executing software stored in the memory.

(操作端末3)
操作端末3は、ユーザが操作するために携帯する(すなわち、把持する)ものであり、例えばタッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、方位センサ31と動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。方位センサ31は、操作端末3の方位を検出する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32に出力する。
(Operation terminal 3)
The operation terminal 3 is carried (i.e., held) by the user for operation, and is, for example, a tablet terminal having a touch function. In addition, the operation terminal 3 may be a smartphone, a desktop display type terminal, or the like. As illustrated in FIG. 1, the operation terminal 3 includes an orientation sensor 31 and a motion generation unit 32. The operation terminal 3 is driven by electric power supplied from the built-in battery. The direction sensor 31 detects the direction of the operation terminal 3. The direction sensor 31 outputs a direction detection signal indicating the detected direction of the operation terminal 3 to the motion generation unit 32.

動作生成部32は、方位センサ31からの方位検出信号に基づいて、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。動作生成部32は、生成されたロボット制御コマンドを、例えばWiFiなどの無線通信によってロボット制御部22に送信する。ロボット制御部22は、動作生成部32からのロボット制御コマンドを受信し、受信されたロボット制御コマンドに応じた駆動制御信号をロボット駆動部21に出力することで、操作端末3が存在する方向をロボット2が向くようにロボット駆動部21の駆動を制御する。これにより、ロボット2と向き合う状態でユーザがロボット2と対話することができるので、ユーザは、違和感なく自然にロボット2との対話を行うことができ、対話への満足感を向上させることができる。   Based on the direction detection signal from the direction sensor 31, the motion generation unit 32 generates a robot control command for controlling the posture of the robot 2 so as to face the direction in which the operation terminal 3 exists. The motion generation unit 32 transmits the generated robot control command to the robot control unit 22 by wireless communication such as WiFi, for example. The robot control unit 22 receives the robot control command from the motion generation unit 32 and outputs a drive control signal corresponding to the received robot control command to the robot drive unit 21, thereby determining the direction in which the operation terminal 3 exists. The drive of the robot drive unit 21 is controlled so that the robot 2 faces. Accordingly, since the user can interact with the robot 2 while facing the robot 2, the user can naturally interact with the robot 2 without feeling uncomfortable, and the satisfaction with the interaction can be improved. .

図1に示すように、操作端末3は、対話シナリオ情報を用いてユーザとロボット2との間での対話を行うための構成として、既述した動作生成部32に加えて、更に、シナリオDB(データベース)33と、シナリオ制御部34と、表示部35と、タッチパネル等の入力部36と、音声出力部37とを有する。   As shown in FIG. 1, the operation terminal 3 has a scenario DB as a configuration for performing dialogue between the user and the robot 2 using the dialogue scenario information, in addition to the motion generation unit 32 described above. (Database) 33, scenario control unit 34, display unit 35, input unit 36 such as a touch panel, and audio output unit 37.

シナリオDB33には、ユーザとロボット2との間での対話を行うための複数の対話シナリオ情報が蓄積されている。対話シナリオ情報は、複数の対話シナリオを含んでいる。対話シナリオとは、ユーザとロボット2との間でやり取りされる対話のストーリである。飲食店に入店した顧客は、入店してから退店するまでの間に複数の滞在状態を遷移する。そこで、シナリオDBには、各遷移状態ごとに別個の対話シナリオが蓄積されている。また、ある滞在状態にて実行された対話シナリオの進行中に、顧客が操作端末3で複数の選択肢の中から特定の選択肢を選択した場合には、別の対話シナリオに切り替わる場合もありうる。各対話シナリオは、ロボット2が対話(すなわち、発話)に用いるロボット側シナリオデータと、ユーザが対話(すなわち、操作端末3での選択)に用いるユーザ側シナリオデータとで構成されている。ユーザ側シナリオデータは、各対話シナリオにおけるロボット2の発話に対するユーザ側の選択肢等を集めたデータである。ユーザ側シナリオデータは、対話シナリオの進行に合わせて、操作端末3の表示部35に選択肢等を表示するために用いられる。ユーザは、表示された選択肢の中から特定の選択肢を入力部36にて選択することができる。そして、ユーザ側シナリオデータに示される対話シナリオの選択肢のそれぞれに、互いに異なる新たな(下位の)ロボット側シナリオデータが対応付けられている。すなわち、対話シナリオ情報は、ロボット側シナリオデータとユーザ側シナリオデータが交互にノードとして結合されたツリー構造を有する。ツリー構造のうち、最上位から最下位にわたる所定の一連のノード群は、例えば典型的な対話に用いられる基本シナリオとして管理され、他のノード群は、基本シナリオを補正する補正シナリオとして管理されていてもよい。   The scenario DB 33 stores a plurality of pieces of dialogue scenario information for carrying out a dialogue between the user and the robot 2. The dialogue scenario information includes a plurality of dialogue scenarios. The dialogue scenario is a story of dialogue exchanged between the user and the robot 2. A customer who enters a restaurant changes a plurality of staying states after entering the restaurant and before leaving the store. Therefore, a separate dialogue scenario is accumulated for each transition state in the scenario DB. Further, when a customer selects a specific option from among a plurality of options while the dialog scenario executed in a certain stay state is in progress, there may be a case of switching to another dialog scenario. Each dialogue scenario is composed of robot-side scenario data that the robot 2 uses for dialogue (ie, utterance) and user-side scenario data that the user uses for dialogue (ie, selection on the operation terminal 3). The user-side scenario data is data that collects user-side options and the like for the utterances of the robot 2 in each dialogue scenario. The user-side scenario data is used for displaying options and the like on the display unit 35 of the operation terminal 3 in accordance with the progress of the conversation scenario. The user can select a specific option from the displayed options using the input unit 36. Then, different (lower) robot-side scenario data different from each other are associated with each of the dialogue scenario options shown in the user-side scenario data. That is, the dialogue scenario information has a tree structure in which robot-side scenario data and user-side scenario data are alternately coupled as nodes. In the tree structure, a predetermined series of nodes ranging from the highest level to the lowest level are managed as basic scenarios used for typical dialogue, for example, and the other node groups are managed as correction scenarios for correcting the basic scenarios. May be.

また、対話シナリオ情報は、飲食店におけるユーザの滞在状態すなわち動作状態を示すステータスデータに応じて複数のシナリオ群に区分されている。   The dialogue scenario information is divided into a plurality of scenario groups according to status data indicating the staying state of the user in the restaurant, that is, the operation state.

図1の例におけるステータスデータは、ユーザが着席したことを示す第1状態、ユーザが飲食物の注文をしたことを示す第2状態、注文した飲食物がユーザに提供されたことを示す第3状態、ユーザが提供された飲食物の飲食を完了したことを示す第4状態、およびユーザが会計を完了したことを示す第5状態の各状態を示す。これに限られず、ステータスデータは、ユーザが離席したことを示す離席状態、ユーザ同士が会話をしている会話状態、又は、ユーザが食後にデザートを注文した状態などを備えていてもよい。このように、ステータスデータは、時間の経過とともに変化するユーザの状態を示す情報である。   The status data in the example of FIG. 1 includes a first state indicating that the user has been seated, a second state indicating that the user has ordered food and drink, and a third state indicating that the ordered food and beverage has been provided to the user. A state, the 4th state which shows that the food and drink provided by the user were completed, and each state of the 5th state which shows that the user completed accounting are shown. The status data is not limited to this, and the status data may include a leaving state indicating that the user has left the seat, a conversation state in which the users are having a conversation, or a state in which the user has ordered dessert after eating. . Thus, the status data is information indicating the state of the user that changes with the passage of time.

また、図1の例における対話シナリオ情報は、着席から注文までの期間における対話に用いられる第1シナリオ群と、注文から飲食物提供までの期間における対話に用いられる第2シナリオ群と、飲食物提供から食事終了までの間における対話に用いられる第3のシナリオ群と、食事終了から会計までの間における対話に用いられる第4シナリオ群とに区分されている。各シナリオ群は、ユーザの滞在状態に適したシナリオデータの束であり、滞在状態に合わせた種々のシナリオデータを含む。例えば、ユーザの滞在状態が着席から注文までの滞在状態である場合、シナリオ群には、それぞれの時刻に合わせたメニューを提示するシナリオデータや、大人、小人の人数により対話の内容や、話し方が変化するシナリオデータ、その他様々なシチュエーションに応じたシナリオデータが含まれている。   In addition, the dialogue scenario information in the example of FIG. 1 includes a first scenario group used for dialogue in the period from sitting to order, a second scenario group used for dialogue in the period from order to food provision, and food and drink. It is divided into a third scenario group used for the dialogue between the provision and the end of the meal and a fourth scenario group used for the dialogue between the end of the meal and the accounting. Each scenario group is a bundle of scenario data suitable for the staying state of the user, and includes various scenario data according to the staying state. For example, if the user's staying state is from staying to ordering, the scenario group includes scenario data that presents a menu according to each time, the content of the conversation depending on the number of adults and children, Scenario data that changes, and other scenario data according to various situations are included.

また、ロボット側シナリオデータには、ロボット2の疑似的な感情や意図等のロボット2の内部状態すなわち心理状態を数値化した内部状態パラメータが対応付けられている。内部状態パラメータは、例えば、喜び等の感情を数値化した正感情値(+)と、悲しみ等の感情を数値化した負感情値(−)を含む。   The robot-side scenario data is associated with an internal state parameter obtained by quantifying the internal state of the robot 2, that is, the psychological state, such as a pseudo emotion or intention of the robot 2. The internal state parameter includes, for example, a positive emotion value (+) obtained by quantifying emotions such as joy and a negative emotion value (−) obtained by quantifying emotions such as sadness.

シナリオ制御部34は、店舗システム5から出力されたステータスデータに基づいてシナリオを制御する。図2は、第1の実施形態によるロボット制御システム1において、シナリオ制御部34を示すブロック図である。図2に示すように、シナリオ制御部34は、受信部341と、滞在状態判断部342と、情報取得部343と、対話制御部345と、を備える。   The scenario control unit 34 controls the scenario based on the status data output from the store system 5. FIG. 2 is a block diagram showing the scenario control unit 34 in the robot control system 1 according to the first embodiment. As illustrated in FIG. 2, the scenario control unit 34 includes a reception unit 341, a stay state determination unit 342, an information acquisition unit 343, and a dialogue control unit 345.

受信部341は、店舗システム5から出力されたステータスデータを受信する。ステータスデータは、例えば飲食店の店舗スタッフが携帯する注文用のハンディ端末4にて入力可能である。このステータスデータは、ハンディ端末4から店舗システム5に送信された上で、店舗システム5からシナリオ制御部34の受信部341へと送信される。また、ステータスデータは、店舗システム5を経由せずに、ハンディ端末4から直接受信部341を介して操作端末3へと送信されるようにしてもよい。   The receiving unit 341 receives status data output from the store system 5. The status data can be input, for example, at the handy terminal 4 for ordering carried by the store staff of the restaurant. The status data is transmitted from the handy terminal 4 to the store system 5 and then transmitted from the store system 5 to the receiving unit 341 of the scenario control unit 34. Further, the status data may be transmitted from the handy terminal 4 directly to the operation terminal 3 via the receiving unit 341 without passing through the store system 5.

滞在状態判断部342は、受信部341を介して受信されたステータスデータに基づいて、飲食店内でのユーザの滞在状態を判断する。例えば、滞在状態判定部342は、受信部341を介してユーザが着席したことを示す信号を受信すると、ユーザが着席後、注文前の滞在状態であると判断する。また、滞在状態判定部342は、受信部341を介してユーザが飲食物を注文したことを示すステータスデータを受信すると、ユーザが注文後、飲食物の提供待ちの滞在状態であると判断する。既述したステータスデータと同様に、滞在状態も、時間の経過とともに変化するユーザの状態を示す情報である。   Stay state determination unit 342 determines the stay state of the user in the restaurant based on the status data received via reception unit 341. For example, when the stay state determination unit 342 receives a signal indicating that the user has been seated via the reception unit 341, the stay state determination unit 342 determines that the user is in the stay state before the order after being seated. When stay status determination unit 342 receives status data indicating that the user has ordered food and drink via receiving unit 341, stay state determination unit 342 determines that the user is in a stay state waiting for food and drink after the order is placed. Similar to the status data described above, the stay state is information indicating the state of the user that changes over time.

なお、ステータスデータと滞在状態の関連性は、上述したもの以外の構成であってもよい。例えば、店舗スタッフが、ステータスデータとして滞在状態そのものを入力するようにしてもよい。すなわち、ユーザの行為をトリガとして入力するのではなく、状態そのものを入力するものであってもよい。具体的には、店舗スタッフが、着席した、注文した、といった行為を入力するのではなく、着席している状態、注文して飲食物待機中の状態といった状態を直接入力するようにしてもよい。この場合、滞在状態判断部342は、受信したステータスデータそのものを滞在状態であると判断する。   The relationship between the status data and the staying state may be a configuration other than those described above. For example, the store staff may input the stay state itself as the status data. That is, instead of inputting the user's action as a trigger, the state itself may be input. Specifically, the store staff may not directly input the act of being seated or ordered, but directly input the state of being seated or ordering and waiting for food or drink. . In this case, stay state determination unit 342 determines that the received status data itself is a stay state.

情報取得部343は、シナリオDB33から、滞在状態判断部342が判断した滞在状態および後述する対話シナリオ選択信号(図2参照)で選択されたユーザ側の対話の選択肢に応じた対話シナリオ情報を選択して取得する。情報取得部343は、シナリオDB33に格納された滞在状態に応じたシナリオ群の中から、ユーザが選択した選択肢に応答するシナリオデータを選択するようにしてもよいし、滞在状態に応じたシナリオ群そのものをシナリオDB33から取得した上で、取得されたシナリオ群の中から、ユーザが選択した選択肢に応答するシナリオデータを選択するようにしてもよい。シナリオ群からシナリオデータを選択するのは、対話制御部345であってもよい。   The information acquisition unit 343 selects, from the scenario DB 33, dialogue scenario information according to the stay state determined by the stay state determination unit 342 and the user's dialogue choices selected by a dialogue scenario selection signal (see FIG. 2) described later. And get. The information acquisition unit 343 may select scenario data that responds to the option selected by the user from the scenario group corresponding to the stay state stored in the scenario DB 33, or the scenario group corresponding to the stay state After acquiring itself from the scenario DB 33, scenario data that responds to the option selected by the user may be selected from the acquired scenario group. The dialogue control unit 345 may select the scenario data from the scenario group.

また、情報取得部343は、シナリオDB33から対話シナリオ情報を取得するとき、対話シナリオ情報のうちロボット側シナリオデータに対応付けられた内部状態パラメータも同時にシナリオDB33から取得する。   Further, when the information acquisition unit 343 acquires the conversation scenario information from the scenario DB 33, the information acquisition unit 343 also acquires the internal state parameters associated with the robot-side scenario data from the scenario DB 33 at the same time.

また、情報取得部343は、メニュー中にお薦めのメニューがある場合に、当該お薦めのメニューを対話シナリオへと挿入してもよい。情報取得部343は、シナリオDB33その他の記憶部からお薦めのメニューを取得してもよい。   In addition, when there is a recommended menu in the menu, the information acquisition unit 343 may insert the recommended menu into the dialogue scenario. The information acquisition unit 343 may acquire a recommended menu from the scenario DB 33 or other storage unit.

対話制御部345は、図2に示すように、情報取得部343で取得された滞在状態に応じた対話シナリオ情報のうち、ロボット側シナリオデータを動作生成部32に出力する。このとき、対話制御部345は、ロボット側シナリオデータに対応付けられた内部状態パラメータを情報取得部343から取得し、取得された内部状態パラメータをロボット側シナリオデータと同時に動作生成部32に出力する。対話制御部345は、自身がシナリオDB33から取得した滞在状態に応じた対話シナリオ情報を動作生成部32に出力してもよい。   As shown in FIG. 2, the dialogue control unit 345 outputs the robot-side scenario data to the motion generation unit 32 among the dialogue scenario information corresponding to the stay state acquired by the information acquisition unit 343. At this time, the dialogue control unit 345 acquires the internal state parameter associated with the robot-side scenario data from the information acquisition unit 343, and outputs the acquired internal state parameter to the motion generation unit 32 simultaneously with the robot-side scenario data. . The dialogue control unit 345 may output the dialogue scenario information corresponding to the stay state acquired from the scenario DB 33 to the operation generation unit 32.

動作生成部32は、対話制御部345から入力されたロボット側シナリオデータに基づいてロボット2に対話動作を指令するためのロボット制御コマンドを生成し、生成されたロボット制御コマンドをロボット制御部22に送信する。ロボット制御コマンドを送信することで、ロボット2に対話動作を行わせることができる。   The motion generation unit 32 generates a robot control command for instructing the robot 2 to perform a dialog operation based on the robot-side scenario data input from the dialog control unit 345, and sends the generated robot control command to the robot control unit 22. Send. By transmitting the robot control command, the robot 2 can perform an interactive operation.

対話動作が発話動作を含む場合、動作生成部32は、ロボット制御コマンドの少なくとも一部として、ロボット側シナリオデータを音声化した音声データを生成および送信する。ロボット制御コマンドとして音声データを送信する代わりに、ロボット2内に音声データを格納しておき、動作生成部32が、ロボット2内の音声データに紐づけられたIDをロボット制御コマンドとして送信してもよい。また、対話動作がロボット2の姿勢および外観の少なくとも一方を変化させる動作を含む場合、動作生成部32は、ロボット制御コマンドの少なくとも一部として、ロボット2の姿勢および外観の少なくとも一方を変化させる動作を指令する信号を生成および送信する。   When the dialogue operation includes an utterance operation, the operation generation unit 32 generates and transmits audio data obtained by converting the robot-side scenario data into audio as at least a part of the robot control command. Instead of sending voice data as a robot control command, the voice data is stored in the robot 2, and the motion generation unit 32 sends the ID associated with the voice data in the robot 2 as a robot control command. Also good. When the dialogue operation includes an operation that changes at least one of the posture and appearance of the robot 2, the operation generation unit 32 changes the posture and / or appearance of the robot 2 as at least part of the robot control command. Generate and send a signal to command

ロボット制御コマンドの生成において、動作生成部32は、ロボット側シナリオデータに対応付けられた内部パラメータを考慮して、対話動作の内容に、発話音声のトーンや、眼球部の点灯状態やロボット2の姿勢等を含ませる。   In generating the robot control command, the motion generation unit 32 considers the internal parameters associated with the robot-side scenario data, and the content of the dialogue operation includes the tone of the utterance voice, the lighting state of the eyeball unit, the robot 2 Include posture, etc.

対話制御部345は、図2に示すように、情報取得部343で取得された滞在状態に応じた対話シナリオ情報のうち、ユーザ側シナリオデータを画像化し、画像化されたユーザ側シナリオデータを対話の選択肢として表示部35に表示させる。選択肢の表示は、より具体的には、後述する表示処理部3453によって行われる。ユーザは、表示部35に表示されている対話の選択肢に基づき、図2に示すように、入力部36を介して選択肢の選択結果を示す対話シナリオ選択信号を対話制御部345に入力する。対話制御部345は、入力部36から入力された対話シナリオ選択信号で選択された対話の選択肢に応答するため、既述したように、選択された選択肢に応じて情報取得部343で選択されたロボット側シナリオデータを、動作生成部32に出力する。   As shown in FIG. 2, the dialogue control unit 345 visualizes user-side scenario data out of the dialogue scenario information corresponding to the stay state acquired by the information acquisition unit 343, and dialogues the imaged user-side scenario data. Are displayed on the display unit 35 as options. More specifically, the display of options is performed by a display processing unit 3453 described later. Based on the dialogue options displayed on the display unit 35, the user inputs a dialogue scenario selection signal indicating the selection result of the options to the dialogue control unit 345 via the input unit 36 as shown in FIG. 2. Since the dialogue control unit 345 responds to the dialogue option selected by the dialogue scenario selection signal input from the input unit 36, as described above, the dialogue control unit 345 is selected by the information acquisition unit 343 according to the selected option. The robot side scenario data is output to the motion generation unit 32.

図3は、第1の実施形態によるロボット制御システムにおいて、対話制御部345を示すブロック図である。対話の選択肢を滞在状態に応じた好適なタイミングで表示部35に表示するため、図3に示すように、対話制御部345は、タイミング推定部3451と、表示指示部3452と、表示処理部3453と、を備える。   FIG. 3 is a block diagram showing the dialogue control unit 345 in the robot control system according to the first embodiment. In order to display the dialogue options on the display unit 35 at a suitable timing according to the stay state, the dialogue control unit 345 includes a timing estimation unit 3451, a display instruction unit 3452, and a display processing unit 3453, as shown in FIG. And comprising.

表示処理部3453は、ユーザとロボット2との対話に用いられる対話シナリオ情報に基づく対話シナリオの対話シナリオ選択信号に応じた進行に合わせて、ロボット2との対話の選択肢を表示部35に表示させる。   The display processing unit 3453 causes the display unit 35 to display dialogue options with the robot 2 in accordance with the progress according to the dialogue scenario selection signal of the dialogue scenario based on the dialogue scenario information used for the dialogue between the user and the robot 2. .

タイミング推定部3451は、ロボット2の発話動作の動作期間内の所定のタイミングの一例である対話の選択肢の表示タイミング(以下、選択肢表示タイミングとも呼ぶ)を、滞在状態判断部342にて判断された滞在状態に基づいて推定する。   The timing estimation unit 3451 has the stay state determination unit 342 determined the display timing of dialogue options (hereinafter, also referred to as option display timing), which is an example of a predetermined timing within the operation period of the utterance operation of the robot 2. Estimate based on stay status.

選択肢表示タイミングは、例えば、ロボット2の動作期間内の特定の時刻に対する所定時間前または所定時間後の時刻である。より具体的には、選択肢表示タイミングは、例えば、ロボット2の動作の終了時刻に対する滞在状態に応じた所定時間前の時刻であってもよい。   The option display timing is, for example, a time before or after a predetermined time with respect to a specific time within the operation period of the robot 2. More specifically, the option display timing may be, for example, a time before a predetermined time corresponding to the stay state with respect to the end time of the operation of the robot 2.

表示指示部3452は、タイミング推定部3451にて推定された選択肢表示タイミングに基づいて、選択肢を表示部35に表示させるように表示処理部3453に指示する。すなわち、表示指示部3452は、ロボット2が一つの動作を開始してから終了するまでの間に、タイミング推定部3451にて推定された選択肢表示タイミングで表示部35に選択肢を表示するよう表示処理部3453を指示する。表示指示部3452にて表示される選択肢は、既存の対話シナリオまたは新たな対話シナリオの進行に応じた選択肢である   The display instruction unit 3452 instructs the display processing unit 3453 to display the options on the display unit 35 based on the option display timing estimated by the timing estimation unit 3451. That is, the display instructing unit 3452 displays the options on the display unit 35 at the option display timing estimated by the timing estimating unit 3451 between the start and end of the operation of the robot 2. The unit 3453 is instructed. The options displayed in the display instruction unit 3452 are options corresponding to the progress of an existing dialog scenario or a new dialog scenario.

タイミング推定部3451は、ロボット2の発話に用いられるデータのデータ量に基づいてロボット2の発話期間内の特定の時刻(例えば、発話の終了時刻)を推定したうえで、推定された特定の時刻に対する滞在状態に応じた所定時間前または所定時間後の時刻を、選択肢表示タイミングとして推定してもよい。ロボット2の発話に用いられるデータのデータ量に基づいて選択肢表示タイミングを推定することで、簡便かつ正確に選択肢表示タイミングを推定することができる。また、表示処理部3453は、ロボット2の発話に用いられるデータのデータ量に基づいて選択肢表示タイミングを調整することができる。なお、発話に用いられるデータは、音声ファイルであってもよく、音声ファイル以外のデータ(例えば、スクリプトなど)であってもよい。   The timing estimation unit 3451 estimates a specific time within the utterance period of the robot 2 based on the data amount of data used for the utterance of the robot 2 (for example, the end time of the utterance), and then the estimated specific time. A time before a predetermined time or after a predetermined time according to the staying state for may be estimated as the option display timing. By estimating the option display timing based on the data amount of the data used for the utterance of the robot 2, the option display timing can be estimated easily and accurately. The display processing unit 3453 can adjust the option display timing based on the data amount of data used for the utterance of the robot 2. Note that the data used for the utterance may be an audio file or data other than the audio file (for example, a script).

タイミング推定部3451、表示指示部3452、および表示処理部3453を備えることで、対話制御部345は、画像化されたユーザ側シナリオデータである選択肢を、滞在状態に応じた好適な選択肢表示タイミングで表示部35に表示させることができる。   By including the timing estimation unit 3451, the display instruction unit 3452, and the display processing unit 3453, the dialogue control unit 345 displays the option that is the imaged user-side scenario data at a suitable option display timing according to the stay state. It can be displayed on the display unit 35.

なお、対話制御部345が表示部35に出力するデータは、ユーザ側シナリオデータには限られず、ユーザがメニューを選択する際には、飲食物の画像や動画を表示部35へと出力するようにしてもよい。すなわち、対話に用いる言葉、文字に関する情報だけではなく、適宜、画像、動画等、表示に用いることのできるデータを表示部35へと出力するようにしてもよい。   Note that the data that the dialogue control unit 345 outputs to the display unit 35 is not limited to the user-side scenario data, and when the user selects a menu, the food or drink image or video is output to the display unit 35. It may be. That is, not only information about words and characters used for dialogue, but also data that can be used for display, such as images and moving images, may be output to the display unit 35 as appropriate.

また、これには限られず、必要に応じて操作端末3から音声を出力させたり、操作端末3を振動させたりしてもよく、この場合には、これらの音声データ、振動データ等を出力するようにしてもよい。また、ロボット2が音声を発する場合には、ロボット2が発する音声を文字として表示部35へと併せて出力するようにしてもよい。   In addition, the present invention is not limited to this, and sound may be output from the operation terminal 3 or the operation terminal 3 may be vibrated as necessary. In this case, the sound data, vibration data, and the like are output. You may do it. Further, when the robot 2 utters a sound, the sound uttered by the robot 2 may be output to the display unit 35 as characters.

以上のように、第1の実施形態において、対話制御部345は、ステータスデータに基づいて判断された滞在状態に応じて、シナリオDB33に格納されている各種のシナリオデータから適したものを取得し、動作生成部32、表示部35へと出力する。表示部35への画像化されたユーザ側シナリオデータの出力すなわち選択肢の表示にあたり、対話制御部345は、タイミング推定部3451で推定された滞在状態に応じた好適な選択肢表示タイミングで、選択肢を表示させる。さらに、対話制御部345は、表示部35に表示された選択肢に対する入力部36からの対話シナリオ選択信号に応じて、対話シナリオ選択信号で選択された選択肢に応答する新たなロボット側シナリオデータをシナリオDB33から選択する。そして、選択された新たなロボット側シナリオデータを、発話のために動作生成部32へと出力する。この処理を繰り返すことにより、ユーザとロボット2との間の対話を違和感なく自然に行うことが可能となる。   As described above, in the first embodiment, the dialogue control unit 345 acquires a suitable one from various scenario data stored in the scenario DB 33 according to the stay state determined based on the status data. And output to the motion generation unit 32 and the display unit 35. When outputting the imaged user-side scenario data on the display unit 35, that is, displaying the options, the dialogue control unit 345 displays the options at a suitable option display timing corresponding to the stay state estimated by the timing estimation unit 3451. Let Further, the dialogue control unit 345 generates new scenario data on the robot side that responds to the option selected by the dialogue scenario selection signal in response to the dialogue scenario selection signal from the input unit 36 for the option displayed on the display unit 35. Select from DB33. Then, the selected new robot-side scenario data is output to the motion generation unit 32 for speech. By repeating this process, it is possible to naturally carry out a dialogue between the user and the robot 2 without feeling uncomfortable.

また、飲食サービス業においては、着席、注文、飲食物提供、食事終了、会計などのユーザの滞在状態すなわち時間経過に応じて、ユーザとの間で交わすべき対話の内容が大きく変化する。第1の実施形態によれば、ステータスデータに応じて異なるシナリオ群の対話シナリオ情報を用いて対話を行うことができるので、飲食サービスの提供場面におけるロボット2との対話感をより向上させることができる。   In the food service industry, the content of dialogue to be exchanged with the user greatly changes depending on the staying state of the user such as seating, ordering, provision of food and drink, end of meal, accounting, and the like. According to the first embodiment, since the dialogue can be performed using the dialogue scenario information of different scenario groups according to the status data, it is possible to further improve the feeling of dialogue with the robot 2 in the scene where the food service is provided. it can.

また、内部状態パラメータの蓄積状態に応じて対話内容を可変とすることで、ロボット2との対話感をさらに向上させることができる。   Further, by making the content of the dialogue variable according to the accumulation state of the internal state parameters, it is possible to further improve the feeling of dialogue with the robot 2.

さらに、ユーザが選択した対話シナリオを音声出力することで、ユーザの発話を模擬することができるので、ロボット2との対話感をより一層向上させることができる。   Furthermore, since the user's utterance can be simulated by outputting the dialogue scenario selected by the user by voice, the feeling of dialogue with the robot 2 can be further improved.

また、ロボット側シナリオデータのうち、データ本体の識別情報であるシナリオIDのみをシナリオDB33に蓄積し、データ本体はロボット2側に蓄積させることで、ロボット2に発話をさせる際には、操作端末3側からロボット2側にシナリオIDを送信し、ロボット2側でシナリオIDに対応するデータ本体を音声出力すれば済む。この場合、操作端末3からロボット2にデータ本体を送信する場合と比較してデータ送信量を削減でき、対話の迅速性を向上させることが可能となる。   In addition, only the scenario ID, which is the identification information of the data main body, is stored in the scenario DB 33 among the robot side scenario data, and the data main body is stored on the robot 2 side. The scenario ID is transmitted from the 3 side to the robot 2 side, and the data body corresponding to the scenario ID is output by voice on the robot 2 side. In this case, the data transmission amount can be reduced compared to the case where the data body is transmitted from the operation terminal 3 to the robot 2, and the speed of dialogue can be improved.

(動作例)
次に、図1のロボット制御システム1の主要な動作例について説明する。図4は、第1の実施形態によるロボット制御システム1の動作例を示すフローチャートである。図4のフローチャートは、対話が終了するまで繰り返される。なお、便宜上、図4の初期状態において、タイミング推定部3451は、選択肢表示タイミングを推定するための発話終了に対するオフセット時間:t1秒を決定しているものとする。t1秒は、滞在状態判断部342で判断された滞在状態に応じた時間であり、発話終了時刻からt1秒前に選択肢の表示を開始することを意図して設定される時間である。
(Operation example)
Next, a main operation example of the robot control system 1 of FIG. 1 will be described. FIG. 4 is a flowchart showing an operation example of the robot control system 1 according to the first embodiment. The flowchart of FIG. 4 is repeated until the dialog is completed. For the sake of convenience, in the initial state of FIG. 4, it is assumed that the timing estimation unit 3451 determines an offset time: t1 seconds for the end of the utterance for estimating the option display timing. The t1 seconds is a time corresponding to the stay state determined by the stay state determination unit 342, and is a time set with the intention of starting the display of the option t1 seconds before the utterance end time.

そして、初期状態から、図4に示すように、先ず、滞在状態判断部342は、受信部341および店舗システム5を介してハンディ端末4からステータスデータを取得する(ステップS1)。   Then, from the initial state, as shown in FIG. 4, first, the stay state determination unit 342 acquires status data from the handy terminal 4 via the reception unit 341 and the store system 5 (step S1).

ここで、図5は、第1の実施形態によるロボット制御システム1の動作例において、滞在状態に基づいた選択肢表示タイミングの推定処理を示す図である。図5には、ステータスデータA1〜A5と、ステータスデータA1〜A5に基づいて判断される滞在状態B1〜B4と、滞在状態B1〜B4に基づいて推定される選択肢表示タイミングC1〜C4とが時系列順に示されている。   Here, FIG. 5 is a diagram illustrating an option display timing estimation process based on the stay state in the operation example of the robot control system 1 according to the first embodiment. FIG. 5 shows status data A1 to A5, stay states B1 to B4 determined based on the status data A1 to A5, and option display timings C1 to C4 estimated based on the stay states B1 to B4. They are shown in sequence order.

図5の例において、滞在状態判断部342は、ユーザが入店または着席したことを示す第1のステータスデータA1、ユーザが飲食物を注文したことを示す第2のステータスデータA2、ユーザに飲食物が提供されたことを示す第3のステータスデータA3、ユーザが飲食を終了したことを示す第4のステータスデータA4、または、ユーザが会計または離席したことを示す第5のステータスデータA5を取得する。   In the example of FIG. 5, the stay state determining unit 342 includes first status data A1 indicating that the user has entered or seated, second status data A2 indicating that the user has ordered food and drink, and eating and drinking to the user. Third status data A3 indicating that an object has been provided, fourth status data A4 indicating that the user has finished eating or drinking, or fifth status data A5 indicating that the user has paid or left get.

ステータスデータの取得後、図4に示すように、滞在状態判断部342は、取得されたステータスデータに基づいてユーザの滞在状態を判断する(ステップS2)。   After acquiring the status data, as shown in FIG. 4, the stay state determination unit 342 determines the stay state of the user based on the acquired status data (step S2).

図5の例において、滞在状態判断部342は、第1のステータスデータA1を取得した場合、現在のユーザの滞在状態が、ユーザが飲食店に入店、又は、着席してから注文をするまでの状態である第1の滞在状態B1であると判断する。第2のステータスデータA2を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが注文した飲食物が提供されるのを待っている状態、すなわち、注文をして飲食物の提供を待機している第2の滞在状態B2であると判断する。第3のステータスデータA3を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが飲食物の飲食を完了するまでの状態、すなわち、飲食中である第3の滞在状態B3であると判断する。第4のステータスデータA4を取得した場合、滞在状態判断部342は、現在のユーザの滞在状態が、ユーザが飲食を完了してから退店するまでの状態である第4の滞在状態B4であると判断する。第5のステータスデータA5を取得した場合、滞在状態判断部342は、滞在状態を入店前の初期状態へと戻すようにしてもよい。   In the example of FIG. 5, when the stay status determination unit 342 acquires the first status data A1, the current user stay status is from when the user enters the restaurant or sits down and places an order after the user enters the restaurant. It is judged that it is the 1st stay state B1 which is the state. When the second status data A2 is acquired, the stay state determination unit 342 is in a state where the current stay state of the user is waiting for the food and drink ordered by the user to be provided, that is, the order is placed. It is determined that the second stay state B2 is waiting for the provision of the object. When the third status data A3 is acquired, the staying state determination unit 342 indicates that the current staying state of the user is the state until the user completes the eating and drinking of the food, that is, the third staying state that is being eaten or consumed. It is determined that it is B3. When the fourth status data A4 is acquired, the staying state determination unit 342 is the fourth staying state B4 in which the current staying state of the user is a state from when the user completes eating and drinking until the user leaves the store. Judge. When the fifth status data A5 is acquired, the stay state determination unit 342 may return the stay state to the initial state before entering the store.

滞在状態の判断後、図4に示すように、情報取得部343は、判断された滞在状態が変更されたか否かを判定する(ステップS3)。ここで、滞在状態の変更には、ユーザの入店前の初期状態から第1の滞在状態B1に変更した場合も含まれる。   After determining the stay state, as shown in FIG. 4, the information acquisition unit 343 determines whether or not the determined stay state has been changed (step S3). Here, the change of the stay state includes a case where the user has changed from the initial state before entering the store to the first stay state B1.

滞在状態が変更された場合(ステップS3:Yes)、タイミング推定部3451は、選択肢表示タイミングを推定するための発話終了に対するオフセット時間であるt1秒を決定する(ステップS4)。このとき、タイミング推定部3451は、例えば、ロボット2の発話に用いられるデータのデータ量に基づいてロボット2の発話時間を推定したうえで、推定された発話時間に基づいて滞在状態に応じたt1秒を決定する。このとき、タイミング推定部3451は、推定された発話時間に、滞在状態に応じて予め定められた係数を乗じることで、滞在状態に応じたt1秒を決定してもよい。発話時間に係数を乗じてt1秒を決定する場合、タイミング推定部3451は、同一の滞在状態すなわちシナリオ群に属する様々な発話時間を有する複数のロボット側シナリオデータのそれぞれについて、同一の係数を用いてt1秒を一度にまとめて決定してもよい。   When the staying state is changed (step S3: Yes), the timing estimation unit 3451 determines t1 seconds, which is an offset time with respect to the end of the utterance for estimating the option display timing (step S4). At this time, for example, the timing estimation unit 3451 estimates the utterance time of the robot 2 based on the data amount of data used for the utterance of the robot 2, and then t1 corresponding to the stay state based on the estimated utterance time. Determine the second. At this time, the timing estimation unit 3451 may determine t1 seconds according to the stay state by multiplying the estimated speech time by a coefficient determined in advance according to the stay state. When multiplying the utterance time by a coefficient to determine t1 seconds, the timing estimation unit 3451 uses the same coefficient for each of a plurality of robot side scenario data having various utterance times belonging to the same stay state, that is, the scenario group. T1 seconds may be determined all at once.

なお、滞在状態に応じたt1秒を決定するため、タイミング推定部3451の記憶領域やシナリオDB33などの記憶部には、t1秒を決定するための情報が、タイミング推定部3451によって読み出し可能な状態で格納されていてもよい。t1秒を決定するための情報は、既述したロボット2の発話時間に乗じられる係数であってもよい。   In addition, in order to determine t1 seconds according to the stay state, the storage unit such as the timing estimation unit 3451 and the storage unit such as the scenario DB 33 can read information for determining t1 seconds by the timing estimation unit 3451. May be stored. The information for determining t1 seconds may be a coefficient by which the utterance time of the robot 2 described above is multiplied.

図5の例において、タイミング推定部3451は、滞在状態が初期状態から第1の滞在状態B1に変更された場合、第1の滞在状態B1に対応するオフセット時間t1B1秒を決定する。滞在状態が第1の滞在状態B1から第2の滞在状態B2に変更された場合、タイミング推定部3451は、第2の滞在状態B2に対応するオフセット時間t1B2秒を決定する。滞在状態が第2の滞在状態B2から第3の滞在状態B3に変更された場合、タイミング推定部3451は、第3の滞在状態B3に対応するオフセット時間t1B3秒を決定する。滞在状態が第3の滞在状態B3から第4の滞在状態B4に変更された場合、タイミング推定部3451は、第4の滞在状態B4に対応するオフセット時間t1B4秒を決定する。 In the example of FIG. 5, when the stay state is changed from the initial state to the first stay state B1, the timing estimation unit 3451 determines an offset time t1 B1 seconds corresponding to the first stay state B1. When the stay state is changed from the first stay state B1 to the second stay state B2, the timing estimation unit 3451 determines an offset time t1 B2 seconds corresponding to the second stay state B2. When the stay state is changed from the second stay state B2 to the third stay state B3, the timing estimation unit 3451 determines an offset time t1 B3 seconds corresponding to the third stay state B3. When the stay state is changed from the third stay state B3 to the fourth stay state B4, the timing estimation unit 3451 determines an offset time t1 B4 seconds corresponding to the fourth stay state B4.

一方、図4に示すように、滞在状態が変更されていない場合(ステップS3:No)、表示指示部3452は、ロボット2の発話が開始されたか否かを判定する(ステップS5)。表示指示部3452は、例えば、ロボット制御部22への音声化されたロボット制御コマンドの送信状態に基づいて、ロボット2の発話開始の有無を判定してもよい。   On the other hand, as shown in FIG. 4, when the stay state has not been changed (step S3: No), the display instruction unit 3452 determines whether or not the utterance of the robot 2 has been started (step S5). For example, the display instruction unit 3452 may determine whether or not the robot 2 has started speaking based on the transmission state of the voiced robot control command to the robot control unit 22.

ロボット2の発話が開始された場合(ステップS5:Yes)、表示指示部3452は、自身の計時機能または外部のタイマを用いて、発話時間の計測を開始する(ステップS6)。一方、ロボット2の発話が開始されていない場合(ステップS5:No)、表示指示部3452は、ロボット2の発話開始の有無の判定を繰り返す(ステップS5)。   When the utterance of the robot 2 is started (step S5: Yes), the display instruction unit 3452 starts measuring the utterance time using its own clocking function or an external timer (step S6). On the other hand, when the utterance of the robot 2 has not been started (step S5: No), the display instruction unit 3452 repeatedly determines whether or not the utterance of the robot 2 has started (step S5).

ロボット2の発話時間の計測を開始した後、タイミング推定部3451は、選択肢表示タイミングとして、発話終了時刻teのt1秒前の時刻te−t1を推定する(ステップS7)。ここで、発話終了時刻teは、ステップS5において発話が開始したと判断された時刻である発話開始時刻tsに、ステップS4で算出されたロボット2の発話時間を加えた時刻である。t1は、ステップS4で算出されたオフセット時間である。   After starting the measurement of the utterance time of the robot 2, the timing estimation unit 3451 estimates the time te-t1 t1 seconds before the utterance end time te as the option display timing (step S7). Here, the utterance end time te is a time obtained by adding the utterance time of the robot 2 calculated in step S4 to the utterance start time ts, which is the time when the utterance is determined to be started in step S5. t1 is the offset time calculated in step S4.

図5の例において、タイミング推定部3451は、滞在状態が初期状態から第1の滞在状態B1に変更された場合、ロボット2の発話終了時刻teよりも第1の滞在状態B1に対応するt1B1秒前の時刻である第1の選択肢表示タイミングC1:te−t1B1を推定する。滞在状態が第1の滞在状態B1から第2の滞在状態B2に変更された場合、タイミング推定部3451は、ロボット2の発話終了時刻teよりも第2の滞在状態B2に対応するt1B2秒前の時刻である第2の選択肢表示タイミングC2:te−t1B2を推定する。滞在状態が第2の滞在状態B2から第3の滞在状態B3に変更された場合、タイミング推定部3451は、推定されたロボット2の発話終了時刻teよりも第3の滞在状態B3に対応するt1B3秒前の時刻である第3の選択肢表示タイミングC3:te−t1B3を推定する。滞在状態が第3の滞在状態B3から第4の滞在状態B4に変更された場合、タイミング推定部3451は、推定されたロボット2の発話終了時刻teよりも第4の滞在状態B4に対応するt1B4秒前の時刻である第4の選択肢表示タイミングC4:te−t1B4を推定する。 In the example of FIG. 5, when the stay state is changed from the initial state to the first stay state B1, the timing estimation unit 3451 is t1 B1 corresponding to the first stay state B1 from the utterance end time te of the robot 2. The first option display timing C1: te-t1 B1 that is the time before the second is estimated. When the stay state is changed from the first stay state B1 to the second stay state B2, the timing estimation unit 3451 is t1 B2 seconds before the utterance end time te of the robot 2 corresponding to the second stay state B2 The second option display timing C2: te-t1 B2 is estimated. When the stay state is changed from the second stay state B2 to the third stay state B3, the timing estimation unit 3451 is t1 corresponding to the third stay state B3 from the estimated speech end time te of the robot 2. The third option display timing C3: te-t1 B3 , which is the time B3 seconds before, is estimated. When the stay state is changed from the third stay state B3 to the fourth stay state B4, the timing estimation unit 3451 has t1 corresponding to the fourth stay state B4 from the estimated speech end time te of the robot 2. The fourth option display timing C4: te-t1 B4 , which is the time B4 seconds before, is estimated.

選択肢表示タイミングを推定した後、図4に示すように、表示指示部3452は、選択肢表示タイミングである発話終了のt1秒前の時刻になったか否かを判定する(ステップS8)。   After estimating the option display timing, as shown in FIG. 4, the display instruction unit 3452 determines whether or not the time t1 seconds before the end of the utterance, which is the option display timing, has been reached (step S8).

発話終了のt1秒前の時刻になった場合(ステップS8:Yes)、表示指示部3452は、表示処理部3453への指示によって表示部35に選択肢を表示させる(ステップS9)。一方、発話終了のt1秒前の時刻になっていない場合(ステップS8:No)、表示指示部3452は、発話終了のt1秒前の時刻になったか否かの判定を繰り返す(ステップS8)。   When it is time t1 seconds before the end of the utterance (step S8: Yes), the display instruction unit 3452 causes the display unit 35 to display options in response to an instruction to the display processing unit 3453 (step S9). On the other hand, when it is not the time t1 seconds before the end of the utterance (step S8: No), the display instruction unit 3452 repeats the determination whether or not the time is t1 seconds before the end of the utterance (step S8).

図6は、第1の実施形態によるロボット制御システム1の動作例において、着席から注文までの期間中の選択肢の表示例を示す図である。図6の例において、ロボット2は、第1の滞在状態B1における対話動作として、操作端末3によっておすすめメニュー(図示せず)が選択されたことに応答する「おすすめメニューを選んでくれたんだ!ありがとう!」という発話動作を行う。このとき、タイミング推定部3451は、第1の滞在状態B1に対応する第1の選択肢表示タイミングC1として、発話時間の40%経過時すなわち「おすすめメニューを」までが発話された時刻C1を推定する。この時刻C1は、次式で表すことができる。   FIG. 6 is a diagram illustrating a display example of options during a period from sitting to ordering in the operation example of the robot control system 1 according to the first embodiment. In the example of FIG. 6, the robot 2 responds to selection of a recommended menu (not shown) by the operation terminal 3 as an interactive operation in the first stay state B <b> 1. An utterance action “Thank you!” Is performed. At this time, the timing estimation unit 3451 estimates, as the first option display timing C1 corresponding to the first stay state B1, the time C1 when 40% of the utterance time has elapsed, that is, until “Recommended menu” is uttered. . This time C1 can be expressed by the following equation.

C1=ts+0.4(te−ts)
=te−0.6(te−ts) (1)
但し、数式(1)において、tsは、ロボット2の発話開始時刻であり、teは、ロボット2の発話終了時刻であり、te−tsは、ロボット2の発話時間である(以下、同様)。また、ロボット2の発話時間に0.6を乗じた0.6(te−ts)は、第1の滞在状態B1に対応するオフセット時間t1B1の一例である。C1は、ロボット2の発話動作の動作期間内の所定のタイミングの一例、すなわち、ロボット2の動作の終了時刻teに対する滞在状態に応じた所定時間0.6(te−ts)前の時刻te−0.6(te−ts)である。
C1 = ts + 0.4 (te-ts)
= Te-0.6 (te-ts) (1)
In Equation (1), ts is the utterance start time of the robot 2, te is the utterance end time of the robot 2, and te-ts is the utterance time of the robot 2 (the same applies hereinafter). Further, 0.6 (te-ts) obtained by multiplying the speech time of the robot 2 by 0.6 is an example of the offset time t1 B1 corresponding to the first stay state B1. C1 is an example of a predetermined timing within the operation period of the speech operation of the robot 2, that is, a time te− that is a predetermined time 0.6 (te−ts) before the end state te of the operation of the robot 2 according to the stay state. 0.6 (te-ts).

タイミング推定部3451は、発話終了時刻teから、第1の滞在状態B1に対応するオフセット時間t1B1である0.6(te−ts)を減じることで、滞在状態と発話時間との双方に応じた選択肢表示タイミングC1を簡便に算出することができる。また、タイミング推定部3451は、発話開始時刻tsに、第1の滞在状態B1に対応する0.4(te−ts)を加えることでも、滞在状態と発話時間との双方に応じた選択肢表示タイミングC1を簡便に算出することができる。 The timing estimation unit 3451 subtracts 0.6 (te-ts), which is the offset time t1 B1 corresponding to the first stay state B1, from the utterance end time te, thereby responding to both the stay state and the utterance time. The option display timing C1 can be easily calculated. Also, the timing estimation unit 3451 may add 0.4 (te-ts) corresponding to the first stay state B1 to the utterance start time ts, so that the option display timing corresponding to both the stay state and the utterance time is added. C1 can be easily calculated.

そして、表示指示部3452は、発話時間の40%経過時に、ロボット2の発話動作に応答する対話の選択肢として、「もちろん!」という選択肢と、「やっぱり変える」という選択肢を表示部35に表示させる。   Then, when 40% of the utterance time has elapsed, the display instruction unit 3452 causes the display unit 35 to display an option “of course!” And an option of “change after all” as options for the dialogue responding to the utterance operation of the robot 2. .

ここで、人間同士の対話では、話し相手が完全に話し終わる前に、話し相手の話す内容を理解して予め受け答えを考えておくことが多い。もし、ロボット2との対話において、ロボット2の発話動作が完全に終了してからロボット2への応答の選択肢を表示部35に表示した場合、人間同士の対話のように話し相手が完全に話し終わる前に予め受け答えを考えることができない。この場合、ユーザは、人間同士の対話のときと同じ感覚を得ることができないため、ロボット2との対話に違和感を覚える虞がある。   Here, in a dialogue between human beings, before the other party finishes speaking completely, the conversation partner understands what the other party speaks and thinks about the answer in advance. If the choice of response to the robot 2 is displayed on the display unit 35 after the utterance operation of the robot 2 is completely finished in the dialogue with the robot 2, the talking partner finishes talking completely like a dialogue between humans. I can't think of answers in advance. In this case, since the user cannot obtain the same feeling as in the dialogue between humans, there is a possibility that the dialogue with the robot 2 may feel uncomfortable.

これに対して、図6の例では、ロボット2の発話終了時刻よりも前の時刻C1に選択肢を表示するので、ユーザは、ロボット2の発話が完全に終了する前に、ロボット2への応答内容を予め考えることができる。これにより、ユーザは、人間同士の対話のときと同様の対話感を得ることができ、飲食物が注文される前におけるロボット2との対話を違和感なく自然に行うことができる。   On the other hand, in the example of FIG. 6, since the option is displayed at time C1 before the utterance end time of the robot 2, the user responds to the robot 2 before the utterance of the robot 2 is completely completed. The contents can be considered in advance. Thereby, the user can obtain the same feeling of interaction as in the case of dialogue between humans, and can naturally perform the dialogue with the robot 2 before ordering food and drink without any sense of incongruity.

また、飲食物が注文される前の第1の滞在状態B1においては、ユーザが飲食物の選択の判断を早めにできるように対話を進行させることが、所望の注文をすみやかに行わせるうえで好ましい。図6の例によれば、第1の滞在状態B1に応じた選択肢表示タイミングとして、比較的早めのタイミングC1で選択肢を表示することで、第1の滞在状態B1に適合した選択肢表示を行うことができる。これにより、ロボット2との対話への満足感を向上させることができる。 Further, in the first stay state B1 before food and drinks are ordered, it is possible for the user to promptly make a decision to select food and drink in order to promptly perform a desired order. preferable. According to the example of FIG. 6, the option display suitable for the first stay state B1 is performed by displaying the option at a relatively early timing C1 as the option display timing according to the first stay state B1. Can do. Thereby, satisfaction with the dialogue with the robot 2 can be improved.

図7は、第1の実施形態によるロボット制御システム1の動作例において、注文から飲食物提供までの期間中の選択肢の表示例を示す図である。図7の例において、ロボット2は、第2の滞在状態B2における対話動作として、「料理が来るまで僕とお話ししよう!」という発話動作を行う。このとき、タイミング推定部3451は、第2の滞在状態B2に対応する第2の選択肢表示タイミングC2として、発話時間の60%経過時すなわち「料理が来るまで僕と」までが発話された時刻C2を推定する。この時刻C2は、次式で表すことができる。   FIG. 7 is a diagram illustrating a display example of options during a period from ordering to food provision in the operation example of the robot control system 1 according to the first embodiment. In the example of FIG. 7, the robot 2 performs an utterance operation “Let's talk to me until the food comes!” As the interactive operation in the second stay state B2. At this time, the timing estimation unit 3451 determines, as the second option display timing C2 corresponding to the second stay state B2, the time C2 when 60% of the utterance time has elapsed, that is, “to me until the dish comes”. Is estimated. This time C2 can be expressed by the following equation.

C2=ts+0.6(te−ts)
=te−0.4(te−ts) (2)
但し、数式(2)において、0.4(te−ts)は、第2の滞在状態B2に対応するオフセット時間t1B2の一例である。タイミング推定部3451は、第1の選択肢表示タイミングC1と同様の算出方法で第2の選択肢表示タイミングC2を算出してよい。
C2 = ts + 0.6 (te-ts)
= Te-0.4 (te-ts) (2)
However, in Equation (2), 0.4 (te-ts) is an example of the offset time t1 B2 corresponding to the second stay state B2. The timing estimation unit 3451 may calculate the second option display timing C2 by the same calculation method as the first option display timing C1.

そして、表示指示部3452は、発話時間の40%経過時に、ロボット2の発話動作に応答する対話の選択肢として、「いいよ」という選択肢と、「やめとく」という選択肢を表示部35に表示させる。   Then, when 40% of the utterance time elapses, the display instruction unit 3452 causes the display unit 35 to display an option “OK” and an option “quit” as dialog options to respond to the utterance operation of the robot 2. .

図6と同様に、図7の例では、ロボット2の発話終了時刻よりも前の時刻C2に選択肢を表示するので、ユーザは、ロボット2の発話が完全に終了する前に、ロボット2への応答内容を予め考えることができる。これにより、ユーザは、人間同士の対話のときと同様の対話感を得ることができ、飲食物の注文から飲食物が提供されるまでの間におけるロボット2との対話を違和感なく自然に行うことができる。   As in FIG. 6, in the example of FIG. 7, the option is displayed at time C <b> 2 before the utterance end time of the robot 2, so that the user can connect the robot 2 before the utterance of the robot 2 is completely completed. Response contents can be considered in advance. Thereby, the user can obtain the same feeling of dialogue as in the case of dialogue between humans, and naturally performs the dialogue with the robot 2 from the order of food and drink until food and drink are provided. Can do.

また、飲食物の注文から飲食物が提供されるまで第2の滞在状態B2においては、ユーザは、特にすることがないため、注文前よりもロボット2への関心が高まり易い。このような第2の滞在状態B2においては、対話感をより向上させたロボット2との対話を進行させることが、対話への満足感をユーザに与えるうえで好ましい。図7の例によれば、第2の滞在状態B2に応じた選択肢表示タイミングとして、ロボット2の発話をじっくりと聞き取りながら受け答えを考えることができるように比較的遅めのタイミングC2で選択肢を表示することで、第2の滞在状態B2に適合した選択肢表示を行うことができる。これにより、ロボット2との対話への満足感を更に向上させることができる。   In addition, in the second stay state B2 from the order of the food and drink until the food and drink are provided, the user has no particular need to do so, so the interest in the robot 2 is more likely to increase than before the order. In such a second stay state B2, it is preferable to advance the conversation with the robot 2 that further improves the feeling of interaction in order to give the user a sense of satisfaction with the interaction. According to the example of FIG. 7, as the option display timing according to the second stay state B2, the option is displayed at a relatively late timing C2 so that the answer can be considered while listening carefully to the utterance of the robot 2. By doing so, it is possible to perform option display suitable for the second stay state B2. Thereby, the satisfaction with the dialogue with the robot 2 can be further improved.

図8は、第1の実施形態によるロボット制御システム1の動作例において、飲食物提供から飲食終了までの期間中の選択肢の表示例を示す図である。図8の例において、ロボット2は、第3の滞在状態B3における対話動作として、「今は食事中だから後でお話ししよう!」という発話動作を行う。このとき、タイミング推定部3451は、第3の滞在状態B3に対応する第3の選択肢表示タイミングC3として、発話時間の80%経過時すなわち「今は食事中だから後でお話」までが発話された時刻C3を推定する。この時刻C3は、次式で表すことができる。   FIG. 8 is a diagram illustrating a display example of options during a period from the provision of food and drink to the end of food and drink in the operation example of the robot control system 1 according to the first embodiment. In the example of FIG. 8, the robot 2 performs an utterance operation such as “I'm eating now, so let's talk later!” As the dialogue operation in the third stay state B3. At this time, the timing estimation unit 3451 has spoken as the third option display timing C3 corresponding to the third stay state B3 when 80% of the utterance time has elapsed, that is, “I am currently eating and will talk later”. Time C3 is estimated. This time C3 can be expressed by the following equation.

C3=ts+0.8(te−ts)
=te−0.2(te−ts) (3)
但し、数式(3)において、0.2(te−ts)は、第3の滞在状態B3に対応するオフセット時間t1B3の一例である。タイミング推定部3451は、第1の選択肢表示タイミングC1と同様の算出方法で第3の選択肢表示タイミングC3を算出してよい。
C3 = ts + 0.8 (te-ts)
= Te-0.2 (te-ts) (3)
However, in Equation (3), 0.2 (te-ts) is an example of the offset time t1 B3 corresponding to the third stay state B3. The timing estimation unit 3451 may calculate the third option display timing C3 by the same calculation method as the first option display timing C1.

そして、表示指示部3452は、発話時間の80%経過時に、ロボット2の発話動作に応答する対話の選択肢として、「いいよ」という選択肢と、「やだ」という選択肢を表示部35に表示させる。   Then, when 80% of the utterance time has elapsed, the display instruction unit 3452 causes the display unit 35 to display an option “OK” and an option “Yada” as options for dialogue responding to the utterance operation of the robot 2. .

図6と同様に、図8の例では、ロボット2の発話終了時刻よりも前の時刻C3に選択肢を表示するので、ユーザは、ロボット2の発話が完全に終了する前に、ロボット2への応答内容を予め考えることができる。これにより、ユーザは、人間同士の対話のときと同様の対話感を得ることができ、飲食中におけるロボット2との対話を違和感なく自然に行うことができる。   As in FIG. 6, in the example of FIG. 8, the option is displayed at a time C <b> 3 before the utterance end time of the robot 2, so that the user can speak to the robot 2 before the utterance of the robot 2 is completely completed. Response contents can be considered in advance. Thereby, the user can obtain the same feeling of interaction as in the case of a dialogue between humans, and can naturally perform a dialogue with the robot 2 while eating and drinking.

また、飲食中の第3の滞在状態B3においては、ユーザがロボット2との対話に気を取られて美味しい料理が冷めてしまわないように飲食を優先してもらうことが、料理への満足感をユーザに与えるうえで好ましい。図8の例によれば、第3の滞在状態B3に応じた選択肢表示タイミングとして、飲食を優先させながら受け答えをゆっくりと考えることができるように更に遅めのタイミングC3で選択肢を表示することで、第3の滞在状態B3に適合した選択肢表示を行うことができる。これにより、ロボット2との対話への満足感を更に向上させることができる。   In addition, in the third stay state B3 during eating and drinking, it is possible to give priority to eating and drinking so that the user is not distracted by the dialogue with the robot 2 and the delicious cooking is not cooled down. Is preferable to give to the user. According to the example of FIG. 8, as an option display timing according to the third stay state B3, the option is displayed at a later timing C3 so that the answer can be considered slowly while giving priority to eating and drinking. The choice display suitable for the third stay state B3 can be performed. Thereby, the satisfaction with the dialogue with the robot 2 can be further improved.

以上述べたように、第1の実施形態によれば、滞在状態に応じた選択肢表示タイミングで選択肢を表示することで、滞在状態が刻一刻と変化する飲食店におけるロボット2との対話を違和感なく自然に行うことができるとともに、ロボット2との対話への満足感を向上させることができる。   As described above, according to the first embodiment, by displaying the options at the option display timing according to the stay state, the conversation with the robot 2 in the restaurant where the stay state changes every moment without any sense of incongruity. This can be done naturally, and the satisfaction with the dialogue with the robot 2 can be improved.

(第2の実施形態)
次に、選択肢の選択操作のタイミングを規制する第2の実施形態について説明する。図9は、第2の実施形態によるロボット制御システム1において、対話制御部345を示すブロック図である。
(Second Embodiment)
Next, a description will be given of a second embodiment that regulates the timing of selection operation of options. FIG. 9 is a block diagram showing the dialogue control unit 345 in the robot control system 1 according to the second embodiment.

第1の実施形態では、表示部35に表示された選択肢の選択操作のタイミングを規制しておらず、ユーザは、表示された選択肢に対して、即時に入力部36を用いた選択操作が可能である。これに対して、第2の実施形態では、ロボット2との対話感をより向上させるため、選択肢の選択操作のタイミングを規制している。   In the first embodiment, the timing for selecting an option displayed on the display unit 35 is not restricted, and the user can immediately perform an operation for selecting the displayed option using the input unit 36. It is. On the other hand, in the second embodiment, in order to further improve the feeling of interaction with the robot 2, the timing for selecting an option is restricted.

具体的には、図9に示すように、第2の実施形態において、対話制御部345は、第1の実施形態の構成に加えて更に操作制御部3454を備えている。   Specifically, as shown in FIG. 9, in the second embodiment, the dialogue control unit 345 further includes an operation control unit 3454 in addition to the configuration of the first embodiment.

操作制御部3454は、ロボット2の動作の終了時刻を含む予め設定された期間が経過する前は、表示部35で表示された選択肢の選択操作を禁止し、予め設定された期間が経過した以後は、表示部35で表示された選択肢の選択操作を許可する。第2の実施形態において、予め設定された期間は一定である。   The operation control unit 3454 prohibits the selection operation of the options displayed on the display unit 35 before the preset period including the end time of the operation of the robot 2 has elapsed, and after the preset period has elapsed. Permits the selection operation of the options displayed on the display unit 35. In the second embodiment, the preset period is constant.

以下、操作制御部3454を追加した第2の実施形態の動作例について、第1の実施形態との差異を中心に説明する。図10は、第2の実施形態によるロボット制御システム1の動作例を示すフローチャートである。図10のフローチャートは、ロボット2との対話が終了するまで繰り返される。   Hereinafter, an operation example of the second embodiment in which the operation control unit 3454 is added will be described focusing on differences from the first embodiment. FIG. 10 is a flowchart showing an operation example of the robot control system 1 according to the second embodiment. The flowchart of FIG. 10 is repeated until the dialogue with the robot 2 is completed.

第2の実施形態においては、表示指示部3452による選択肢の表示(図10のステップS9)が行われた時点で、操作制御部3454は、選択肢の選択操作を禁止している。このとき、ユーザが入力部36を用いて選択肢を選択したとしても、対話シナリオ選択信号が対話制御部345に入力されない、または、入力された対話シナリオ選択信号が操作制御部3454で無効にされるなどして、対話は進行しない。選択肢の選択操作が禁止されていることをユーザが視覚を通じて認識し易いように、選択肢は、例えば、選択操作が許可されているときよりも薄い色で表示されていてもよい。   In the second embodiment, the operation control unit 3454 prohibits the selection operation of options when the display of the options by the display instruction unit 3452 (step S9 in FIG. 10) is performed. At this time, even if the user selects an option using the input unit 36, the dialog scenario selection signal is not input to the dialog control unit 345, or the input dialog scenario selection signal is invalidated by the operation control unit 3454. Etc., the dialogue does not proceed. For example, the options may be displayed in a lighter color than when the selection operation is permitted so that the user can easily recognize through the visual sense that the selection operation of the option is prohibited.

選択肢の表示後、操作制御部3454は、自身の計時機能または外部のタイマを用いて、発話終了時刻からの経過時間の計測を開始する(ステップS10)。   After displaying the options, the operation control unit 3454 starts measuring the elapsed time from the utterance end time using its own time counting function or an external timer (step S10).

経過時間の計測を開始した後、操作制御部3454は、発話終了時刻から予め設定された期間の一例であるt2秒が経過したか否かを判定する(ステップS11)。   After starting the measurement of the elapsed time, the operation control unit 3454 determines whether t2 seconds, which is an example of a preset period from the utterance end time, has elapsed (step S11).

t2秒が経過した場合(ステップS11:Yes)、操作制御部3454は、選択肢の選択操作を許可する状態となって処理を終了する(ステップS12)。ステップS11以降、ユーザは、表示された選択肢を選択して対話を進行させることができる。一方、t2秒が経過していない場合、操作制御部3454は、t2秒の経過の有無の判定を繰り返す(ステップS11)。   When t2 seconds have elapsed (step S11: Yes), the operation control unit 3454 is in a state in which an option for selecting an option is permitted and ends the process (step S12). After step S11, the user can select the displayed option and proceed with the dialogue. On the other hand, when t2 seconds have not elapsed, the operation control unit 3454 repeatedly determines whether t2 seconds have elapsed (step S11).

第1の実施形態では、人間同士の対話と同様の対話感を得るため、ロボット2の発話が終了する前に予めユーザが受け答えを考えることができるように、ロボット2の発話終了時刻よりt1秒前に選択肢を表示していた。もし、ロボット2の発話終了時刻よりも前に表示された選択肢を即時に選択して対話を進行させた場合、これを人間同士の対話に置き換えて考えると、話し相手が話し終える前に、話し相手の言葉を遮って自分が話し始めることになる。このような対話が人間同士でなされることは比較的少なく、通常は、話し相手が話し終えてから自分が話し始める。第2の実施形態によれば、ロボット2の発話が終了したうえで選択肢の選択操作を許可することで、人間同士の対話により即したロボット2との対話を行うことができるので、対話感を更に向上させることができる。   In the first embodiment, t1 seconds from the utterance end time of the robot 2 so that the user can think about the answer in advance before the utterance of the robot 2 ends in order to obtain a feeling of interaction similar to that between humans. The option was displayed before. If the option displayed before the utterance end time of the robot 2 is immediately selected and the dialogue is advanced, this is replaced with a dialogue between humans. You will start speaking by blocking the language. Such a dialogue is relatively rare between humans, and usually the person who speaks finishes speaking after the other party finishes speaking. According to the second embodiment, by allowing the selection operation of the options after the utterance of the robot 2 is completed, it is possible to perform a dialogue with the robot 2 in accordance with a dialogue between humans. Further improvement can be achieved.

(第3の実施形態)
次に、選択肢の選択操作のタイミングを滞在状態に応じて規制する第3の実施形態について説明する。第3の実施形態の構成図は、第2の実施形態の図9と同様である。すなわち、対話制御部345は、操作制御部3454を備えている。
(Third embodiment)
Next, a description will be given of a third embodiment in which the timing of selecting an option is regulated according to the stay state. The configuration diagram of the third embodiment is the same as FIG. 9 of the second embodiment. That is, the dialogue control unit 345 includes an operation control unit 3454.

第2の実施形態においては、選択肢の選択操作を許可するための予め設定された期間(すなわち、t2秒)が一定である。これに対して、第3の実施形態においては、ロボット2との対話への満足感を更に向上させるため、予め設定された期間が、複数の滞在状態のそれぞれに対応して設定されている。そして、操作制御部3454は、滞在状態判断部342にて判断された滞在状態に対応する予め設定された時間に基づいて、選択肢の選択操作を禁止または許可する。   In the second embodiment, a preset period (that is, t2 seconds) for permitting the selection operation of options is constant. On the other hand, in the third embodiment, in order to further improve satisfaction with the dialogue with the robot 2, a preset period is set corresponding to each of a plurality of stay states. Then, the operation control unit 3454 prohibits or permits the selection operation of options based on a preset time corresponding to the stay state determined by the stay state determination unit 342.

以下、第3の実施形態の動作例について、第2の実施形態との差異を中心に説明する。図11は、第3の実施形態によるロボット制御システム1の動作例を示すフローチャートである。図11のフローチャートは、ロボット2との対話が終了するまで繰り返される。   Hereinafter, an operation example of the third embodiment will be described focusing on differences from the second embodiment. FIG. 11 is a flowchart illustrating an operation example of the robot control system 1 according to the third embodiment. The flowchart of FIG. 11 is repeated until the dialogue with the robot 2 is completed.

第2の実施形態では、滞在状態判断部342で判断された滞在状態が変更された場合(図10のステップS3:Yes)に、タイミング推定部3451が、選択肢表示タイミングを推定するための発話終了に対するオフセット時間t1秒を決定していた(図10のステップS4)。   In the second embodiment, when the stay state determined by the stay state determination unit 342 is changed (step S3: Yes in FIG. 10), the timing estimation unit 3451 ends the utterance for estimating the option display timing. The offset time t1 seconds with respect to was determined (step S4 in FIG. 10).

これに対して、第3の実施形態では、図11に示すように、選択肢表示タイミングを推定するためのオフセット時間t1秒を決定するとき、更に、タイミング推定部3451が、選択肢の選択操作許可タイミングを推定するための発話終了に対するオフセット時間t2秒を決定する(ステップS4)。t2秒は、滞在状態判断部342で判断された滞在状態に応じた時間であり、発話終了時刻からt2秒後にユーザの選択操作を許可することを意図して設定される時間である。   In contrast, in the third embodiment, as shown in FIG. 11, when determining the offset time t1 seconds for estimating the option display timing, the timing estimation unit 3451 further selects the option selection operation permission timing. Is determined to be an offset time t2 seconds for the end of the utterance for estimating (step S4). t2 seconds is a time according to the stay state determined by the stay state determination unit 342, and is a time set with the intention of permitting the user's selection operation after t2 seconds from the utterance end time.

また、発話終了からの経過時間の計測を開始した後(ステップS10)、タイミング推定部3451は、選択操作許可タイミングとして、発話終了時刻teのt2秒後の時刻te+t2を推定する(ステップS11)。ここで、発話終了時刻teは、実際に発話が終了した時刻である。t2は、ステップS4で算出された滞在状態に応じたオフセット時間である。   Moreover, after starting the measurement of the elapsed time from the end of the utterance (step S10), the timing estimation unit 3451 estimates a time te + t2 t2 seconds after the utterance end time te as the selection operation permission timing (step S11). Here, the utterance end time te is the time when the utterance is actually ended. t2 is an offset time corresponding to the stay state calculated in step S4.

そして、操作制御部3454は、発話終了時刻から推定されたt2秒が経過した場合(ステップS12:Yes)に、選択肢の選択操作を許可する(ステップS13)。   Then, when t2 seconds estimated from the utterance end time have elapsed (step S12: Yes), the operation control unit 3454 permits the option selection operation (step S13).

例えば、飲食物が注文される前の第1の滞在状態B1においては、ユーザが飲食物の選択の判断を早めにできるように対話を進行させることが、所望の注文をすみやかに行わせるうえで好ましい。このため、第1の滞在状態B1に応じたt2秒後の時刻として、比較的早めの時刻を推定してもよい。これにより、第1の滞在状態B1に適合した選択操作を許可することができる。   For example, in the first stay state B1 before food and drinks are ordered, it is possible for the user to promptly make a decision to select food and drink in order to promptly perform a desired order. preferable. For this reason, a relatively early time may be estimated as the time after t2 seconds according to the first stay state B1. Thereby, the selection operation suitable for the first stay state B1 can be permitted.

また、飲食物の注文から飲食物が提供されるまで第2の滞在状態B2においては、ユーザは、特にすることがないため、注文前よりもロボット2への関心が高まり易い。このような第2の滞在状態B2においては、対話感をより向上させたロボット2との対話を進行させることが、対話への満足感をユーザに与えるうえで好ましい。このため、時間をかけてロボット2との対話を楽しむことができるように、第2の滞在状態B2に応じたt2秒後の時刻として、比較的遅めの時刻を推定してもよい。これにより、第2の滞在状態B2に適合した選択操作を許可することができる。   In addition, in the second stay state B2 from the order of the food and drink until the food and drink are provided, the user has no particular need to do so, so the interest in the robot 2 is more likely to increase than before the order. In such a second stay state B2, it is preferable to advance the conversation with the robot 2 that further improves the feeling of interaction in order to give the user a sense of satisfaction with the interaction. For this reason, a relatively late time may be estimated as the time after t2 seconds according to the second stay state B2 so that the user can enjoy the conversation with the robot 2 over time. Thereby, the selection operation suitable for the second stay state B2 can be permitted.

また、飲食中の第3の滞在状態B3においては、ユーザがロボット2との対話に気を取られて美味しい料理が冷めてしまわないように飲食を優先してもらうことが、料理への満足感をユーザに与えるうえで好ましい。このため、飲食を優先させながら受け答えをゆっくりとできるように、第3の滞在状態B3に応じたt2秒後の時刻として、更に遅めの時刻を推定してもよい。これにより、第3の滞在状態B3に適合した選択操作を許可することができる。   In addition, in the third stay state B3 during eating and drinking, it is possible to give priority to eating and drinking so that the user is not distracted by the dialogue with the robot 2 and the delicious cooking is not cooled down. Is preferable to give to the user. For this reason, a later time may be estimated as the time after t2 seconds according to the third stay state B3 so that the answer can be made slowly while giving priority to eating and drinking. Thereby, the selection operation suitable for the third stay state B3 can be permitted.

第3の実施形態によれば、滞在状態に応じて選択操作を許可するタイミングを調整することができるので、ロボット2との対話への満足感を更に向上させることができる。   According to the third embodiment, since the timing for permitting the selection operation can be adjusted according to the staying state, satisfaction with the dialogue with the robot 2 can be further improved.

(第4の実施形態)
次に、シナリオDB33がクラウド上に存在する第4の実施形態について説明する。図12は、第4の実施形態によるロボット制御システム1を示すブロック図である。上述した実施形態においては、シナリオDB33が操作端末3内に設置されていた。これに対して、第4の実施形態においては、図12に示すように、シナリオDB33が操作端末3の外部に存在する。シナリオ制御部34は、ネットワーク6を介してシナリオDB33と接続される。
(Fourth embodiment)
Next, a fourth embodiment in which the scenario DB 33 exists on the cloud will be described. FIG. 12 is a block diagram showing a robot control system 1 according to the fourth embodiment. In the embodiment described above, the scenario DB 33 is installed in the operation terminal 3. On the other hand, in the fourth embodiment, the scenario DB 33 exists outside the operation terminal 3 as shown in FIG. The scenario control unit 34 is connected to the scenario DB 33 via the network 6.

シナリオDB33は、操作端末3の外部の所定のサーバに備えられているものでもよく、または、特定のサーバではなく、ネットワーク6により接続される所謂クラウド上に存在するデータベースであってもよい。ネットワーク6と、操作端末3又はシナリオDB33は、有線又は無線の通信を介して接続される。   The scenario DB 33 may be provided in a predetermined server outside the operation terminal 3, or may be a database existing on a so-called cloud connected by the network 6 instead of a specific server. The network 6 and the operation terminal 3 or scenario DB 33 are connected via wired or wireless communication.

第4の実施形態によれば、シナリオDB33を操作端末3内ではなく外部に有することにより、操作端末3の容量を確保することが可能となるとともに、シナリオデータの一元管理をすることも可能となる。さらに、シナリオDB33がクラウド上に存在し、特定多数の編集者がシナリオデータを編集、あるいは、追加することが可能であるように設定することにより、よりバリエーションに富んだ対話内容を選択することも可能となる。   According to the fourth embodiment, it is possible to secure the capacity of the operation terminal 3 and centrally manage scenario data by having the scenario DB 33 outside the operation terminal 3 instead of in the operation terminal 3. Become. Furthermore, by setting the scenario DB 33 on the cloud so that a specific number of editors can edit or add scenario data, it is possible to select more varied dialogue contents. It becomes possible.

(第5の実施形態)
次に、ロボット2側に主要な制御機能を備えた第5の実施形態について説明する。図13は、第5の実施形態によるロボット制御システム1を示すブロック図である。図13に示すように、動作生成部32、シナリオ制御部34、及び、シナリオDB33は、操作端末3ではなく、ロボット2内に備えられているものとしてもよい。すなわち、主要な制御機能を操作端末3ではなく、ロボット2に備えるようにしてもよい。動作生成部32、及び、シナリオ制御部34の動作は、上述した実施形態における動作と大きく異なることはなく、本実施形態においても、図4、図10または図11に示すフローチャートにしたがって選択肢の表示処理が実行される。
(Fifth embodiment)
Next, a fifth embodiment in which main control functions are provided on the robot 2 side will be described. FIG. 13 is a block diagram showing a robot control system 1 according to the fifth embodiment. As illustrated in FIG. 13, the motion generation unit 32, the scenario control unit 34, and the scenario DB 33 may be provided in the robot 2 instead of the operation terminal 3. That is, the main control function may be provided not in the operation terminal 3 but in the robot 2. The operations of the operation generation unit 32 and the scenario control unit 34 are not greatly different from the operations in the above-described embodiment, and in this embodiment as well, options are displayed according to the flowchart shown in FIG. 4, FIG. 10, or FIG. Processing is executed.

第5の実施形態によれば、操作端末3の構成を簡略化でき、また、操作端末3からロボット2へと送信する通信料を削減できるため、操作端末3とロボット2との間の通信回線の性能が低い場合でも、支障なくロボット2との対話を行うことができる。なお、動作生成部32は、操作端末3及びロボット2の外部に設けられていてもよく、例えば、店舗システム5に内蔵されていてもよいし、店舗システム5とは別個の通信機器内に設けてもよい。   According to the fifth embodiment, since the configuration of the operation terminal 3 can be simplified and the communication fee transmitted from the operation terminal 3 to the robot 2 can be reduced, the communication line between the operation terminal 3 and the robot 2 can be reduced. Even when the performance of the robot is low, it is possible to perform a dialogue with the robot 2 without any trouble. The motion generation unit 32 may be provided outside the operation terminal 3 and the robot 2. For example, the motion generation unit 32 may be built in the store system 5 or provided in a communication device separate from the store system 5. May be.

本発明の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本発明の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。   The aspect of the present invention is not limited to the individual embodiments described above, and includes various modifications that can be conceived by those skilled in the art, and the effects of the present invention are not limited to the contents described above. That is, various additions, modifications, and partial deletions can be made without departing from the concept and spirit of the present invention derived from the contents defined in the claims and equivalents thereof.

1 ロボット制御システム、2 ロボット、3 操作端末、34 シナリオ制御部、342 滞在状態判断部、3451 タイミング推定部、3452 表示指示部、3453 表示処理部   DESCRIPTION OF SYMBOLS 1 Robot control system, 2 Robot, 3 Operation terminal, 34 Scenario control part, 342 Stay state judgment part, 3451 Timing estimation part, 3452 Display instruction | indication part, 3453 Display processing part

Claims (11)

飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットと、
前記ロボットを操作する前記指令信号を生成する操作端末と、
前記顧客の前記飲食店内での滞在状態を判断する滞在状態判断部と、を備え、
前記操作端末は、
前記顧客と前記ロボットとの対話に用いられる対話シナリオ情報に基づく対話シナリオの進行に合わせて、前記ロボットとの対話のための選択肢を表示部に表示させる表示処理部と、
ロボットの発話動作の動作期間内の所定のタイミングを、前記滞在状態判断部にて判断された滞在状態に基づいて、推定するタイミング推定部と、
前記タイミング推定部にて推定された前記所定のタイミングに基づいて、選択肢を前記表示部に表示させるよう前記表示処理部に指示する表示指示部と、を備える、ロボット制御システム。
A robot that operates in response to a command signal to interact with a customer who has visited a restaurant;
An operation terminal for generating the command signal for operating the robot;
A stay state determination unit for determining a stay state of the customer in the restaurant,
The operation terminal is
A display processing unit for displaying options for dialogue with the robot on a display unit in accordance with the progress of the dialogue scenario based on dialogue scenario information used for dialogue between the customer and the robot;
A timing estimation unit that estimates a predetermined timing within the operation period of the speech operation of the robot based on the stay state determined by the stay state determination unit;
A robot control system comprising: a display instruction unit that instructs the display processing unit to display options on the display unit based on the predetermined timing estimated by the timing estimation unit.
前記所定のタイミングは、前記ロボットの動作の終了時刻に対する前記滞在状態に応じた所定時間前の時刻である、請求項1に記載のロボット制御システム。   The robot control system according to claim 1, wherein the predetermined timing is a time before a predetermined time corresponding to the stay state with respect to an end time of the operation of the robot. 前記所定のタイミングは、前記ロボットの動作期間内の特定の時刻に対する前記滞在状態に応じた所定時間前または所定時間後の時刻である、請求項1に記載のロボット制御システム。   The robot control system according to claim 1, wherein the predetermined timing is a time before or after a predetermined time corresponding to the stay state with respect to a specific time within an operation period of the robot. 前記表示指示部は、前記ロボットが一つの動作を開始してから終了するまでの間に、前記表示部に前記選択肢を表示するよう前記表示処理部に指示する、請求項1に記載のロボット制御システム。   2. The robot control according to claim 1, wherein the display instruction unit instructs the display processing unit to display the options on the display unit during a period from when the robot starts one operation to the end. system. 前記ロボットの動作は、前記ロボットの発話を含み、
前記表示指示部は、前記ロボットの発話に用いられるデータのデータ量に基づいて、前記表示部に前記選択肢を表示するタイミングを調整する、請求項1乃至4のいずれか一項に記載のロボット制御システム。
The operation of the robot includes the utterance of the robot,
The robot control according to any one of claims 1 to 4, wherein the display instruction unit adjusts a timing for displaying the option on the display unit based on a data amount of data used for speech of the robot. system.
前記表示指示部にて表示される前記選択肢は、既存の対話シナリオまたは新たな対話シナリオの進行に応じた選択肢である、請求項1乃至5のいずれか一項に記載のロボット制御システム。   The robot control system according to any one of claims 1 to 5, wherein the option displayed by the display instruction unit is an option according to a progress of an existing dialog scenario or a new dialog scenario. 前記ロボットの動作の終了時刻を含む予め設定された期間が経過する前は、前記表示部で表示された前記選択肢の選択操作を禁止し、前記予め設定された期間が経過した以後は、前記表示部で表示された前記選択肢の選択操作を許可する操作制御部を更に備える、請求項1乃至6のいずれか一項に記載のロボット制御システム。   Before the preset period including the end time of the operation of the robot elapses, the selection operation of the option displayed on the display unit is prohibited, and after the preset period elapses, the display The robot control system according to any one of claims 1 to 6, further comprising an operation control unit that permits a selection operation of the option displayed on the unit. 前記予め設定された期間は、複数の滞在状態のそれぞれに対応して設定されており、
前記操作制御部は、前記滞在状態判断部にて判断された滞在状態に対応する前記予め設定された時間に基づいて、前記選択肢の前記選択操作を禁止または許可する、請求項7に記載のロボット制御システム。
The preset period is set corresponding to each of a plurality of staying states,
The robot according to claim 7, wherein the operation control unit prohibits or permits the selection operation of the options based on the preset time corresponding to the stay state determined by the stay state determination unit. Control system.
前記予め設定された期間は、複数の滞在状態によらず、一定の期間である、請求項7に記載のロボット制御システム。   The robot control system according to claim 7, wherein the preset period is a fixed period regardless of a plurality of staying states. 前記対話シナリオ情報は、飲食物のメニュー選択に関する前記ロボットとの対話内容を含む、請求項1乃至9のいずれか一項に記載のロボット制御システム。   The robot control system according to any one of claims 1 to 9, wherein the dialogue scenario information includes a dialogue content with the robot regarding menu selection of food and drink. 飲食店に来店した顧客と対話するために指令信号に応じた動作を行うロボットに対して前記指令信号を送信するロボット制御装置であって、
前記顧客の前記飲食店内での滞在状態を判断する滞在状態判断部と、
前記顧客と前記ロボットとの対話に用いられる対話シナリオ情報に基づく対話シナリオの進行に合わせて、前記ロボットとの対話のための選択肢を表示部に表示させる表示処理部と、
ロボットの発話動作の動作期間内の所定のタイミングを、前記滞在状態判断部にて判断された滞在状態に基づいて、推定するタイミング推定部と、
前記タイミング推定部にて推定された前記所定のタイミングに基づいて、選択肢を前記表示部に表示させるよう前記表示処理部に指示する表示指示部と、を備える、ロボット制御装置。
A robot control device that transmits the command signal to a robot that performs an operation according to the command signal in order to interact with a customer who has visited the restaurant,
A stay state determination unit for determining a stay state of the customer in the restaurant;
A display processing unit for displaying options for dialogue with the robot on a display unit in accordance with the progress of the dialogue scenario based on dialogue scenario information used for dialogue between the customer and the robot;
A timing estimation unit that estimates a predetermined timing within the operation period of the speech operation of the robot based on the stay state determined by the stay state determination unit;
A robot control apparatus comprising: a display instruction unit that instructs the display processing unit to display options on the display unit based on the predetermined timing estimated by the timing estimation unit.
JP2017060000A 2017-03-24 2017-03-24 Robot control system and robot control device Pending JP2018161707A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017060000A JP2018161707A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017060000A JP2018161707A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Publications (1)

Publication Number Publication Date
JP2018161707A true JP2018161707A (en) 2018-10-18

Family

ID=63860682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017060000A Pending JP2018161707A (en) 2017-03-24 2017-03-24 Robot control system and robot control device

Country Status (1)

Country Link
JP (1) JP2018161707A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114012729A (en) * 2021-11-16 2022-02-08 哈尔滨理工大学 Three-side teleoperation system and method for foot-type mobile robot fused with interaction force estimation algorithm

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114012729A (en) * 2021-11-16 2022-02-08 哈尔滨理工大学 Three-side teleoperation system and method for foot-type mobile robot fused with interaction force estimation algorithm

Similar Documents

Publication Publication Date Title
US11024294B2 (en) System and method for dialogue management
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US11504856B2 (en) System and method for selective animatronic peripheral response for human machine dialogue
US10967508B2 (en) System and method for dynamic robot configuration for enhanced digital experiences
US10994421B2 (en) System and method for dynamic robot profile configurations based on user interactions
EP3732676A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US20220241977A1 (en) System and method for dynamic program configuration
WO2018174289A1 (en) Conversation control system, and robot control system
Papaioannou et al. Hybrid chat and task dialogue for more engaging hri using reinforcement learning
JP2020088637A (en) Conference support system and conference robot
JP2018161707A (en) Robot control system and robot control device
WO2018174287A1 (en) Store management system
JP7208361B2 (en) Communication robot and its control method, information processing server and information processing method
JP2018161708A (en) Robot control system and robot control apparatus
JP2018161706A (en) Robot control system and robot control device
WO2018174285A1 (en) Conversation control device and conversation system
WO2018174290A1 (en) Conversation control system, and robot control system
JP7107248B2 (en) Dialogue system, dialogue method and program
JP2018161709A (en) Dialog control system and dialog control apparatus
JP2018161710A (en) Dialogue control device and robot control system
WO2023286224A1 (en) Conversation processing program, conversation processing system, and conversational robot
JP2018161715A (en) Dialogue control device and dialogue system
JP2018161713A (en) Dialog control device and robot control system
JP2018161702A (en) Robot control system and robot control device