JP2018161702A - ロボット制御システムおよびロボット制御装置 - Google Patents
ロボット制御システムおよびロボット制御装置 Download PDFInfo
- Publication number
- JP2018161702A JP2018161702A JP2017059941A JP2017059941A JP2018161702A JP 2018161702 A JP2018161702 A JP 2018161702A JP 2017059941 A JP2017059941 A JP 2017059941A JP 2017059941 A JP2017059941 A JP 2017059941A JP 2018161702 A JP2018161702 A JP 2018161702A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operation terminal
- sensor
- robot control
- control system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】簡易な処理によってロボットとの対話による満足感を向上させることができるロボット制御システムおよびロボット制御装置を提供する。【解決手段】飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボット2と、ロボット2対話をするために顧客が操作する操作端末3と、を備え、操作端末3は、操作のために顧客により把持された操作端末3の位置および方向の少なくとも一方を検出する少なくとも一つのセンサ31を有し、ロボット2は、センサ31の検出信号に基づいて生成された指令信号に応じて、ロボット2の位置および姿勢の少なくとも一方を制御する駆動制御部22を有する。【選択図】図1
Description
本発明は、ロボット制御システムおよびロボット制御装置に関する。
近年、レストランその他公共施設において、来場客の案内役としてヒューマノイド型ロボットを活用する事例がみられる。このようなロボットとのコミュニケーション(対話)を専用の操作端末を用いて行う技術が検討されており、この技術によれば、ユーザは、操作端末を介してロボットとの対話を楽しんだり、案内情報を入手したりすることができる。
しかるに、操作端末を介したロボットとの対話において、ロボットがユーザとは無関係の方向を向いたままであると、ユーザがロボットとの対話に参加している感覚(以下、対話感とも呼ぶ)が得られない。対話感が得られないことで、ロボットとの対話による満足感が得られにくい。
そこで、これまでにも、対話相手の居場所にロボットの顔を向ける技術として、ロボットに搭載されたカメラによって対話相手を認識する技術が提案されている(例えば、特許文献1参照)。
しかしながら、特許文献1に記載の技術では、対話相手の顔等を認識するための高度な画像認識処理技術が必要となるうえ、ロボットに複数人が対峙している場合には誰が対話相手であるのかを正しく認識できないおそれがある。
本発明はこのような点を考慮してなされたものであり、簡易な処理によってロボットとの対話を違和感なく自然に行うことができるロボット制御システムおよびロボット制御装置を提供することを目的とする。
本発明は、飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットと、ロボットと対話をするために顧客が操作する操作端末と、を備え、操作端末は、操作のために顧客により把持された操作端末の位置および方向の少なくとも一方を検出する少なくとも一つのセンサを有し、ロボットは、センサの検出信号に基づいて生成された指令信号に応じて、ロボットの位置および姿勢の少なくとも一方を制御する駆動制御部を有する、ロボット制御システムである。
本発明によるロボット制御システムにおいて、センサは、少なくとも操作端末の方向を検出し、駆動制御部は、センサの検出信号に基づいて生成された指令信号に応じて、操作端末が存在する方向を向くようにロボットの姿勢を制御してもよい。
本発明によるロボット制御システムにおいて、駆動制御部は、指令信号に応じて、操作端末が存在する方向を向くようにロボットの胴体、顔および目線の少なくとも一つの向きを制御してもよい。
本発明によるロボット制御システムにおいて、センサは、少なくとも操作端末の位置を検出し、駆動制御部は、センサの検出信号に基づいて生成された指令信号に応じて、ロボットを移動させてロボットの位置を制御してもよい。
本発明によるロボット制御システムにおいて、駆動制御部は、指令信号に応じて、操作端末の位置にロボットが近づくようにロボットを移動させてもよい。
本発明によるロボット制御システムにおいて、センサの検出信号に基づいて指令信号を生成する指令信号生成部を備えてもよい。
本発明によるロボット制御システムにおいて、指令信号生成部は、操作端末に備えられていてもよい。
本発明によるロボット制御システムにおいて、指令信号生成部は、ロボットに備えられていてもよい。
本発明は、飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットに対して指令信号を送信するロボット制御装置であって、ロボット制御装置の位置および方向の少なくとも一方を検出する少なくとも一つのセンサと、センサの検出信号に基づいて、ロボットの位置および姿勢の少なくとも一方を制御するための指令信号を生成する指令信号生成部と、生成された指令信号をロボットに対して送信する送信部と、を備える、ロボット制御装置である。
本発明によれば、簡易な処理によってロボットとの対話を違和感なく自然に行うことができる。
以下、本発明の実施形態に係るロボット制御システムおよびロボット制御装置の構成及び作用について、図面を参照しながら詳細に説明する。なお、以下に示す実施形態は本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。また、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号を付し、その繰り返しの説明は省略する場合がある。また、図面の寸法比率は説明の都合上実際の比率とは異なる場合や、構成の一部が図面から省略される場合がある。
(第1の実施形態)
図1は、第1の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(point of sales)システムなどの店舗システム5とを備える。ロボット制御システム1は、飲食店の来店客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話するためのシステムである。図1の例におけるロボット2は、人間に似た外観および対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。ロボット2は、姿勢や動作等をプログラム可能な汎用のロボットでもよいし、本ロボット制御システム1用に開発されたロボットでもよい。
図1は、第1の実施形態によるロボット制御システム1を示すブロック図である。図1に示すように、ロボット制御システム1は、ロボット2と、ロボット制御装置の一例である操作端末3と、ハンディ端末4と、POS(point of sales)システムなどの店舗システム5とを備える。ロボット制御システム1は、飲食店の来店客(以下、ユーザと呼ぶ)が、ロボット2を操作する操作端末3を介してロボット2と対話するためのシステムである。図1の例におけるロボット2は、人間に似た外観および対話機能を有する機械、すなわちヒューマノイドである。なお、ロボット2は、動物やキャラクタなどの人間と非類似の外観を有していてもよい。また、ロボット2は、表示部35に表示された画像による仮想的なロボットであってもよい。ロボット2は、姿勢や動作等をプログラム可能な汎用のロボットでもよいし、本ロボット制御システム1用に開発されたロボットでもよい。
(ロボット2)
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動される。なお、ロボット2は、電池等のバッテリ駆動型であってもよい。
図1に示すように、ロボット2は、ロボット駆動部21と、駆動制御部の一例であるロボット制御部22とを有する。ロボット2は、商用電源から供給される電力によって駆動される。なお、ロボット2は、電池等のバッテリ駆動型であってもよい。
ロボット駆動部21は、例えば、胴体部、腕部、首部、眼球部、瞼部または口部等の自由度を有するロボット2の部位を駆動するアクチュエータと、ロボット2の発話音声を出力する音声出力装置と、ロボット2の眼球部を点灯させる点灯装置とを有する。ロボット駆動部21を必要に応じて駆動することで、ユーザとの対話を行うために、ロボット2に発話させたり、ロボット2の姿勢を変化させたり、ロボット2の眼球部を所定の点灯色で点灯させたりすることができる。ロボット駆動部21には、ロボット制御部22から、ロボット駆動部21の駆動を制御する駆動制御信号が入力される。ロボット駆動部21は、駆動制御信号に応じて駆動される。
ロボット制御部22は、指令信号の一例であるロボット制御コマンドを操作端末3から受信する。ロボット制御部21は、受信されたロボット制御コマンドに基づいて既述した駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力する。すなわち、ロボット2は、飲食店に来客した顧客と対話するためロボット制御コマンドに応じて動作することができる。なお、ロボット制御コマンドは、これによって駆動を制御しようとするロボット駆動部21の種類や制御内容に応じて多種多様である。例えば、ロボット制御コマンドには、ロボット2の姿勢や位置や点灯状態を制御するためのコマンドや、ロボット2を発話させるためのコマンドがある。ロボット2を発話させるためのコマンドには、発話内容を示すデータ(後述するロボット側シナリオデータ)が含まれる。
ロボット制御部22は、例えば、アプリケーションプログラムやこれを動作させるオペレーティングシステムなどのソフトウェアが記憶された少なくとも1つのメモリと、メモリに記憶されたソフトウェアを実行するCPU(Central Processing Unit)とを有し、メモリに記憶されたソフトウェアをCPUが実行することで駆動制御信号を生成してもよい。
(操作端末3)
操作端末3は、ユーザが操作するために携帯する(すなわち、把持する)ものであり、例えばタッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、センサの一例である方位センサ31と、指令信号生成部および送信部の一例である動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。方位センサ31は、操作のために顧客により把持された操作端末3の方向の一例として、操作端末3の方位を検出する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32に出力する。方位センサ31は、例えば、2軸または3軸タイプの地磁気センサ(すなわち電子コンパス)で構成されている。方位センサ31は、さらに、ジャイロセンサを有していてもよい。このように、本実施形態による方位センサ31は、方位に関する情報を検出する1つ以上のセンサである。例えば、2軸タイプの方位センサ31を内蔵した操作端末3では、操作端末3の表示部35の表示面の向きを方位センサ31にて検出することができる。ユーザが操作端末3を持って移動した場合や、ユーザが操作端末3の表示面の向きを変えた場合は、方位センサ31にて検出される方位が変化し、方位センサ31から出力される方位検出信号も変化する。3軸タイプの方位センサ31は、例えば、三次元空間における操作端末3の基準方向(例えば、表示面の法線方向)を検出する。
操作端末3は、ユーザが操作するために携帯する(すなわち、把持する)ものであり、例えばタッチ機能を備えたタブレット端末である。この他、操作端末3は、スマートフォンや卓上のディスプレイ型の端末などでもよい。図1に示すように、操作端末3は、センサの一例である方位センサ31と、指令信号生成部および送信部の一例である動作生成部32とを有する。操作端末3は、内蔵電池から供給される電力によって駆動される。方位センサ31は、操作のために顧客により把持された操作端末3の方向の一例として、操作端末3の方位を検出する。方位センサ31は、検出された操作端末3の方位を示す方位検出信号を動作生成部32に出力する。方位センサ31は、例えば、2軸または3軸タイプの地磁気センサ(すなわち電子コンパス)で構成されている。方位センサ31は、さらに、ジャイロセンサを有していてもよい。このように、本実施形態による方位センサ31は、方位に関する情報を検出する1つ以上のセンサである。例えば、2軸タイプの方位センサ31を内蔵した操作端末3では、操作端末3の表示部35の表示面の向きを方位センサ31にて検出することができる。ユーザが操作端末3を持って移動した場合や、ユーザが操作端末3の表示面の向きを変えた場合は、方位センサ31にて検出される方位が変化し、方位センサ31から出力される方位検出信号も変化する。3軸タイプの方位センサ31は、例えば、三次元空間における操作端末3の基準方向(例えば、表示面の法線方向)を検出する。
動作生成部32は、方位センサ31からの方位検出信号に基づいて、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。動作生成部32は、生成されたロボット制御コマンドを、例えばWiFiなどの無線通信によってロボット制御部22に送信する。ロボット制御部22は、動作生成部32からのロボット制御コマンドを受信し、受信されたロボット制御コマンドに応じた駆動制御信号をロボット駆動部21に出力することで、操作端末3が存在する方向をロボット2が向くようにロボット駆動部21の駆動を制御する。
上述したように、方位センサ31は、2次元平面の方位または3次元空間の方位を検出するが、いずれの場合であっても、方位センサ31から出力された方位検出信号に基づいて、ロボット2の姿勢を変化させることで、厳密とは言えないまでも、ユーザとロボット2とが向き合うようになる。この状態で、ユーザとロボット2とが対話を行えば、ユーザは違和感なく、より自然にロボット2との対話を行うことができる。これにより、カメラの撮像画像に基づく顔認識のような高度な画像認識処理技術を要することなく、ロボット2との対話感を得ることができる。したがって、簡易な処理によってロボット2との対話による満足感を向上させることができる。
図1に示すように、操作端末3は、対話シナリオデータを用いてユーザとロボット2との間での対話を行うための構成として、既述した動作生成部32に加えて、更に、シナリオDB(データベース)33と、シナリオ制御部34と、表示部35と、タッチパネル等の入力部36と、音声出力部37とを有する。
シナリオDB33には、ユーザとロボット2との間での対話を行うための複数の対話シナリオ情報が蓄積されている。対話シナリオ情報は、複数の対話シナリオを含んでいる。対話シナリオとは、ユーザとロボット2との間でやり取りされる対話のストーリである。飲食店に入店した顧客は、入店してから退店するまでの間に複数の滞在状態を遷移する。そこで、シナリオDBには、各遷移状態ごとに別個の対話シナリオが蓄積されている。また、ある滞在状態にて実行された対話シナリオの進行中に、顧客が操作端末3で複数の選択肢の中から特定の選択肢を選択した場合には、別の対話シナリオに切り替わる場合もありうる。各対話シナリオは、ロボット2が対話(すなわち、発話)に用いるロボット側シナリオデータと、ユーザが対話(すなわち、操作端末3での選択)に用いるユーザ側シナリオデータとで構成されている。ユーザ側シナリオデータは、各対話シナリオにおけるロボット2の発話に対するユーザ側の選択肢等を集めたデータである。ユーザ側シナリオデータは、対話シナリオの進行に合わせて、操作端末3の表示部35に選択肢等を表示するために用いられる。ユーザは、表示された選択肢の中から特定の選択肢を入力部36にて選択することができる。そして、ユーザ側シナリオデータに示される対話シナリオの選択肢のそれぞれに、互いに異なる新たな(下位の)ロボット側シナリオデータが対応付けられている。すなわち、対話シナリオデータは、ロボット側シナリオデータとユーザ側シナリオデータが交互にノードとして結合されたツリー構造を有する。ツリー構造のうち、最上位から最下位にわたる所定の一連のノード群は、例えば典型的な対話に用いられる基本シナリオとして管理され、他のノード群は、基本シナリオを補正する補正シナリオとして管理されていてもよい。
また、例えば飲食店向けの対話シナリオデータは、飲食店におけるユーザの滞在状況すなわち動作状態を示すステータスデータに応じて複数のシナリオ群に区分されている。図1の例におけるステータスデータは、着席、注文、飲食物提供、食事終了および会計の各状態を示す。対話シナリオデータは、着席から注文までの期間における対話に用いられる第1シナリオ群と、注文から飲食物提供までの期間における対話に用いられる第2シナリオ群と、飲食物提供から食事終了までの間における対話に用いられる第3のシナリオ群と、食事終了から会計までの間における対話に用いられる第4シナリオ群とに区分することができる。
また、ロボット側シナリオデータには、ロボット2の疑似的な感情や意図等のロボット2の内部状態すなわち心理状態を数値化した内部状態パラメータが対応付けられている。内部状態パラメータは、例えば、喜び等の感情を数値化した正感情値(+)と、悲しみ等の感情を数値化した負感情値(−)を含む。
シナリオ制御部34には、店舗システム5から、既述したステータスデータが入力される。図1の例において、ステータスデータは、飲食店の店員が携帯する注文用のハンディ端末4にて入力可能である。このステータスデータは、ハンディ端末4から店舗システム5に送信されたうえで、店舗システム5からシナリオ制御部34に入力される。なお、ステータスデータは、ハンディ端末4による入力によって取得されることに限定されず、ハンディ端末4と異なる取得手段によって取得されてもよい。
シナリオ制御部34は、店舗システム5から入力されたステータスデータに応じたシナリオ群に属するロボット側シナリオデータをシナリオDB33から読み出す。ロボット側シナリオデータを読み出すとき、シナリオ制御部34は、ロボット側シナリオデータに対応付けられた内部状態パラメータもシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出されたロボット側シナリオデータと内部状態パラメータとを動作生成部32に出力する。
動作生成部32は、シナリオ制御部34から入力されたロボット側シナリオデータと内部状態パラメータとに基づいて、ロボット側シナリオデータを発話させるためのロボット制御コマンドを生成する。このとき、動作生成部32は、ロボット側シナリオデータに対応付けられた内部状態パラメータを考慮して、ロボット制御コマンドの指令内容に、発話音声のトーンや、眼球の点灯状態やロボット2の姿勢等を含める。
また、動作生成部32は、対話の進行にともなって、シナリオDB33から読み出される内部状態パラメータを蓄積する。蓄積された内部状態パラメータの合計値が閾値に達したとき、動作生成部32は、シナリオ制御部34に、現在対話に用いている対話シナリオ(例えば、基本シナリオ)と異なる対話シナリオ(例えば、補正シナリオ)を示す対話シナリオデータをシナリオDB33から新たに読み出させる。そして、動作生成部32は、新たに読み出された対話シナリオデータを用いた対話を進行させる。なお、操作端末3に照度センサを設け、照度センサで検出された対話空間の明るさに応じて対話に用いられる対話シナリオデータを異ならせてもよい。
シナリオ制御部34は、ロボット側シナリオデータをシナリオDB33から読み出した後、読み出されたロボット側シナリオデータに応答するユーザ側シナリオデータをシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出されたユーザ側シナリオデータを表示部35に出力する。表示部35は、シナリオ制御部34から入力されたユーザ側シナリオデータに基づいて、ユーザ側の対話シナリオの選択肢を表示する。なお、対話シナリオの選択肢は、基本的に複数であるが、対話の段階によっては1つとなるときがあってもよい。
ユーザは、表示部35で表示された対話シナリオの選択肢の中から、入力部36を用いて所望の対話シナリオを選択することができる。すなわち、入力部36は、ユーザによって選択された対話シナリオを示す対話シナリオ選択信号を、シナリオ制御部34および音声出力部37に出力する。
シナリオ制御部34は、入力部36から入力された対話シナリオ選択信号に応じて、対話シナリオ選択信号で選択された対話シナリオに応答する新たなロボット側シナリオデータをシナリオDB33から読み出す。そして、シナリオ制御部34は、読み出された新たなロボット側シナリオデータを、発話のために動作生成部32に出力する。
音声出力部37は、入力部36から入力された対話シナリオ選択信号に基づいて、選択された対話シナリオを音声出力する。
以上の構成により、対話シナリオデータを用いてユーザとロボット2との間での対話を行うことができる。
飲食サービス業においては、着席、注文、飲食物提供、食事終了、会計などのユーザの滞在状況すなわち時間経過に応じて、ユーザとの間で交わすべき対話の内容が大きく変化する。第1の実施形態によれば、ステータスデータに応じて異なるシナリオ群の対話シナリオデータを用いて対話を行うことができるので、飲食サービスの提供場面におけるロボット2との対話感をより向上させることができる。
また、内部状態パラメータの蓄積状態に応じて対話内容を可変とすることで、ロボット2との対話感をさらに向上させることができる。
さらに、ユーザが選択した対話シナリオを音声出力することで、ユーザの発話を模擬することができるので、ロボット2との対話感をより一層向上させることができる。
なお、シナリオDB33には、ロボット側シナリオデータのうち、データ本体の識別情報であるシナリオIDのみを蓄積し、データ本体はロボット2側に蓄積させてもよい。この場合、ロボット2に発話をさせる際には、操作端末3側からロボット2側にシナリオIDを送信し、ロボット2側でシナリオIDに対応するデータ本体を音声出力すれば済むので、操作端末3からロボット2にデータ本体を送信する場合と比較してデータ送信量を削減でき、対話の迅速性を向上させることが可能となる。
(動作例)
次に、図1のロボット制御システム1の主要な動作例について説明する。図2は、第1の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図2のシーケンスは必要に応じて繰り返される。なお、図2の初期状態において、動作生成部32には、操作端末3が存在する方向をロボット2が向くときの操作端末3の基準方位が設定されている。操作端末3の基準方位は、例えば、ロボット2の起動直後に操作端末3をロボット2に正対させ、このときの方位センサ31からの方位検出信号に基づいて設定してもよい。また、起動直後のロボット2の姿勢は、胴体部、顔および目線のいずれもが正面を向いた状態であってもよい。
次に、図1のロボット制御システム1の主要な動作例について説明する。図2は、第1の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図2のシーケンスは必要に応じて繰り返される。なお、図2の初期状態において、動作生成部32には、操作端末3が存在する方向をロボット2が向くときの操作端末3の基準方位が設定されている。操作端末3の基準方位は、例えば、ロボット2の起動直後に操作端末3をロボット2に正対させ、このときの方位センサ31からの方位検出信号に基づいて設定してもよい。また、起動直後のロボット2の姿勢は、胴体部、顔および目線のいずれもが正面を向いた状態であってもよい。
そして、初期状態から、図2に示すように、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。ここで、方位センサ31による方位の検出は、例えば、ユーザが既述したユーザ側の対話シナリオを選択したタイミングで行われてもよい。また、方位センサ31による方位の検出は、ロボット2の起動後に所定周期あるいはランダムな周期で繰り返し行われてもよい。
操作端末3の方位が検出された後、動作生成部32は、方位センサ31から入力された方位検出信号に基づいて、検出された方位に応じたロボット制御コマンドを生成する(ステップS2)。具体的には、動作生成部32は、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。このロボット制御コマンドは、動作生成部32に設定されている基準方位と方位センサ31にて検出された方位とのずれが低減する方向にロボット2の姿勢を変化させることを指示するコマンドであってもよい。
ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。
ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。
ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢の制御を行う(ステップS5)。
次に、図2のシーケンスの具体的な適用例について説明する。図3(a)は、第1の実施形態によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図3(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。図4は、第1の実施形態によるロボット制御システム1の動作例において、操作端末3の方向を向いたロボット2との対話例を示す図である。
図3(a)および図3(b)の例において、ロボット2の胴体部(図4における符号2a)は、台座(図4における符号2b)上に、鉛直方向の軸回りに回転可能に支持されている。すなわち、胴体部は、図3(b)に示されるヨー方向Yに回転する自由度を有する。胴体部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、操作端末3の方向を向くことができる。なお、胴体部は、モータによって前後および左右に傾動可能とされていてもよい。すなわち、胴体部は、左右方向の軸回りに回転するピッチ方向および前後方向の軸回りに回転するロール方向にも自由度を有していてもよい。
図3(a)および図3(b)の例において、動作生成部32は、操作端末3の方位が図3(a)から図3(b)に変化した場合に、方位検出信号に基づいて、ロボット2の胴体部を方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する(図2のステップS2)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の胴体部が方位変化後の操作端末3が存在する方向を向くようにロボット2の胴体部を回転駆動制御する(図2のステップS5)。
図4の例において、ロボット2は、胴体部2aを操作端末3が存在する方向に向けた状態で、ロボット側シナリオデータに基づく発話を行っている。図4の例において、ロボット2は、“注文は何にするか決まった?”と発話している。操作端末3の表示部35は、ロボット側シナリオデータに応答する対話シナリオの選択肢を、入力部36を用いて選択可能な表示態様で表示している。図4の例において、対話シナリオの選択肢は、“メニューを見る”という選択肢と、“ロボにおまかせ”という選択肢である。なお、図4に示すように、複数の対話シナリオの選択肢のうち、飲食店が来店客の便宜を考慮して推奨する選択肢を他の選択肢より強調(例えば、大きく)表示してもよい。
図4に示すように、第1の実施形態によれば、方位センサ31の検出信号に基づいて、ロボット2の胴体部2aを操作端末3が存在する方向に向けさせるため、操作端末3を操作するユーザは、ロボット2と対面しながら対話を行うことができる。これにより、ユーザは違和感なく自然にロボット2と対話を楽しむことができる。本実施形態は、操作端末3が元々備えている方位センサ31を利用してロボット2の向きを制御するため、簡易な処理でありながら、ロボット2との対話による満足感を向上させることができる。
(第1の変形例)
次に、ロボット2の顔だけを操作端末3が存在する方向に向ける第1の変形例について説明する。図5(a)は、第1の実施形態の第1の変形例によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図5(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。
次に、ロボット2の顔だけを操作端末3が存在する方向に向ける第1の変形例について説明する。図5(a)は、第1の実施形態の第1の変形例によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図5(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。
図5(a)および図5(b)の例において、ロボット2の首部(すなわち顔)は、胴体部上に鉛直方向の軸回りに回転可能に支持されている。すなわち、首部は、図5(b)に示されるヨー方向Yに自由度を有する。首部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、ロボット2の顔を操作端末3の方向を向けることができる。なお、首部は、モータによって前後および左右に傾動可能とされていてもよい。すなわち、首部は、ピッチ方向およびロール方向にも自由度を有していてもよい。
第1の変形例において、動作生成部32は、図5(a)および図5(b)に示すように操作端末3の方位が変化した場合に、方位検出信号に基づいて、ロボット2の顔を方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の顔が方位変化後の操作端末3が存在する方向を向くようにロボット2の首部を回転駆動制御する。
第1の変形例によれば、方位センサ31の検出信号に基づいて、ロボット2の顔を操作端末3が存在する方向に向けた状態で操作端末3を操作するユーザとロボット2との間での対話を行うことができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。
(第2の変形例)
次に、ロボット2の眼球部だけを操作端末3が存在する方向に向ける第2の変形例について説明する。図6(a)は、第1の実施形態の第2の変形例によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図6(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。
次に、ロボット2の眼球部だけを操作端末3が存在する方向に向ける第2の変形例について説明する。図6(a)は、第1の実施形態の第2の変形例によるロボット制御システム1の動作例において、操作端末3の方位の変化前のロボット2を示す平面図である。図6(b)は、操作端末3の方位の変化後のロボット2を示す平面図である。
図6(a)および図6(b)の例において、ロボット2の眼球部2cは、眼球部2cが存在する眼の表面上で移動可能とされている。眼球部2cは、ロボット駆動部21の一例であるモータの回転力によって眼の表面上で移動することで、ロボット2の目線を操作端末3の方向を向けることができる。なお、眼球部2cは、モータによって前後に傾動可能とされていてもよい。すなわち、眼球部2cは、ピッチ方向にも自由度を有していてもよい。
第2の変形例において、動作生成部32は、図6(a)および図6(b)に示すように操作端末3の方位が変化した場合に、方位検出信号に基づいて、ロボット2の眼球部2cを方位変化後の操作端末3が存在する方向に向かせるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の眼球部2cが方位変化後の操作端末3が存在する方向を向くようにロボット2の眼球部2cを移動制御する。
第2の変形例によれば、方位センサ31の検出信号に基づいて、ロボット2の目線を操作端末3が存在する方向に向けた状態で操作端末3を操作するユーザは、ロボット2と対面しながら対話を行うことができる。これにより、簡易な処理によってロボット2との対話による満足感を向上させることができる。
(第2の実施形態)
次に、位置センサの検出信号に基づいてロボット2の位置を制御する第2の実施形態について説明する。図7は、第2の実施形態によるロボット制御システム1を示すブロック図である。
次に、位置センサの検出信号に基づいてロボット2の位置を制御する第2の実施形態について説明する。図7は、第2の実施形態によるロボット制御システム1を示すブロック図である。
図7に示すように、第2の実施形態のロボット制御システム1は、方位センサ31の替わりに位置センサ38を有する点で第1の実施形態と異なる。
位置センサ38は、操作端末3の位置を検出する。位置センサ38は、検出された操作端末3の位置を示す位置検出信号を動作生成部32に出力する。位置センサ38は、例えば、GPS(Grobal Positioning System)レシーバであってもよい。
図8は、第2の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図8のシーケンスは必要に応じて繰り返される。
図8に示すように、第2の実施形態において、先ず、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。位置センサ38による操作端末3の位置の検出タイミングは、第1の実施形態で説明した方位センサ31による操作端末3の方位の検出タイミングと同様であってもよい。
操作端末3の位置が検出された後、動作生成部32は、位置センサ38から入力された位置検出信号に基づいて、検出された位置に応じたロボット制御コマンドを生成する(ステップS21)。具体的には、動作生成部32は、ロボット2を移動させてロボット2の位置を制御するためのロボット制御コマンドを生成する。例えば、動作生成部32は、操作端末3の位置にロボット2が近づくようにロボット2を移動させるためのロボット制御コマンドを生成してもよい。
ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。
ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。
ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の位置の制御を行う(ステップS51)。
次に、図8のシーケンスの具体的な適用例について説明する。図9(a)は、第2の実施形態によるロボット制御システム1の動作例において、操作端末3の位置の変化前のロボット2を示す平面図である。図9(b)は、操作端末3の位置の変化後のロボット2を示す平面図である。
図9(a)および図9(b)の例において、ロボット2は、例えば、台座の底部に設けられた複数の車輪によって移動可能とされている。ロボット2は、ロボット駆動部21の一例であるモータの回転力によって車両のうち駆動輪を回転させることで、ロボット2を移動させることができる。ロボット2は、車輪以外の機構(例えば、脚機構)によって移動可能とされていてもよい。
図9(a)および図9(b)の例において、動作生成部32は、操作端末3の位置が図9(b)に示すようにロボット2から遠ざかるように変化した場合に、位置検出信号に基づいて、ロボット2を変化後の操作端末3の位置に近づくように移動させるためのロボット制御コマンドを生成する(図8のステップS21)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2が変化後の操作端末3の位置に近づくようにロボット2の駆動輪を回転駆動することで、ロボット2を並進駆動制御する(図8のステップS51)。
第2の実施形態によれば、位置センサ38の検出信号に基づいて、ロボット2と操作端末3との距離を好適な距離に制御した状態でロボット2と対話することができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。
(変形例)
次に、位置センサおよび方位センサの検出信号に基づいてロボット2の位置および姿勢を制御する第2の実施形態の変形例について説明する。
次に、位置センサおよび方位センサの検出信号に基づいてロボット2の位置および姿勢を制御する第2の実施形態の変形例について説明する。
図10は、第2の実施形態の変形例によるロボット制御システム1を示すブロック図である。図10に示すように、第2の実施形態の変形例のロボット制御システム1は、位置センサ38に加えて、更に、方位センサ31を有する点で図7の構成と異なる。方位センサ31の構成は、第1の実施形態と同様である。
図11は、第2の実施形態の変形例によるロボット制御システム1の動作例を示すシーケンス図である。図11のシーケンスは必要に応じて繰り返される。
図11に示すように、変形例において、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。また、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。なお、ステップS1とステップS6とは、前後が入れ替わってもよく、または、同時でもよい。
操作端末3の方位および位置が検出された後、動作生成部32は、方位センサ31から入力された方位検出信号および位置センサ38から入力された位置検出信号に基づいて、検出された方位および位置に応じたロボット制御コマンドを生成する(ステップS22)。具体的には、動作生成部32は、操作端末3が存在する方向を向くようにロボット2の姿勢を制御するとともに、ロボット2を移動させてロボット2の位置を制御するためのロボット制御コマンドを生成する。
ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。
ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。
ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢および位置の制御を行う(ステップS52)。
次に、図11のシーケンスの具体的な適用例について説明する。図12(a)は、第2の実施形態の変形例によるロボット制御システム1の動作例において、操作端末3の位置および方位の変化前のロボット2を示す平面図である。図12(b)は、操作端末3の位置および方位の変化後のロボット2を示す平面図である。
図3(a)および図3(b)の例と同様に、図12(a)および図12(b)の例において、ロボット2の胴体部は、台座上に、鉛直方向の軸回りに回転可能に支持されている。すなわち、胴体部は、図12(b)に示されるヨー方向Yに自由度を有する。胴体部は、ロボット駆動部21の一例であるモータの回転力によって鉛直方向の軸回りにヨー方向Yに回転することで、操作端末3が存在する方向を向くことができる。
また、図9(a)および図9(b)の例と同様に、図12(a)および図12(b)の例において、ロボット2は、例えば、台座の底部に設けられた複数の車輪によって移動可能とされている。ロボット2は、ロボット駆動部21の一例であるモータの回転力によって駆動輪を回転させることで、ロボット2を移動させることができる。
図12(a)および図12(b)の例において、動作生成部32は、操作端末3の方位および位置が図12(a)から図12(b)に変化した場合に、方位検出信号および位置検出信号に基づいて、ロボット2の胴体部を方位変化後の操作端末3が存在する方向に向かせるとともに、ロボット2を変化後の操作端末3の位置に近づくように移動させるためのロボット制御コマンドを生成する(図11のステップS22)。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の胴体部が方位変化後の操作端末3が存在する方向を向くようにロボット2の胴体部を回転駆動制御するとともに、ロボット2が変化後の操作端末3の位置に近づくようにロボット2の駆動輪を回転駆動することで、ロボット2を並進駆動制御する(図11のステップS52)。
第2の実施形態の変形例によれば、方位センサ31および位置センサ38の検出信号に基づいて、ロボット2の胴体部2aを操作端末3が存在する方向に向けるとともにロボット2と操作端末3との距離を好適な距離に制御した状態で、操作端末3を操作するユーザとロボット2との間での対話を行うことができる。これにより、簡易な処理によってロボット2との対話による満足感を更に向上させることができる。
(第3の実施形態)
ユーザが首の傾き方を変えたときに、それに応じてロボットの首の傾き方を変えることができれば、よりロボットに対して近親感を覚えることができる。3軸タイプの方位センサ21を用いれば、操作端末3の3軸方向の回転を検出できるが、ユーザの首の傾き方向であるピッチ方向への操作端末3の回転をより精度よく検出するには、操作端末3に加速度センサを設けるのが望ましい。なお、加速度センサの代わりに傾斜角センサを用いることも可能であるが、以下では加速度センサを用いる例を説明する。図13は、第3の実施形態によるロボット制御システム1を示すブロック図である。図13に示すように、第3の実施形態のロボット制御システム1は、方位センサ31および位置センサ38に加えて、更に、加速度センサ39を有する点で図10の構成と異なる。
ユーザが首の傾き方を変えたときに、それに応じてロボットの首の傾き方を変えることができれば、よりロボットに対して近親感を覚えることができる。3軸タイプの方位センサ21を用いれば、操作端末3の3軸方向の回転を検出できるが、ユーザの首の傾き方向であるピッチ方向への操作端末3の回転をより精度よく検出するには、操作端末3に加速度センサを設けるのが望ましい。なお、加速度センサの代わりに傾斜角センサを用いることも可能であるが、以下では加速度センサを用いる例を説明する。図13は、第3の実施形態によるロボット制御システム1を示すブロック図である。図13に示すように、第3の実施形態のロボット制御システム1は、方位センサ31および位置センサ38に加えて、更に、加速度センサ39を有する点で図10の構成と異なる。
加速度センサ39は、操作端末3の傾きを検出する。加速度センサ39は、検出された操作端末3の傾きを示す傾き検出信号を動作生成部32に出力する。なお、操作端末3の傾きは、加速度センサ39自身が検出してもよいし、加速度センサ39の検出信号に基づいて動作生成部32が算出してもよい。
図14は、第3の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図14のシーケンスは必要に応じて繰り返される。
図14に示すように、第3の実施形態において、先ず、方位センサ31は、操作端末3の方位を検出し、検出された方位を示す方位検出信号を動作生成部32に出力する(ステップS1)。また、位置センサ38は、操作端末3の位置を検出し、検出された位置を示す位置検出信号を動作生成部32に出力する(ステップS6)。また、加速度センサ39は、操作端末3の傾きを検出し、検出された傾きを示す傾き検出信号を動作生成部32に出力する(ステップS7)。なお、ステップS1と、ステップS6と、ステップS7とは、前後が入れ替わってもよく、または、同時でもよい。
操作端末3の方位、位置および傾きが検出された後、動作生成部32は、方位センサ31から入力された方位検出信号、位置センサ38から入力された位置検出信号および加速度センサ39から入力された傾き検出信号に基づいて、検出された方位、位置および傾きに応じたロボット制御コマンドを生成する(ステップS23)。具体的には、動作生成部32は、操作端末3が存在する方向を操作端末3の傾きおよび位置に応じた仰俯角で向くようにロボット2の姿勢を制御するためのロボット制御コマンドを生成する。
ロボット制御コマンドを生成した後、動作生成部32は、生成されたロボット制御コマンドをロボット2に送信する(ステップS3)。
ロボット制御コマンドが送信されると、ロボット2のロボット制御部22は、送信されたロボット制御コマンドを受信する(ステップS4)。
ロボット制御コマンドを受信した後、ロボット制御部22は、受信されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、顔の仰俯角を含めたロボット2の姿勢の制御を行う(ステップS53)。
次に、図14のシーケンスの具体的な適用例について説明する。図15(a)は、第3の実施形態によるロボット制御システム1の動作例において、操作端末3の傾きの変化前のロボット2を示す側面図である。図15(b)は、操作端末3の傾きの変化後のロボット2を示す側面図である。
図15(a)および図15(b)の例において、ロボット2の首部は、図12(b)に示したヨー方向Yおよび図15(b)に示されるピッチ方向Pに自由度を有する。首部は、ロボット駆動部21の一例であるモータの回転力によってピッチ方向Pに回転することで、ロボット2の顔の仰俯角を操作端末3の傾きおよび位置に応じた角度に制御することができる。
第3の実施形態において、動作生成部32は、図15(a)および図15(b)に示すように操作端末3の傾き(ピッチ方向の傾き)が減少方向に変化した場合に、傾き検出信号に基づいて、ロボット2の首部を俯角方向(すなわち、仰角の減少方向)に回転させるためのロボット制御コマンドを生成する。ロボット制御部22は、動作生成部32で生成されたロボット制御コマンドに応じて、ロボット2の首部を俯角方向に回転駆動制御する。また、図示はしないが、動作生成部32は、操作端末3の位置がロボット2から遠ざかる方向に変化した場合には、ロボット2の首部を仰角方向に回転させるためのロボット制御コマンドを生成してもよい。このようにロボット2の首部の仰俯角を制御することで、操作端末3を見るユーザの目線の方向とロボット2の目線の方向とをできるだけ平行に近づけることができる。すなわち、ユーザの目線とロボット2の目線とを合いやすくすることができる。
第3の実施形態によれば、加速度センサ39の検出信号に基づいて、ロボット2の顔をユーザの目線に対応する操作端末3の傾きに応じた仰俯角に傾けた状態で、操作端末3を操作するユーザとロボット2との間での対話を行うことができるので、簡易な処理によってロボット2との対話による満足感を更に向上させることができる。
(第4の実施形態)
次に、ロボット2側に主要な制御機能を備えた第4の実施形態について説明する。図16は第4の実施形態によるロボット制御システムを示すブロック図である。図16に示すように、第4の実施形態のロボット制御システム1は、シナリオDB33、シナリオ制御部34および動作生成部32がロボット2側に設けられている点で第1〜第3の実施形態の構成と異なる。なお、図16に示されるセンサ30は、方位センサ31、位置センサ38および加速度センサ39のいずれか1つまたは2つ以上の組合せである。
次に、ロボット2側に主要な制御機能を備えた第4の実施形態について説明する。図16は第4の実施形態によるロボット制御システムを示すブロック図である。図16に示すように、第4の実施形態のロボット制御システム1は、シナリオDB33、シナリオ制御部34および動作生成部32がロボット2側に設けられている点で第1〜第3の実施形態の構成と異なる。なお、図16に示されるセンサ30は、方位センサ31、位置センサ38および加速度センサ39のいずれか1つまたは2つ以上の組合せである。
図17は、第4の実施形態によるロボット制御システム1の動作例を示すシーケンス図である。図17に示すように、第4の実施形態において、先ず、センサ30による検出を行い(ステップS11)、センサ30の検出結果を示すセンサ検出信号をロボット2に送信する(ステップS8)。
センサ検出信号が送信されると、ロボット2の動作生成部32は、送信されたセンサ検出信号を受信する(ステップS9)。
センサ検出信号が受信された後、動作生成部32は、センサ検出信号を解析することで、操作端末3の方位、位置および傾きの少なくとも1つを検出する(ステップS10)。
操作端末3の方位、位置および傾きの少なくとも1つが検出された後、動作生成部32は、検出された操作端末3の方位、位置、傾きに応じたロボット制御コマンドを生成する(ステップS24)。
ロボット制御コマンドが生成された後、ロボット制御部22は、生成されたロボット制御コマンドに基づいて駆動制御信号を生成し、生成された駆動制御信号をロボット駆動部21に出力することで、ロボット制御コマンドに応じたロボット2の姿勢および位置の制御を行う(ステップS54)。
第4の実施形態によれば、操作端末3の構成を簡略化でき、また、操作端末3からロボット2に送信する通信量を削減できるため、操作端末3とロボット2との間の通信回線の性能が低い場合でも、支障なくロボット2との対話を行うことができる。また、第4の実施形態においても、第1の実施形態と同様に、センサ30の検出信号に基づいて、ロボット2の姿勢や位置を操作端末3の方位、位置、傾きに適合するように制御することができるので、簡易な処理によってロボット2との対話による満足感を向上させることができる。
なお、動作生成部32は、操作端末3およびロボット2の外部に設けられていてもよく、例えば、店舗システム5に内蔵されていてもよいし、店舗システム5とは別個の通信機器内に設けてもよい。また、操作端末3は、店舗システム5との通信によって飲食物を注文する機能を備えていてもよい。
また、ロボット制御システム1は、既述したように飲食サービスに好適に適用することができるが、飲食サービス以外の場面に適用されてもよい。
本発明の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本発明の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
1 ロボット制御システム、2 ロボット、22 ロボット制御部、3 操作端末、31 方位センサ
Claims (9)
- 飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットと、
前記ロボットと対話をするために前記顧客が操作する操作端末と、を備え、
前記操作端末は、操作のために前記顧客により把持された前記操作端末の位置および方向の少なくとも一方を検出する少なくとも一つのセンサを有し、
前記ロボットは、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記ロボットの位置および姿勢の少なくとも一方を制御する駆動制御部を有する、ロボット制御システム。 - 前記センサは、少なくとも前記操作端末の方向を検出し、
前記駆動制御部は、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記操作端末が存在する方向を向くように前記ロボットの姿勢を制御する、請求項1に記載のロボット制御システム。 - 前記駆動制御部は、前記指令信号に応じて、前記操作端末が存在する方向を向くように前記ロボットの胴体、顔および目線の少なくとも一つの向きを制御する、請求項2に記載のロボット制御システム。
- 前記センサは、少なくとも前記操作端末の位置を検出し、
前記駆動制御部は、前記センサの検出信号に基づいて生成された前記指令信号に応じて、前記ロボットを移動させて前記ロボットの位置を制御する、請求項1乃至3のいずれか一項に記載のロボット制御システム。 - 前記駆動制御部は、前記指令信号に応じて、前記操作端末の位置に前記ロボットが近づくように前記ロボットを移動させる、請求項4に記載のロボット制御システム。
- 前記センサの検出信号に基づいて前記指令信号を生成する指令信号生成部を備える、請求項1乃至5のいずれか一項に記載のロボット制御システム。
- 前記指令信号生成部は、前記操作端末に備えられている、請求項6に記載のロボット制御システム。
- 前記指令信号生成部は、前記ロボットに備えられている、請求項6に記載のロボット制御システム。
- 飲食店に来客した顧客と対話するため指令信号に応じた動作を行うロボットに対して前記指令信号を送信するロボット制御装置であって、
当該ロボット制御装置の位置および方向の少なくとも一方を検出する少なくとも一つのセンサと、
前記センサの検出信号に基づいて、前記ロボットの位置および姿勢の少なくとも一方を制御するための前記指令信号を生成する指令信号生成部と、
前記生成された指令信号を前記ロボットに対して送信する送信部と、を備える、ロボット制御装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017059941A JP2018161702A (ja) | 2017-03-24 | 2017-03-24 | ロボット制御システムおよびロボット制御装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017059941A JP2018161702A (ja) | 2017-03-24 | 2017-03-24 | ロボット制御システムおよびロボット制御装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018161702A true JP2018161702A (ja) | 2018-10-18 |
Family
ID=63859118
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017059941A Pending JP2018161702A (ja) | 2017-03-24 | 2017-03-24 | ロボット制御システムおよびロボット制御装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018161702A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20210276186A1 (en) * | 2019-01-25 | 2021-09-09 | Beijing Magic Pal Technology Co., Ltd. | Robot and operating system, control device, control method and storage medium thereof |
-
2017
- 2017-03-24 JP JP2017059941A patent/JP2018161702A/ja active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20210276186A1 (en) * | 2019-01-25 | 2021-09-09 | Beijing Magic Pal Technology Co., Ltd. | Robot and operating system, control device, control method and storage medium thereof |
| JP2022519476A (ja) * | 2019-01-25 | 2022-03-24 | 北京妙趣▲フォ▼伴科技有限公司 | ロボットおよびそのオペレーティングシステム、制御装置、制御方法およびストレージメディア |
| US11904475B2 (en) * | 2019-01-25 | 2024-02-20 | Beijing Magic Pal Technology Co., Ltd. | Robot and operating system, control device, control method and storage medium thereof |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11024294B2 (en) | System and method for dialogue management | |
| US7689319B2 (en) | Communication robot control system | |
| US20180169865A1 (en) | Robot | |
| JP5429462B2 (ja) | コミュニケーションロボット | |
| JP7400923B2 (ja) | 情報処理装置および情報処理方法 | |
| US7519537B2 (en) | Method and apparatus for a verbo-manual gesture interface | |
| US11338429B2 (en) | Robot | |
| US11504856B2 (en) | System and method for selective animatronic peripheral response for human machine dialogue | |
| US11003860B2 (en) | System and method for learning preferences in dialogue personalization | |
| EP3732677A1 (en) | System and method for artificial intelligence driven automated companion | |
| US10967508B2 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
| JP2020067799A (ja) | コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム | |
| US20220241977A1 (en) | System and method for dynamic program configuration | |
| JP4512830B2 (ja) | コミュニケーションロボット | |
| JP2007118129A (ja) | コミュニケーションロボットおよびそれを用いた注意制御システム | |
| KR20190123604A (ko) | 상황별 변신이 가능한 홍보용 로봇 | |
| US10809715B2 (en) | Apparatus, robot, method, and recording medium | |
| KR20190106925A (ko) | 인공지능 로봇 및 그의 제어 방법 | |
| JP2018161702A (ja) | ロボット制御システムおよびロボット制御装置 | |
| JP2007160427A (ja) | ロボット制御システム | |
| WO2018174290A1 (ja) | 対話制御装置およびロボット制御システム | |
| CN211806147U (zh) | 一种基于模块化机器人的主控单元及模块化机器人 | |
| JP2019170544A (ja) | 動作装置、動作玩具及びシステム | |
| JP6454041B1 (ja) | ゲーム装置、及びゲームシステム | |
| JP2018161709A (ja) | 対話制御システムおよび対話制御装置 |