JP2007030050A - ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 - Google Patents
ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 Download PDFInfo
- Publication number
- JP2007030050A JP2007030050A JP2005212406A JP2005212406A JP2007030050A JP 2007030050 A JP2007030050 A JP 2007030050A JP 2005212406 A JP2005212406 A JP 2005212406A JP 2005212406 A JP2005212406 A JP 2005212406A JP 2007030050 A JP2007030050 A JP 2007030050A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user behavior
- behavior information
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 74
- 238000012545 processing Methods 0.000 claims abstract description 49
- 230000008569 process Effects 0.000 claims description 48
- 230000006854 communication Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 11
- 230000002452 interceptive effect Effects 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 307
- 239000003795 chemical substances by application Substances 0.000 description 26
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 210000003128 head Anatomy 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 206010041349 Somnolence Diseases 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 210000003739 neck Anatomy 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000004243 sweat Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 235000016496 Panda oleosa Nutrition 0.000 description 1
- 240000000220 Panda oleosa Species 0.000 description 1
- 241001310793 Podium Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000981 bystander Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】 会議や授業等に参加するロボットにより、参加者間の意思疎通を良好にする。
【解決手段】 ロボットを制御するロボット制御装置100は、ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得部102と、ユーザ言動情報取得部102が取得したユーザ言動情報を収集する収集部108と、収集部108による収集処理の終了タイミングを決定するタイミング決定部106と、タイミング決定部106による終了タイミングの決定があるまでの収集部108によるユーザ言動情報の収集結果に基づき、ユーザの言動をロボットが表現するようにロボットの言動を決定する言動決定部110と、言動決定部110が決定した言動をロボットに実行させる出力処理部112とを含む。
【選択図】 図3
【解決手段】 ロボットを制御するロボット制御装置100は、ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得部102と、ユーザ言動情報取得部102が取得したユーザ言動情報を収集する収集部108と、収集部108による収集処理の終了タイミングを決定するタイミング決定部106と、タイミング決定部106による終了タイミングの決定があるまでの収集部108によるユーザ言動情報の収集結果に基づき、ユーザの言動をロボットが表現するようにロボットの言動を決定する言動決定部110と、言動決定部110が決定した言動をロボットに実行させる出力処理部112とを含む。
【選択図】 図3
Description
本発明は、ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法に関する。
従来、様々な会議システムが知られている。
特許文献1には、操作者の分身となって行動する、とくに遠隔会議等に使用されるロボット装置が開示されている。これにより、操作者が遠隔地の会議場に出席させたロボットを介して、会議の状況を見て、聞き、表情を見せ、話し、資料を提示し、握手をする等、臨場感のある会議を可能にすると記載されている。
特許文献1には、操作者の分身となって行動する、とくに遠隔会議等に使用されるロボット装置が開示されている。これにより、操作者が遠隔地の会議場に出席させたロボットを介して、会議の状況を見て、聞き、表情を見せ、話し、資料を提示し、握手をする等、臨場感のある会議を可能にすると記載されている。
特許文献2には、ビデオコンファレンス/テレコンファレンス技術およびロボット工学技術を組み合わせて使用するグループ会議環境で遠隔の会議出席者がその存在を映像化できる装置が開示されている。ここで、遠隔の会議出席者の顔がビデオモニタにほぼ実物大に映される。
特許文献3には、仮想会議システム用端末装置および仮想会議システムが開示されている。この仮想会議システムにおいては、各端末をネットワークによって接続し、各端末を操作する出席者をエージェントで表現し、各端末の表示画面に表示された会議室の全景を示す仮想会議室ウインドウ内に表示する。会議における各出席者へ発言権や黒板の使用権が与えられると、各エージェントはこれに応じて演壇上に移動したり、黒板の前に移動したりして、何れの出席者が権利を有しているのか表示する。出席者同士の秘話や司会者の発言等に応じて、声の音量等を制御すると共に、この状態をエージェントの動きで表示する。このように、会議中の各出席者の動作情報を各端末へ伝送することで、会議進行状態を各エージェントの動きによって視覚的に表示できる、とされている。
特許文献4には、アニメーション化されたキャラクタを用いて会議参加者を表現する会議室が開示されている。このアニメーション式電子会議室においては、ネットワーク上の各会議参加者に対して、各参加者の端末を介して各人の位置、身振り、音声等表現したいと希望するものを画面上のキャラクタ、人形または登場人物として動画化し、シミュレーション化されたアニメーション式電子会議を参加者間で行う。また、登場人物制御手段を用いて、参加者自身が画面に表示される登場人物を制御できる。
特許文献5には、多地点テレビ会議システムの一例が開示されている。このシステムにおいて、会議運営をサポートするキャラクタ信号を各端末のモニタ・ディスプレイにスーパーインポーズすることにより、全会議参加者が会議運営情報を容易に確認できるようにする、とされている。
特許文献6には、会議システムの一例が開示されている。あるパソコンのキーボードに
具備されている拍手ボタンを操作したとき、「拍手」の文字をそのパソコンのモニタに表示させるとともに、「拍手」のキャラクタデータをネットワークを介して他のパソコンに伝送する。各パソコンにおいて、モニタに表示された文字中に「拍手」の文字があるか否かを判定し、「拍手」の文字が検出された場合においては、予め記憶されている拍手音の音声データを読み出し、スピーカから放音させる。
具備されている拍手ボタンを操作したとき、「拍手」の文字をそのパソコンのモニタに表示させるとともに、「拍手」のキャラクタデータをネットワークを介して他のパソコンに伝送する。各パソコンにおいて、モニタに表示された文字中に「拍手」の文字があるか否かを判定し、「拍手」の文字が検出された場合においては、予め記憶されている拍手音の音声データを読み出し、スピーカから放音させる。
また、特許文献7には、複数のクリーチャと学習者とで会話を連鎖できる参加型多人数会話システムが開示されている。各々のクリーチャは、他者の発話に対してコミットするかどうかを判断する第1判断手段と、コミットしないと判断したとき新たな発話を生成する生成手段と、コミットすると判断したとき前記他者にアドレスを向ける手段とを含む。これにより、人間が参与しなくても動作が進み、そのたえに人間は話し手や聞き手としてだけではなく、傍観者として振る舞うことができ、たとえば外国語学習支援システムに利用すると、学習者の持続的な学習が期待できる、とされている。
特開2002−46088号公報
特表2001−524286号公報
特開平6−274596号公報
特開平7−255044号公報
特開平5−145918号公報
特開平8−204706号公報
特開2002−139989号公報
しかし、従来の会議システムは、おもに遠隔地にいる出席者に対して、臨場感のある会議を実現する目的で開発されていた。
一方、会議や授業等では、出席者や生徒に意見があっても意思表示するタイミングが難しかったり、出席者や生徒間で理解度の格差があるという問題がある。
本発明は上記事情を踏まえてなされたものであり、本発明の目的は、会議や授業等に参加するロボットにより、参加者間の意思疎通を良好にする技術を提供することにある。
本発明によれば、ロボットを制御するロボット制御装置であって、ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得部と、前記ユーザ言動情報取得部が取得した前記ユーザ言動情報を収集する収集部と、前記収集部による収集処理の終了タイミングを決定するタイミング決定部と、前記タイミング決定部による前記終了タイミングの決定があるまでの前記収集部による前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定部と、前記言動決定部が決定した言動を前記ロボットに実行させる出力処理部と、を含むロボット制御装置が提供される。
ここで、ロボットは、ロボット装置とすることもでき、またキャラクタで示される仮想ロボットとすることもできる。また、ロボットは、音声認識機能を有する対話型ロボットとすることができる。これにより、出力処理部は、周囲の状況に応じて、ロボットが適切なタイミングで言動を実行するように制御することができる。また、ここで、ユーザ言動情報取得部は、ユーザ言動情報を計数可能なデータとして取得することができる。ここで、ユーザとは、たとえば会議や授業、講義に参加する、発表者、聴講者、司会者、先生、生徒等の参加者とすることができる。
本発明のロボット制御装置によれば、会議や授業等に参加するロボットに、参加者の言動を反映させた言動を実行させることができるため、参加者間の意思疎通を良好にすることができる。
本発明のロボット制御装置において、前記収集部は、前記ユーザ言動情報を同種のユーザ言動情報毎に分類して収集することができる。
本発明のロボット制御装置において、前記言動決定部は、最も収集数の多い種類の前記ユーザ言動情報を優先的に示す言動を前記ロボットが表現するように、当該ロボットの言動を決定することができる。
本発明のロボット制御装置において、前記タイミング決定部は、前記収集部による収集処理の開始タイミングを決定するとともに、前記ユーザ言動情報取得部が、前記開始タイミングの後に前記複数のユーザの所定割合以上のユーザから前記ユーザ言動情報を取得したときに、前記収集処理の終了タイミングを決定することができ、前記言動決定部は、前記開始タイミングから前記終了タイミングまでの間に、前記収集部が収集した前記ユーザ言動情報に基づき、前記ロボットの言動を決定することができる。
本発明のロボット制御装置において、前記タイミング決定部は、前記収集部による収集処理の開始タイミングを決定するとともに、前記ユーザ言動情報取得部が、前記開始タイミングから所定時間が経過したときに、前記収集処理の終了タイミングを決定することができる。ここで、前記言動決定部は、前記開始タイミングから前記終了タイミングまでの間に、前記収集部が収集した前記ユーザ言動情報に基づき、前記ロボットの言動を決定することができる。
本発明のロボット制御装置において、前記タイミング決定部は、前記ユーザからの前記ユーザ言動情報に、前記収集部による収集処理の開始指示が含まれるか否かを判断し、当該開始指示が含まれる場合に、前記収集部による収集処理の開始タイミングを決定することができる。ユーザ言動情報取得部は、優先順位が高く設定されたユーザからの前記ユーザ言動情報を、他のユーザからの前記ユーザ言動情報と区別して取得することができる。
本発明のロボット制御装置は、前記ロボットの実行モードの設定と、当該実行モードにおける前記ユーザ言動情報の収集数の閾値とを対応づけて記憶する設定記憶部をさらに含むことができ、前記タイミング決定部は、前記設定記憶部を参照して、いずれかの種類の前記ユーザ言動情報の収集数が前記閾値以上となった場合に、前記収集部による収集処理の終了タイミングを決定することができ、前記言動決定部は、前記収集数が閾値以上となった前記ユーザ言動情報を示す言動を前記ロボットが表現するように、当該ロボットの言動を決定することができる。
また、ロボット制御装置は、ユーザ言動情報取得部がユーザ言動情報を取得した場合に、ユーザ言動情報を入力したユーザに、入力を受け付けたことを通知する通知部をさらに含むことができる。通知部は、ユーザ言動情報取得部がユーザ言動情報を取得した場合に、当該ユーザ言動情報が収集部により収集されても、そのユーザ言動情報の収集数が前記閾値以上とならず、ロボットが言動を実行しない場合に、ユーザ言動情報を入力したユーザに、入力を受け付けたことを通知することができる。
本発明のロボット制御装置において、前記タイミング決定部は、前記ユーザからの前記ユーザ言動情報に、前記実行モードの設定の変更指示が含まれるか否かを判断し、当該変更指示が含まれる場合に、前記設定記憶部の前記実行モードの設定を更新することができる。
本発明のロボット制御装置において、前記ユーザ言動情報取得部は、前記ユーザ言動情報を、各前記ユーザを識別する情報に対応づけて取得することができる。
本発明のロボット制御装置は、各前記ユーザを識別する情報と、当該ユーザの属性とを対応づけて記憶する属性記憶部と、前記属性記憶部に記憶された前記ユーザの属性に応じて、前記ユーザ言動情報取得部が取得した前記ユーザ言動情報に重み付けを付与する重み付け付与部と、をさらに含むことができ、前記収集部は、前記ユーザ言動情報を前記重み付け付与部により付与された前記重み付けに対応付けて収集することができる。
本発明のロボット制御装置において、前記言動決定部は、所定の条件を満たした場合に、前記ロボットが実行する前記言動に対応する前記ユーザ言動情報に対応付けられた前記ユーザを識別する情報に基づき、前記ロボットが当該ユーザを明示する発言をするように当該ロボットの言動を決定することができる。
本発明のロボット制御装置において、前記タイミング決定部は、前記ユーザ言動情報の内容に基づき、当該ユーザ言動情報を前記収集部による収集処理を行うことなく出力するか否かを判断することができ、前記言動決定部は、前記タイミング決定部が前記収集処理を行うことなく出力すると決定した場合に、当該ユーザ言動情報に基づき、前記ロボットの言動を決定することができる。
本発明のロボット制御装置は、前記ユーザ言動情報取得部は、前記複数のユーザそれぞれに対応づけられた複数の入力手段からの入力を受け付けることができる。
本発明によれば、上記いずれかに記載のロボット制御装置と、前記ロボット制御装置の前記ユーザ言動取得部とネットワークを介してそれぞれ接続された複数の入力手段と、を含むロボット制御システムが提供される。
本発明によれば、自律移動型または対話型のロボット装置であって、上記いずれかに記載のロボット制御装置と、前記出力処理部の出力に基づき、前記言動決定部が決定した前記言動を実行する言動実行部と、を含むことを特徴とするロボット装置が提供される。
本発明によれば、ロボットを制御するロボット制御方法であって、ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得ステップと、前記ユーザ言動情報取得ステップで取得された前記ユーザ言動情報を収集する収集ステップと、前記収集ステップにおける収集処理の終了タイミングを決定するタイミング決定ステップと、前記タイミング決定ステップにおける前記終了タイミングの決定があるまでの前記収集ステップにおける前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定ステップと、前記言動決定ステップで決定された言動を前記ロボットに実行させる出力ステップと、を含むロボット制御方法が提供される。
本発明のロボット制御方法において、前記収集ステップは、前記ユーザ言動情報を同種のユーザ言動情報毎に分類するステップを含むことができる。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラム等の間で変換したものもまた、本発明の態様として有効である。
本発明によれば、会議や授業等に参加するロボットにより、参加者間の意思疎通を良好にすることができる。
次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。なお、以下の図面において、本発明の本質に関わらない部分の構成は省略する。
本実施の形態において、ロボットが教室で複数の生徒と一緒に授業に参加する場合を例として説明する。以下の実施の形態において、ロボットは、生徒全員から意見や感想等のユーザ言動情報を取得する多数決モードと、生徒から任意に入力されるユーザ言動情報を取得する多数決モード以外のその他モードのいずれかに設定される。いずれの場合も、ロボットは、取得したユーザ言動情報を収集して、収集結果に基づき言動を決定して実行する。
図1は、本実施の形態におけるロボットが、授業に参加する様子を示す模式図である。
ここでは、授業には、6人の生徒、先生、およびロボット200が参加している。本実施の形態において、ロボット200は対話機能を有するとともに自律移動する。6人の生徒には、それぞれ、一般入力手段302a〜302fが付与される。
ここでは、授業には、6人の生徒、先生、およびロボット200が参加している。本実施の形態において、ロボット200は対話機能を有するとともに自律移動する。6人の生徒には、それぞれ、一般入力手段302a〜302fが付与される。
以下、多数決モードの処理を示す。たとえば、先生が何か説明をした後、「どうでしたか?」と質問をし、それに対して生徒全員に一般入力手段302a〜302fから意見や感想等のユーザ言動情報を入力させる。一般入力手段302a〜302fに入力されたユーザ言動情報は、ネットワーク(不図示)を介してロボット200に送信される。ロボット200は、一般入力手段302a〜302fから入力されたユーザ言動情報を同種のユーザ言動情報に分類して収集し、収集結果を出力する。
たとえば、一般入力手段302a、一般入力手段302b、一般入力手段302d、および一般入力手段302eが付与された生徒が「おもしろい」と入力し、一般入力手段302cが付与された生徒が「眠い」、一般入力手段302fが付与された生徒が「眠い」と入力したとする。この場合、「おもしろい」と入力した生徒が4名で多数である。また、「眠い」と入力した生徒も2名いる。そのため、ロボット200は、多数の意見である「おもしろい」を強調するとともに、少数の意見である「眠い」についても発言する。その結果、ロボット200は、たとえば、「すごくおもしろかった!!でも眠い人もいたかも」と発言する。このようにすれば、ロボット200が、生徒全体の総意を代弁することができる。また、「眠い」等の否定的な表現を生徒が直接言いにくい場合でも、ロボット200が代弁してくれるので、少数意見も言いやすくなる。
図2は、本実施の形態におけるロボットが授業に参加する様子の他の例を示す模式図である。
以下、通常モードの処理を示す。たとえば、一般入力手段302fが付与された生徒が「○○って何?」という質問を一般入力手段302fに入力すると、ロボット200は、所定のタイミングで、生徒にかわり、「先生、○○って何ですか?」と質問する。このようにすれば、生徒が質問等をしたくても自分で言い出せない場合であっても、ロボット200が代理で質問してくれる。そのため、生徒がロボット200を通して、匿名で質問や意見を先生に伝えることができる。
以下、通常モードの処理を示す。たとえば、一般入力手段302fが付与された生徒が「○○って何?」という質問を一般入力手段302fに入力すると、ロボット200は、所定のタイミングで、生徒にかわり、「先生、○○って何ですか?」と質問する。このようにすれば、生徒が質問等をしたくても自分で言い出せない場合であっても、ロボット200が代理で質問してくれる。そのため、生徒がロボット200を通して、匿名で質問や意見を先生に伝えることができる。
図3は、本実施の形態におけるロボット制御装置を含むロボット制御システムの構成の一例を示すブロック図である。
以下で説明するロボット制御システムおよびロボット制御装置の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
以下で説明するロボット制御システムおよびロボット制御装置の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウェアとソフトウェアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。
ロボット制御システム10は、ロボット制御装置100およびロボット制御装置100とネットワーク310を介して接続された一般入力手段302a〜302f、および管理者用入力手段300により構成される。
ロボット制御装置100は、ユーザ言動情報取得部102、フィルタ処理部104、タイミング決定部106、収集部108、言動決定部110、出力処理部112、属性記憶部114、設定記憶部116、ユーザ言動情報記憶部118、言動データベース120、および禁止言動記憶部122を含む。本実施の形態において、ロボット制御装置100はロボット200に組み込まれ、ロボット200を制御する。これにより、ロボット200が、図1および図2に示したような処理をすることができる。ロボット200の構成は後述する。
ユーザ言動情報取得部102は、ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得する。本実施の形態において、ユーザ言動情報取得部102は、一般入力手段302a〜302fおよび管理者用入力手段300から入力されたユーザ言動情報をネットワーク310を介して取得する。また、一般入力手段302a〜302fおよび管理者用入力手段300からは、ユーザ言動情報とユーザIDとが対応付けて送信される。ユーザ言動情報取得部102は、ユーザ言動情報をユーザIDに対応付けて取得する。
ネットワーク310は、無線LANや携帯電話等の各種無線環境、LANやWANや電話回線等の各種有線環境、または共有メモリにより実現できる。
本実施の形態において、生徒には一般入力手段302a〜302fがそれぞれ付与される。生徒は一般入力手段302a〜302fから質問や感想等のユーザ言動情報を入力する。また、先生には管理者用入力手段300が付与され、先生は管理者用入力手段300から指示等のユーザ言動情報を入力する。
一般入力手段302a〜302fは、生徒が意識的または無意識的に言動を入力する手段とすることができる。以下、一般入力手段302aを例として説明する。他の一般入力手段302b〜302fも、一般入力手段302aと同様の構成を有する。
一般入力手段302aは、たとえば、ボタン、キーボード、タッチパネル、マイク、カメラ、血圧センサ、発汗センサ、加速度センサ等を一つ以上組み合わせた構成とすることができる。また、一般入力手段302aは、たとえば携帯電話端末やPDA等の無線通信端末とすることもできる。
また、一般入力手段302aは、たとえば、賛成を示すボタン、反対を示すボタン、納得したことを示すボタン、楽しいことを示すボタン、楽しくないことを示すボタン、聞き取れないことを示すボタン、わからないことを示すボタン等の複数のボタンを含むことができる。たとえば、生徒が先生の話すことが聞き取れなかった場合に、一般入力手段302aの聞き取れないことを示すボタンを押すと、「聞き取れない」ことを示すユーザ言動情報がユーザ言動情報取得部102に送信される。
また、一般入力手段302aは、たとえば、漢字、かな、英数字等の文字を入力可能なキーボードを含むこともできる。さらに、一般入力手段302aは、タッチパネルを含む構成とすることもできる。一般入力手段302aがタッチパネルを含む場合、たとえばタッチパネルの初期画面として「何を実行しますか?<質問>、<聞き取れなかった>、<賛成>、<否定>」等を表示させ、ユーザが触れた箇所に対応する画面に切り替えるようにすることができる。たとえば、ユーザが、タッチパネルの<質問>部分に触れると、「質問を入力してください。」という画面を表示させ、ユーザに質問を入力させる。ユーザが質問を入力すると、その内容を示すユーザ言動情報がユーザ言動情報取得部102に送信される。
また、生徒が質問を入力するのを支援する誘導プログラムを準備しておくこともできる。この誘導プログラムは、一般入力手段302aに記憶されてもよく、ロボット制御装置100内、または他のサーバに記憶され、ネットワーク310を介して一般入力手段302aに表示されるようにすることもできる。
以下、誘導プログラムの処理手順の一例を示す。たとえば、ユーザが、タッチパネルの<質問>部分に触れると、「どのように質問しますか?<なに>、<いつ>、<どこ>、<だれ>、<なぜ>、<どのように>」と画面が切り替わる。ユーザがタッチパネルの<なに>部分に触れると、「なにを質問しますか?」と表示され、ソフトキーボードが表示される。ユーザはソフトキーボードから自由に文字を入力することができる。たとえば、ユーザが「素因数分解」と文字入力すると、最後に「質問文:素因数分解、って、なにですか?<Ok>、<Cancel>」と確認画面が表示される。ユーザがタッチパネルの<Ok>部分に触れると、「素因数分解ってなにですか?」という内容のユーザ言動情報がユーザ言動情報取得部102に送信される。
なお、管理者用入力手段300は、一般入力手段302aと同様の構成とすることもでき、また異なる構成とすることもできる。たとえば、管理者用入力手段300は、ロボット200に指示を与えるためのボタン等を設けた構成とすることもできる。
属性記憶部114は、ユーザIDと、当該ユーザの属性とを対応づけて記憶する。ここで、ユーザの属性とは、たとえば優先順位とすることができる。本実施の形態において、管理者用入力手段300のユーザIDは、最も優先順位が高く設定される。ユーザ言動情報取得部102は、優先順位が高く設定されたユーザからのユーザ言動情報を、他のユーザからのユーザ言動情報と区別して取得することができる。
また、ユーザの属性は、重み付け係数とすることもできる。
優先順位や重み付け係数は、たとえば予め先生等が設定し、属性記憶部114に記憶しておくことができる。一例として、たとえば、発言の多い生徒の優先順位や重み付け係数は低く設定し、あまり発言しない生徒の優先順位や重み付け係数を高く設定するようにすることができる。このようにすれば、あまり発言しない生徒の発言に高い重み付けが付され、ロボット200がその生徒の言動を優先的に表現するようにすることができる。一方、他の例として、たとえば発言の多い生徒の優先順位や重み付け係数を高く設定することもできる。このような生徒は、クラスのオピニオンリーダー的生徒である可能性が高いため、ロボット200がこの生徒の言動を表現することにより、クラスの雰囲気を一つにまとめるという効果が期待できる。なお、属性記憶部114の設定は、生徒の発言状況に応じて自動的に変更される構成とすることもできる。
優先順位や重み付け係数は、たとえば予め先生等が設定し、属性記憶部114に記憶しておくことができる。一例として、たとえば、発言の多い生徒の優先順位や重み付け係数は低く設定し、あまり発言しない生徒の優先順位や重み付け係数を高く設定するようにすることができる。このようにすれば、あまり発言しない生徒の発言に高い重み付けが付され、ロボット200がその生徒の言動を優先的に表現するようにすることができる。一方、他の例として、たとえば発言の多い生徒の優先順位や重み付け係数を高く設定することもできる。このような生徒は、クラスのオピニオンリーダー的生徒である可能性が高いため、ロボット200がこの生徒の言動を表現することにより、クラスの雰囲気を一つにまとめるという効果が期待できる。なお、属性記憶部114の設定は、生徒の発言状況に応じて自動的に変更される構成とすることもできる。
図4は、属性記憶部114の内部構成を示す図である。
属性記憶部114は、ユーザID欄、優先順位欄、および重み付け係数欄を含む。重み付け係数欄は、モード毎に設定される。ここでは、多数決モードの重み付け係数と、多数決モード以外のその他モードの重み付け係数とが設定されている。
属性記憶部114は、ユーザID欄、優先順位欄、および重み付け係数欄を含む。重み付け係数欄は、モード毎に設定される。ここでは、多数決モードの重み付け係数と、多数決モード以外のその他モードの重み付け係数とが設定されている。
ここで、ユーザIDが「0001」のユーザは、管理者用入力手段300を保持する先生とする。ユーザID「0001」のユーザの優先順位は、1番に設定されている。また、ユーザID「0001」のその他モードの重み付け係数が「10」に設定されている。ユーザID「0002」および「0003」のユーザは、一般入力手段302a〜302fを保持する生徒とする。ユーザID「0002」のその他モードの重み付け係数は、「2」に設定されている。ユーザID「0003」のその他モードの重み付け係数は、「0.5」に設定されている。また、多数決モードの場合は、いずれのユーザの重み付け係数も「1」に設定されている。
図3に戻り、フィルタ処理部104は、属性記憶部114を参照して、ユーザ言動情報取得部102が取得したユーザ言動情報にそのユーザの属性を対応付けてタイミング決定部106に送出する。
禁止言動記憶部122は、ロボット200が実行することが禁止された言動を記憶する。禁止言動記憶部122は、たとえば、禁止語句を記憶する。フィルタ処理部104は、禁止言動記憶部122を参照して、ユーザ言動情報取得部102が取得したユーザ言動情報に禁止された言動が含まれる場合に、そのユーザ言動情報をタイミング決定部106に送出しないようにする。ここでは図示していないが、ロボット制御装置100は、音声認識処理部を含むことができ、たとえばユーザ言動情報が音声で入力された場合には、音声認識処理を行う。フィルタ処理部104は、音声認識処理されたユーザ言動情報に基づき、そのユーザ言動情報に禁止語句等が含まれないかを判断することができる。このようにすれば、たとえばユーザから非難や中傷の語句が入力された場合でも、ロボット200がその語句を発言しないようにすることができる。これにより、ロボット200が悪用されて授業が妨害されるのを防ぐことができる。
収集部108は、ユーザ言動情報取得部102が取得したユーザ言動情報を収集する。タイミング決定部106は、収集部108による収集処理の終了タイミングを決定する。
設定記憶部116は、ロボット200の実行モードの設定と、当該実行モードにおけるユーザ言動情報の収集数の閾値とを対応づけて記憶する。
図5は、設定記憶部116の内部構成を示す図である。
設定記憶部116は、現モード欄、モード欄、および閾値欄を含む。現モード欄では、現在設定されているモードにフラグが立つようになっている。ここでは、通常モードが設定されている。閾値欄には、モード毎に設定された閾値が記憶される。ここで、通常モードの閾値は「5」、迅速モードの閾値は「10」、じっくりモードの閾値は「1」である。
設定記憶部116は、現モード欄、モード欄、および閾値欄を含む。現モード欄では、現在設定されているモードにフラグが立つようになっている。ここでは、通常モードが設定されている。閾値欄には、モード毎に設定された閾値が記憶される。ここで、通常モードの閾値は「5」、迅速モードの閾値は「10」、じっくりモードの閾値は「1」である。
図3に戻り、タイミング決定部106は、多数決モード以外の通常モード、迅速モード、じっくりモードに設定されているとき、フィルタ処理部104からユーザ言動情報が送出されると、設定記憶部116を参照して、ユーザ言動情報の収集数が閾値以上となった場合に、収集部108による収集処理を終了させることができる。
また、タイミング決定部106は、多数決モードに設定されているときには、たとえば優先順位が高く設定されたユーザからのユーザ言動情報に、収集部108による収集処理の開始指示が含まれるか否かを判断することができる。タイミング決定部106は、開始指示が含まれる場合に収集部108による収集処理の開始タイミングを決定することができる。この開始指示は、たとえば先生が管理者用入力手段300等を介して入力することができる。また、他の例として、ロボット制御装置100において先生の音声を認識し、タイミング決定部106は、先生の発話内容に基づき、開始指示の有無を判断することもできる。タイミング決定部106は、開始タイミングを決定すると、収集部108に開始指示を出力する。これにより、収集部108が収集処理を開始する。多数決モードの場合、タイミング決定部106は、たとえば開始タイミングの後に複数の生徒のうち、所定割合以上の生徒から一般入力手段302a〜302fを介してユーザ言動情報が入力され、ユーザ言動情報取得部102がこれらを取得したときに、収集処理の終了タイミングを決定することができる。また、タイミング決定部106は、たとえば開始タイミングから所定時間が経過したときに収集処理の終了タイミングを決定することもできる。また、タイミング決定部106は、管理者用入力手段300から終了指示があったときに収集処理の終了タイミングを決定することもできる。
また、タイミング決定部106は、たとえば優先順位が高く設定されたユーザからのユーザ言動情報に、実行モードの設定の変更指示が含まれるか否かを判断することができる。タイミング決定部106は、変更指示が含まれる場合に、設定記憶部116の実行モードの設定を更新することができる。
収集部108は、ユーザ言動情報を同種のユーザ言動情報毎に分類してユーザ言動情報記憶部118に記憶する。
なお、図3には示していないが、ロボット制御装置100は、図12に示したような分類テーブルを含むことができる。分類テーブル124は、ユーザ言動情報取得部102が取得するユーザ言動情報と、それらが分類される代表的なユーザ言動情報とを対応付けて記憶する。ここで、ユーザ言動情報取得部102が取得するユーザ言動情報が「笑い」、「拍手」、「うなずき」の場合、これらは代表的なユーザ言動情報「楽しい」に分類される。また、ユーザ言動情報取得部102が取得するユーザ言動情報が「眠り」の場合、これは代表的なユーザ言動情報「楽しくない」に分類される。さらに、ユーザ言動情報取得部102が取得するユーザ言動情報が「静止」の場合、いずれのユーザ言動情報にも分類されず、ユーザ言動情報としてカウントされない。収集部108は、分類テーブル124を参照して、ユーザ言動情報を同種のユーザ言動情報毎に分類することができる。
図6は、ユーザ言動情報記憶部118の内部構成の一例を示す図である。
ユーザ言動情報記憶部118は、ユーザ言動情報欄、および収集数欄を含む。ここで、ユーザ言動情報欄には、「わからない」、「眠い」、「楽しい」等のユーザ言動情報が記憶されている。ユーザ言動情報「わからない」の収集数は「4」、ユーザ言動情報「眠い」の収集数は「2」、ユーザ言動情報「楽しい」の収集数は「3」となっている。
ユーザ言動情報記憶部118は、ユーザ言動情報欄、および収集数欄を含む。ここで、ユーザ言動情報欄には、「わからない」、「眠い」、「楽しい」等のユーザ言動情報が記憶されている。ユーザ言動情報「わからない」の収集数は「4」、ユーザ言動情報「眠い」の収集数は「2」、ユーザ言動情報「楽しい」の収集数は「3」となっている。
図3に戻り、言動決定部110は、タイミング決定部106からの終了指示があるまでの収集部108によるユーザ言動情報の収集結果に基づき、ユーザの言動をロボット200が表現するようにロボット200の言動を決定する。言動決定部110は、タイミング決定部106による終了タイミングの決定があると、ユーザ言動情報記憶部118を参照して、それまでにユーザ言動情報記憶部118に記憶されたユーザ言動情報に基づき、ロボット200の言動を決定する。
ここで、収集部108は、最も収集数の多い種類のユーザ言動を優先的に示す言動をロボット200が表現するように、ロボット200の言動を決定することができる。たとえば、多数決モードに設定されている場合、言動決定部110は、最も収集数の多い種類のユーザ言動情報を優先的に表現するとともに、場合によっては少数意見も表現することができる。
言動データベース120は、特定の状況におけるロボットの発話データおよび動作データを記憶する。言動決定部110は、言動データベース120も参照して、ロボット200の言動を決定することができる。たとえば、言動データベース120は、生徒から入力されることが想定される語句と、その語句と同意で、ロボット200が発話するのにふさわしい他の語句とを対応付けて記憶することができる。たとえば、「うるさい」に対して、ロボット200が発話するのにふさわしい語句として「静かにしてください」を対応付けておくことができる。これにより、ユーザが一般入力手段302a等から「うるさい」と入力した場合でも、ロボット200に「静かにしてください」と発言させることができる。
また、言動決定部110は、ロボット200が文法、テンプレート、コーパスに基づく発話をするようにロボット200の言動を決定することができる。
出力処理部112は、言動決定部110が決定した言動をロボット200に実行させる。また、出力処理部112は、周囲の状況に基づき、ロボット200が言動を実行するタイミングを決定する。たとえば、出力処理部112は、先生が発話中は、ロボット200が動作しないように制御することができる。ロボット200の動作禁止の指示は、たとえば管理者用入力手段300から入力することもできる。
なお、設定記憶部116は、収集処理を行わないユーザ言動情報を記憶しておくことができる。図7は、設定記憶部116の内部構成の一部を示す図である。たとえば、「聞き取れない」ことを示すボタンが押された場合、迅速に対応する必要がある。そのため、「聞き取れない」というユーザ言動情報が入力された場合には、収集処理を行うことなく、言動決定部110がこの言動を出力するようにすることができる。タイミング決定部106は、設定記憶部116を参照して、収集処理を行わないことが設定されたユーザ言動情報が入力された場合には、言動決定部110にユーザ言動情報を送出する。言動決定部110は、そのユーザ言動情報に基づき、ロボット200の言動を決定する。
図8は、ロボット200の電気的構成の一例を示すブロック図である。
胴体部201には、ロボット全体の制御を行うコントローラ210、ロボットの動力源となるバッテリ211、スピーカ212、マイクロフォン213、2つの車輪を動かすためのアクチュエータ214Aおよびアクチュエータ214B、および通信インターフェース224等が収納される。
胴体部201には、ロボット全体の制御を行うコントローラ210、ロボットの動力源となるバッテリ211、スピーカ212、マイクロフォン213、2つの車輪を動かすためのアクチュエータ214Aおよびアクチュエータ214B、および通信インターフェース224等が収納される。
マイクロフォン213は、特定の話者からの発話を含む周囲の音声を集音し、得られた音声データをコントローラ210に送出する。
コントローラ210は、CPU210Aやメモリ210Bを内蔵しており、CPU210Aにおいて、メモリ210Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。
通信インターフェース224は、ネットワーク310を介して、一般入力手段302a〜302f、および管理者用入力手段300等との間で通信を行う。
頭部202には、CCDカメラ221AおよびCCDカメラ221B、ならびに頭部202を回転するためのアクチュエータ222Aおよびアクチュエータ222B等が収納される。
CCDカメラ221AおよびCCDカメラ221Bは、周囲の状況を撮像し、得られた画像データを、コントローラ210に送出する。
アクチュエータ222Aおよびアクチュエータ222Bは、ロボット200の頭部202を上下左右に回転させる。
コントローラ210は、マイクロフォン213や通信インターフェース224を介して得られる音声データやCCDカメラ221AおよびCCDカメラ221Bから得られる画像データに基づいて、メモリ210Bから適宜情報を読み出し、周囲の状況を取得する。また、本実施の形態におけるロボット制御装置100の各機能は、コントローラ210により実現することができる。
コントローラ210は、アクチュエータ214A、アクチュエータ214B、アクチュエータ222A、およびアクチュエータ222B等を制御してロボット200に決定した動作を実行させる。また、コントローラ210は、合成音を生成し、スピーカ212に供給して、ロボット200に決定した発話を出力させる。
なお、ここでは図示してないが、ロボット200は、アーム部およびそれを駆動するアクチュエータを含む構成とすることもでき、コントローラ210によりアーム部を駆動するアクチュエータを制御して、ロボット200に挙手や拍手等をさせることもできる。
ロボット200は、笑ったり、うなずいたり、視線を動かしたり等の動作を実行可能に構成することができる。
図9は、図3に示したロボット制御装置100の処理手順を示すフローチャートである。
ユーザ言動情報取得部102が一般入力手段302a〜302f、または管理者用入力手段300からユーザ言動情報を取得すると(S100のYES)、フィルタ処理部104はフィルタ処理を行う(S102)。ここで、ユーザ言動情報取得部102は、ユーザ言動情報とともにユーザIDを取得することができる。フィルタ処理部104は、ユーザIDに基づき、属性記憶部114を参照してユーザの属性を取得する。このとき、フィルタ処理部104は、設定記憶部116を参照して現モードの設定を確認し、設定されたモードに対応する重み付け係数を取得する。
ユーザ言動情報取得部102が一般入力手段302a〜302f、または管理者用入力手段300からユーザ言動情報を取得すると(S100のYES)、フィルタ処理部104はフィルタ処理を行う(S102)。ここで、ユーザ言動情報取得部102は、ユーザ言動情報とともにユーザIDを取得することができる。フィルタ処理部104は、ユーザIDに基づき、属性記憶部114を参照してユーザの属性を取得する。このとき、フィルタ処理部104は、設定記憶部116を参照して現モードの設定を確認し、設定されたモードに対応する重み付け係数を取得する。
つづいて、タイミング決定部106は、フィルタ処理部104から送出されたユーザ言動情報に、モード設定の変更指示が含まれるか否かを判断する(S104)。モード設定の変更指示が含まれる場合(S104のYES)、タイミング決定部106は、設定記憶部116のモード設定を変更する(S106)。
つづいて、処理が終了したか否かを判断し(S108)、終了していない場合(S108のNO)、タイミング決定部106は、収集処理を行うか否かを判断する(S110)。収集処理を行う場合(S110のYES)、タイミング決定部106は、ユーザ言動情報および属性を収集部108に送出する。収集部108は、収集処理を行う(S112)。具体的には、収集部108は、タイミング決定部106から送出されたユーザ言動情報を、それに対応付けられた属性を考慮してユーザ言動情報記憶部118に記憶する。ステップS104において、モード設定の変更指示が含まれない場合(S104のNO)、ステップS110に進む。
つづいて、タイミング決定部106は、設定記憶部116とユーザ言動情報記憶部118を参照して、収集処理を終了するか否かを判断する(S114)。収集処理を終了する場合(S114のYES)、言動決定部110に終了タイミングの決定を通知する。言動決定部110は、ユーザ言動情報記憶部118および言動データベース120を参照して、ロボット200の言動を決定する(S116)。出力処理部112は、所定のタイミングで、言動決定部110が決定した言動をロボット200に実行させる(S118)。つづいて、処理を終了するか否かを判断し(S120)、処理を終了しない場合(S120のNO)、ステップS100に戻る。
ステップS108において終了すると判断した場合(S108のYES)、およびステップS114において収集処理を終了しないと判断した場合(S114のNO)、ステップS120に進む。
次に、図3〜図9を参照して、いずれかの一般入力手段からユーザ言動情報が入力された場合の処理を説明する。
ユーザ言動情報記憶部118に、図6に示したようなユーザ言動情報が記憶された状態で、たとえば、ユーザ言動情報取得部102がユーザID「0002」のユーザから「わからない」というユーザ言動情報を取得したとする(図9、S100のYES)。フィルタ処理部104は、属性記憶部114(図4)および設定記憶部116(図5)を参照して、ユーザID「0002」に基づき、現モードである「通常モード」を含む「その他モード」におけるこのユーザの重み付け係数「2」を読み出す(図9、S102)。フィルタ処理部104は、ユーザ言動情報「わからない」と重み付け係数「2」とを対応付けてタイミング決定部106に送出する。
ユーザ言動情報記憶部118に、図6に示したようなユーザ言動情報が記憶された状態で、たとえば、ユーザ言動情報取得部102がユーザID「0002」のユーザから「わからない」というユーザ言動情報を取得したとする(図9、S100のYES)。フィルタ処理部104は、属性記憶部114(図4)および設定記憶部116(図5)を参照して、ユーザID「0002」に基づき、現モードである「通常モード」を含む「その他モード」におけるこのユーザの重み付け係数「2」を読み出す(図9、S102)。フィルタ処理部104は、ユーザ言動情報「わからない」と重み付け係数「2」とを対応付けてタイミング決定部106に送出する。
ここで、このユーザ言動情報にはモード設定の変更指示は含まれず、収集処理も必要なため(図9、S104のNOおよびS110のYES)、タイミング決定部106は、このユーザ言動情報および重み付け係数を収集部108に送出する。収集部108は、ユーザ言動情報記憶部118のユーザ言動情報「わからない」に「2」を加える。これにより、ユーザ言動情報「わからない」の収集数が「6」となる(図9、S112)。
タイミング決定部106は、設定記憶部116およびユーザ言動情報記憶部118を参照し、設定記憶部116の現モードである「通常モード」の閾値「5」とユーザ言動情報記憶部118の「わからない」の収集数「6」とを比較する。ここで、収集数が閾値以上となるため、タイミング決定部106は、収集処理の終了を決定する(図9、S114のYES)。タイミング決定部106は、収集処理の終了タイミングの決定を言動決定部110に通知する。言動決定部110は、ロボット200が「わからない」に対応する発話をするようにロボット200の言動を決定する。言動決定部110は、たとえば「わかりません」とロボット200に発話させることを決定する(図9、S116)。出力処理部112は、これを所定のタイミングでロボット200に発話させる(図9、S118)。
また、ロボット200は以下の言動を行うことができる。これらの言動は、言動決定部110により決定され、出力処理部112により制御される。
たとえば、ロボット200は、挙手をして発言することにより、匿名的または明示的に参加者の代弁を行うことができる。たとえば、また、ロボット200は、質問ランプ等の表示部を含む構成とすることもでき、この場合、質問ランプを点灯させたり点滅させたりすることで挙手を実現することができる。また、ロボット200は、人や動物の形をしたCGエージェントとすることもでき、腕をあげたCGを表示することで挙手を実現することができる。このように、ロボット200が挙手をすることにより、たとえば先生の進行を直接妨げることなく、発言の意思表示を行うことができる。
この場合、先生がロボット200の挙手に気づき、ロボットの名前である「ロボ太郎君」と発言すると、ロボット200はそれを認識して所望の質問や発言を行う。ここで、ロボット200は、マイクロフォン213を介して入力される音声の音声認識、CCDカメラ221Aや221B等を介して入力される画像の画像認識、通信インターフェース224を介して入力される先生からの指示等に基づき、指名されたことを検出することができる。
また、ロボット200は、ツッコミ等の発言により、匿名的または明示的に参加者の代弁を行うことができる。たとえば、ロボット200は、「漢字が間違ってるよー」、「聞こえませーん」、「なんでやねん」、「ええー」、「そんなー」等、音声合成や録音音声、エフェクトつき録音音声等により発話することができる。教室や会議や講演等では、参加者が直接発言しにくいこともあるが、このように、ロボット200が代弁してくれることにより、対人関係に影響することなく、言いたいことを伝えることができる。
また、ロボット200は、ほめたり拍手することにより、参加者の気持ちを代弁することができる。たとえば、学校の授業において、「よくできました」といいながら拍手をされることは、生徒の勉強意欲等の向上効果があるが、教室の雰囲気や先生の立場等の理由で、特定の生徒をほめにくい場合がある。このような場合、先生の代わりにロボット200にほめたり拍手させることにより、先生の気持ちを代弁させることができる。この場合、たとえば先生が管理者用入力手段300から生徒をほめる指示を入力することにより、ロボット200がその指示に従い、生徒をほめる言動をすることができる。また、生徒が、一般入力手段302a〜302fから生徒をほめる指示を入力することによっても、ロボット200がそれらの指示に従い、生徒をほめる言動をするようにすることもできる。これにより、匿名でもほめることができる。
さらに、ロボット200は、ほめたり拍手することにより、他の参加者が拍手するべきタイミングを表現することができる。たとえば、タイミングよく「よくできました」といいながら、拍手をはじめれば、他の参加者が拍手をはじめるきっかけになりやすい。この場合も、ロボット200は、一般入力手段302a〜302fや管理者用入力手段300から入力された指示に従い、拍手したりすることができる。
また、ロボット200は、笑うことにより、参加者の気持ちを代弁することができる。笑うことは参加者たちの一体感を醸成する効果があり、ロボット200が笑うことは、ロボット200が一緒に参加していることをアピールする効果がある。一般入力手段302a〜302fや、管理者用入力手段300から入力される内容に基づき、笑っている参加者が多いと判断された場合、ロボット200も一緒に笑うようにすることができる。また、この場合、うれしそうな表現を行うようにすることもできる。たとえば、笑っている声を出力することもでき、ダンスのような動きを行ってもいいし、ランプを点滅や点灯させてもよい。これにより、ロボット200も会議の参加者であることをアピールすることができる。
また、ロボット200は、うなずくことにより、参加者の気持ちを代弁することができる。ロボット200は、一般入力手段302a〜302f等の入力手段から入力されたユーザ言動情報に基づき、納得している人が多いと判断した場合、うなずく動作をすることができる。また、たとえばカメラの撮影画像に基づき、うなずいている参加者が多いと判断された場合、ロボット200も一緒にうなずくことにする。逆に、首をかしげたり、疑問に思っている聴講者が多いと判断された場合、ロボット200も同様に首をかしげることにする。こうすることで、参加者の理解度をロボット200が表現することができ、発表者が話しやすくなる効果がある。ロボット200がうなずく動作は、ロボット200の首や頭を動かしたり、ロボット200が首や頭を持たない場合、可動部を上下に動かしたり、人間や動物等のCGエージェントでは、頭部を縦に動かすアニメーションや動画を入れたり、ランプを点滅や点灯させることにより実現することができる。
また、ロボット200は、視線を制御することにより、参加者の気持ちを代弁することができる。ロボット200は、一般入力手段302a〜302f等の入力手段から入力されたユーザ言動情報に基づき、真剣に聞いている参加者が多いと判断した場合、発表者に視線を向ける動作をすることができる。一方、ロボット200が集中できていない参加者が多いと判断した場合、発表者以外に視線を向ける動作をすることができる。こうすることで、ロボット200が参加者の集中度を表現することができ、発表者が話しやすくなる効果がある。視線を向ける動作は、ロボット200の頭部や目の正面を発表者に向けることで表現できる。人間や動物等のCGエージェントでは、正面むきの画像を表示することで表現できる。逆に視線をそらす動作は、ロボット200の頭部や目の正面を発表者以外に向けることで表現できる。人間や動物等のCGエージェントでは、正面以外を向いている画像を表示することで表現できる。
また、一般入力手段302a〜302fがマイクの場合、ユーザ言動情報取得部102は、たとえば生徒が小声で発話した音声を取得する。ロボット制御装置100は、取得した音声を音声認識して、内容に応じて適切な音声を出力することもでき、また、生徒の発話内容をそのまま出力することもできる。たとえば、一般入力手段302aを保持する生徒が「漢字が違っている」と発話すると、ユーザ言動情報取得部102は、その音声を取得し、出力処理部112は、「漢字が違っている」と音声出力する。このとき、出力処理部112は、生徒の声質そのままで音声出力するのではなく、声質を変換して音声出力する。これにより、誰がその言葉を言ったかどうかを匿名としたまま、ロボット200に代弁させることができる。また、ロボット200特有の音声を用いることにより、ロボット200のキャラクタ性を高めることができ、ロボット200が生徒にとけ込むようにすることができる。
また、ロボット200は、管理者用入力手段300から入力されたユーザ言動情報に基づき、質問等をすることもできる。たとえば、先生が生徒に質問をして欲しいタイミングで「○○って何ですか?」等の質問を管理者用入力手段300から入力することにより、ロボット200にこの質問をさせることができる。これにより、ロボット200を生徒の代表として利用することができる。たとえば、授業で重要なポイントを説明する際に、ロボット200がタイミングよく質問を行い、先生がそのポイントを詳しく説明することにより、その説明を生徒の記憶に残りやすくすることができる。
また、ロボット200は、管理者用入力手段300から入力されたユーザ言動情報に基づき、他の生徒に質問等をすることもできる。たとえば、先生が「△△さん、○○って何なのか、教えて?」等の質問を管理者用入力手段300から入力することにより、ロボット200にこの質問をさせることができる。これにより、先生が直接生徒に質問するよりも、気軽な雰囲気で生徒に回答させることができる。また、生徒の記憶に残りやすくしたり、生徒の集中力を持続しやすくさせることができる。このとき、生徒が答えた後に、ロボット200が「先生、そうなの?」、「△△さん、すごーい」のような発話をすることにより、より効果をあげることも期待できる。
以上、図面を参照して本発明の実施の形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
図10は、ユーザ言動情報記憶部118の内部構成の他の例を示す図である。ここでは、ユーザ言動情報が「楽しい」である場合の例を示す。ユーザ言動情報記憶部118は、ユーザ言動情報を収集時間に対応付けて記憶することができる。この場合、ある一定期間内に収集されたユーザ言動情報の数に基づき、各ユーザ言動情報の収集数を算出することができる。また、過去に収集されたユーザ言動情報も考慮して各ユーザ言動情報の収集数を算出することができる。この場合、過去に収集されたユーザ言動情報は、時間の経過とともに収集数に反映される影響が小さくなるように、減衰させることができる。たとえば、過去に収集されたユーザ言動情報は、収集時に減衰倍率0.5をかけてカウントすることができる。減衰倍率が時間の経過とともに減少するようにすることもできる。
また、以上の実施の形態において、設定記憶部116に実行モード毎に閾値が設定された例を示したが、ユーザ言動情報の種類に応じて閾値を設定しておくこともできる。たとえば、ユーザ言動情報が「楽しい」の閾値をユーザ言動情報が「楽しくない」の閾値よりも低く設定したり、ユーザ言動情報が「わからない」の閾値を他のユーザ言動情報の閾値よりも低く設定したり、適宜設定することができる。閾値を低く設定しておくことにより、ユーザ言動情報の収集数が少なくてもロボット200がそのユーザ言動情報を代行しやすくすることができる。
また、収集部108は、同じ参加者が同種のユーザ言動情報を複数回入力した場合には、たとえば2回目以降のユーザ言動情報のカウント値を低くすることができる。収集部108は、ユーザ言動情報取得部102が取得するユーザ言動情報と、それに対応付けられたユーザIDに基づき、参加者が同一か否かを判断することができる。なお、この処理は、フィルタ処理部104が行ってもよい。
また、一般入力手段302a〜302fにおいて、いずれかのボタンが押されたときに、押された回数や速さ、強さ等の状況を検知して、その情報もユーザ言動情報取得部102に送信するようにすることができる。ロボット200において、ボタンが押された状況に応じてロボット200が異なる対応を行うようにすることができる。たとえば、生徒が賛成ボタンを普通の強さで1回押しただけの場合は、ロボット200がうなずくだけとし、生徒が賛成ボタンを激しく何度も押した場合は、ロボット200が「賛成賛成!」と強い調子で賛成であることを表現するようにすることができる。
また、ロボット制御装置100は、ウェブサーバ機能を有する構成とすることができ、一般入力手段302a〜302f、または管理者用入力手段300に、種々の画面を表示させることができる。たとえば、ユーザがユーザ言動情報を入力するための入力画面や、ロボット200の処理状態等を入力手段に表示させることができる。また、ウェブサーバ機能は、ロボット制御装置100とは別のサーバに搭載することもできる。
たとえば、ユーザが何らかのユーザ言動情報を入力しても、ロボット200がすぐにそのユーザ言動情報に対応する言動を実行しないと、ユーザは自分が入力したユーザ言動情報が受け付けられたのか不安になるおそれがある。ロボット制御装置100は、上記ウェブサーバ機能等を用い、ユーザ言動情報が入力された入力手段に、「受け付けました」等の表示をさせることができる。また、たとえばユーザが質問を入力しても、ユーザ言動情報の収集数が閾値以上とならないと、ロボット200がその質問を発言しない。このような場合、ロボット制御装置100は、ユーザの入力手段に「今は質問できないから、授業の後で先生に聞いてね」とか、「もうちょっと待って」等の通知を行うことができる。これにより、ユーザがロボット200の処理状況を把握することができる。また、ユーザがユーザ言動情報を入力したときに、現在のロボット制御装置100の実行モードがユーザの入力手段に表示されるようにすることができる。これにより、ユーザはロボット200の処理状態を把握することができる。
また、ユーザ言動情報記憶部118には、ユーザ言動情報とそのユーザ言動情報を入力したユーザのユーザIDとを対応付けて記憶しておくこともできる。また、ユーザ言動情報記憶部118のデータは、外部から読み出し可能にすることができる。このようにすることにより、ユーザ言動情報記憶部118に記憶された内容を見ることにより、どのユーザからどのようなユーザ言動情報が入力されたのかを把握することができる。このような情報は、たとえば先生が生徒の状態を把握するのに用いることができる。
また、言動決定部110は、所定の条件を満たした場合に、ロボット200が実行する言動に対応するユーザ言動情報に対応付けられたユーザを識別する情報に基づき、ロボットが当該ユーザを明示する発言をするように当該ロボットの言動を決定することができる。ここで、所定の条件とは、たとえば先生が問題を出して、生徒に回答させた場合に、正解した生徒の数が少ない場合等である。このような場合、ロボット200は、上述した手順に従い、生徒から入力された回答を収集数が多い順に発表する。その後、先生が「正解は○○です。」と発言すると、ロボット200は、先生の発言を音声認識する。その結果、その回答が正解であったかを把握することができ、正解の回答の収集数に基づき、正解した生徒の数が多いか少ないかを判断する。ロボット200は、正解した生徒の数が少ない場合は、正解の回答に対応付けられたユーザIDに基づき、正解を入力した生徒を認識する。その結果、ロボット200は、たとえば「いまの問題に正解したのは○○さんです。」等の発言をすることができる。
図11は、ロボット200が上記のような処理を行うためのユーザ言動情報記憶部118の構成を示す図である。ユーザ言動情報記憶部118は、ユーザ言動情報および収集数に対応付けてユーザIDも記憶する。たとえば、ユーザ言動情報「A」の収集数は5で、このユーザ言動情報を入力したユーザのユーザIDは、「002」、「003」、「004」、「005」、および「006」となっている。また、ユーザ言動情報「B」の収集数は1で、このユーザ言動情報を入力したユーザのユーザIDは、「007」となっている。
ここで、たとえば「A」と「B」という回答が入力され、「B」が正解だった場合、正解したのはユーザID「007」の生徒だけである。ここで、ロボット制御装置100は、ユーザIDと、そのユーザIDに対応する生徒の名前とを記憶するユーザ情報記憶部を含むことができる。ロボット200は、ユーザ言動情報記憶部118およびユーザ情報記憶部を参照して、ユーザID「007」に対応する生徒の名前を発表する。このようにすれば、生徒が回答を入力した時点では、その回答を誰が入力したかが他の人に知られないようにするとともに、回答が正解だった場合に入力した人が明示されるようにできる。これにより、あまり自信がない場合であっても、生徒が自分の意見を入力するようにすることができる。また、ほめられることにより、生徒が自信を持つことができるようにすることもできる。
また、他の例として、ロボット200は、不参加者または遠隔参加者に付与された一般入力手段から入力されるユーザ言動情報に基づき、言動を実行することもできる。このようにすれば、テレビ会議や遠隔地にいるユーザからのユーザ言動情報についても、ロボット200が表現することができる。
また、他の例として、生徒の保護者が遠隔で授業に参加することができる。保護者はロボット200のカメラ画像とマイク音声を通して、授業の様子を見ることができ、首を動かすことで子供の様子をチェックすることもできる。したがって、保護者にとって透明性や安心感の向上という効果も得られる。
また、一つの教室や会場に、複数のロボット200を配置することもできる。この場合、参加者をグループ分けし、あるグループの参加者から入力されるユーザ言動情報を一のロボットに、他のグループの参加者から入力されるユーザ言動情報を他のロボットに送信することができる。これにより、それぞれのロボットが、各グループの参加者の言動を代表して表現するようにすることができる。
また、ユーザ言動情報の入力手段は、たとえばカメラとすることもできる。この場合、会場にカメラを設置し、参加者を順に撮影して、複数の参加者から順次ユーザ言動情報を取得することができる。また、会場に複数のカメラを設置し、複数の参加者から同時にユーザ言動情報を取得することもできる。また、ロボット200のカメラを用いてユーザ言動情報を取得することもできる。これらの場合、参加者の視線やうなずく仕種を検出することにユーザ言動情報を取得することができる。たとえば、カメラ画像から、うなずいている人が多い場合はロボット200もうなずき、こっくりこっくりしている人が多い場合は、ロボット200も眠そうな表現をすることもできる。
また、ユーザ言動情報の入力手段は、たとえば血圧センサや発汗センサとすることもできる。この場合、参加者の興奮の度合い等がわかるため、興奮している場合はロボット200の発話を興奮気味のテンションにしたり、沈静している場合は落ち着いた口調にしたりできる。沈静しすぎている場合は、ロボット200が先生に内容を質問したり、学校の授業に変化をもたせることで、生徒の眠気覚ましを行うこともできる。
なお、以上の実施の形態においては、ロボット制御装置100がロボット装置であるロボット200に組み込まれる例を説明したが、ロボット制御装置100は、キャラクタで示される仮想ロボットを制御する構成とすることもできる。この場合、仮想ロボットはモニタ等に表示して実現することができる。
本発明は、以下の態様も含む。
(1)会議や授業、講義に参加するロボットであって、発表者、聴講者、司会者、先生、生徒等の参加者が使用するための会議参加者用入力手段を内部または外部に持ち、無線または有線で会議参加者用入力手段とロボットとの間で通信する通信手段、ロボットの行動を実行するロボット出力手段、を備えたロボット装置。
(2)さらに、多数決、会議進行状態、倫理性のような情報に基づき、ロボットがするべき行動の有無や種類を判断する行動判断手段、を備えたロボット装置。
(3)さらに、ロボット出力手段が、挙手をして発言することにより、匿名的または明示的に参加者の代弁を行うロボット装置。
(4)さらに、ロボット出力手段が、ツッコミ等の発言をしたり、ほめたり拍手したり、笑ったり、うなずいたり、視線を制御したりすることにより、参加者の気持ちを代弁するロボット装置。
(5)さらに、ロボット出力手段が、ほめたり拍手することにより、参加者が拍手するべきタイミングを表現するロボット装置。
(6)さらに、ロボット出力手段が、挙手したり、拍手したり、「異議なし」等と発話することにより、不参加者または遠隔参加者の代理で投票するロボット装置。
(7)さらに、ロボット出力手段が、挙手したり、拍手したり、「異議なし」等と発話することにより、投票の集計結果を表現するロボット装置。
(8)会議や授業、講義またはそのシステムに参加するエージェントの制御方法であって、発表者、聴講者、司会者、先生、生徒等の参加者が使用するための会議参加者用入力手段を内部または外部に持ち、無線または有線で会議参加者用入力手段とエージェントとの間で通信する通信手段、エージェントの行動を実行するエージェント出力手段、を備えたエージェント制御方法。
(9)さらに、多数決、会議進行状態、倫理性のような情報に基づき、エージェントがするべき行動の有無や種類を判断する行動判断手段、を備えたエージェント制御方法。
(10)さらに、エージェント出力手段が、挙手をして発言することにより、匿名的または明示的に参加者の代弁を行うエージェント制御方法。
(11)さらに、エージェント出力手段が、ツッコミ等の発言をしたり、ほめたり拍手したり、笑ったり、うなずいたり、視線を制御したりすることにより、参加者の気持ちを代弁するエージェント制御方法。
(12)さらに、エージェント出力手段が、ほめたり拍手することにより、参加者が拍手するべきタイミングを表現するエージェント制御方法。
(13)さらに、エージェント出力手段が、挙手したり拍手したり「異議なし」等と発話することにより、不参加者または遠隔参加者の代理で投票するエージェント制御方法。
(14)さらに、エージェント出力手段が、挙手したり拍手したり「異議なし」等と発話することにより、投票の集計結果を表現するエージェント制御方法。
(15)上記エージェント制御方法を実行する手段を含む会議システム。
(16)上記エージェント制御方法を記憶した記憶媒体。
(1)会議や授業、講義に参加するロボットであって、発表者、聴講者、司会者、先生、生徒等の参加者が使用するための会議参加者用入力手段を内部または外部に持ち、無線または有線で会議参加者用入力手段とロボットとの間で通信する通信手段、ロボットの行動を実行するロボット出力手段、を備えたロボット装置。
(2)さらに、多数決、会議進行状態、倫理性のような情報に基づき、ロボットがするべき行動の有無や種類を判断する行動判断手段、を備えたロボット装置。
(3)さらに、ロボット出力手段が、挙手をして発言することにより、匿名的または明示的に参加者の代弁を行うロボット装置。
(4)さらに、ロボット出力手段が、ツッコミ等の発言をしたり、ほめたり拍手したり、笑ったり、うなずいたり、視線を制御したりすることにより、参加者の気持ちを代弁するロボット装置。
(5)さらに、ロボット出力手段が、ほめたり拍手することにより、参加者が拍手するべきタイミングを表現するロボット装置。
(6)さらに、ロボット出力手段が、挙手したり、拍手したり、「異議なし」等と発話することにより、不参加者または遠隔参加者の代理で投票するロボット装置。
(7)さらに、ロボット出力手段が、挙手したり、拍手したり、「異議なし」等と発話することにより、投票の集計結果を表現するロボット装置。
(8)会議や授業、講義またはそのシステムに参加するエージェントの制御方法であって、発表者、聴講者、司会者、先生、生徒等の参加者が使用するための会議参加者用入力手段を内部または外部に持ち、無線または有線で会議参加者用入力手段とエージェントとの間で通信する通信手段、エージェントの行動を実行するエージェント出力手段、を備えたエージェント制御方法。
(9)さらに、多数決、会議進行状態、倫理性のような情報に基づき、エージェントがするべき行動の有無や種類を判断する行動判断手段、を備えたエージェント制御方法。
(10)さらに、エージェント出力手段が、挙手をして発言することにより、匿名的または明示的に参加者の代弁を行うエージェント制御方法。
(11)さらに、エージェント出力手段が、ツッコミ等の発言をしたり、ほめたり拍手したり、笑ったり、うなずいたり、視線を制御したりすることにより、参加者の気持ちを代弁するエージェント制御方法。
(12)さらに、エージェント出力手段が、ほめたり拍手することにより、参加者が拍手するべきタイミングを表現するエージェント制御方法。
(13)さらに、エージェント出力手段が、挙手したり拍手したり「異議なし」等と発話することにより、不参加者または遠隔参加者の代理で投票するエージェント制御方法。
(14)さらに、エージェント出力手段が、挙手したり拍手したり「異議なし」等と発話することにより、投票の集計結果を表現するエージェント制御方法。
(15)上記エージェント制御方法を実行する手段を含む会議システム。
(16)上記エージェント制御方法を記憶した記憶媒体。
本発明は、会議や授業等に参加するロボットを制御するロボット制御装置、ロボット制御システム、およびロボット制御方法、ならびにこれらに制御されるロボット装置に適用することができる。
10 ロボット制御システム
100 ロボット制御装置
102 ユーザ言動情報取得部
104 フィルタ処理部
106 タイミング決定部
108 収集部
110 言動決定部
112 出力処理部
114 属性記憶部
116 設定記憶部
118 ユーザ言動情報記憶部
120 言動データベース
122 禁止言動記憶部
124 分類テーブル
200 ロボット
201 胴体部
202 頭部
210 コントローラ
210A CPU
210B メモリ
211 バッテリ
212 スピーカ
213 マイクロフォン
214A、214B アクチュエータ
221A、221B CCDカメラ
222A、222B アクチュエータ
224 通信インターフェース
100 ロボット制御装置
102 ユーザ言動情報取得部
104 フィルタ処理部
106 タイミング決定部
108 収集部
110 言動決定部
112 出力処理部
114 属性記憶部
116 設定記憶部
118 ユーザ言動情報記憶部
120 言動データベース
122 禁止言動記憶部
124 分類テーブル
200 ロボット
201 胴体部
202 頭部
210 コントローラ
210A CPU
210B メモリ
211 バッテリ
212 スピーカ
213 マイクロフォン
214A、214B アクチュエータ
221A、221B CCDカメラ
222A、222B アクチュエータ
224 通信インターフェース
Claims (18)
- ロボットを制御するロボット制御装置であって、
ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得部と、
前記ユーザ言動情報取得部が取得した前記ユーザ言動情報を収集する収集部と、
前記収集部による収集処理の終了タイミングを決定するタイミング決定部と、
前記タイミング決定部による前記終了タイミングの決定があるまでの前記収集部による前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定部と、
前記言動決定部が決定した言動を前記ロボットに実行させる出力処理部と、
を含むロボット制御装置。 - 請求項1に記載のロボット制御装置において、
前記収集部は、前記ユーザ言動情報を同種のユーザ言動情報毎に分類して収集するロボット制御装置。 - 請求項2に記載のロボット制御装置において、
前記言動決定部は、最も収集数の多い種類の前記ユーザ言動情報を優先的に示す言動を前記ロボットが表現するように、当該ロボットの言動を決定するロボット制御装置。 - 請求項1乃至3いずれかに記載のロボット制御装置において、
前記タイミング決定部は、前記収集部による収集処理の開始タイミングを決定するとともに、前記ユーザ言動情報取得部が、前記開始タイミングの後に前記複数のユーザの所定割合以上のユーザから前記ユーザ言動情報を取得したときに、前記収集処理の終了タイミングを決定し、
前記言動決定部は、前記開始タイミングから前記終了タイミングまでの間に、前記収集部が収集した前記ユーザ言動情報に基づき、前記ロボットの言動を決定するロボット制御装置。 - 請求項1乃至3いずれかに記載のロボット制御装置において、
前記タイミング決定部は、前記収集部による収集処理の開始タイミングを決定するとともに、前記ユーザ言動情報取得部が、前記開始タイミングから所定時間が経過したときに、前記収集処理の終了タイミングを決定するロボット制御装置。
前記言動決定部は、前記開始タイミングから前記終了タイミングまでの間に、前記収集部が収集した前記ユーザ言動情報に基づき、前記ロボットの言動を決定するロボット制御装置。 - 請求項4または5に記載のロボット制御装置において、
前記タイミング決定部は、前記ユーザからの前記ユーザ言動情報に、前記収集部による収集処理の開始指示が含まれるか否かを判断し、当該開始指示が含まれる場合に、前記収集部による収集処理の開始タイミングを決定するロボット制御装置。 - 請求項2または3に記載のロボット制御装置において、
前記ロボットの実行モードの設定と、当該実行モードにおける前記ユーザ言動情報の収集数の閾値とを対応づけて記憶する設定記憶部をさらに含み、
前記タイミング決定部は、前記設定記憶部を参照して、いずれかの種類の前記ユーザ言動情報の収集数が前記閾値以上となった場合に、前記収集部による収集処理の終了タイミングを決定し、
前記言動決定部は、前記収集数が閾値以上となった前記ユーザ言動情報を示す言動を前記ロボットが表現するように、当該ロボットの言動を決定するロボット制御装置。 - 請求項7に記載のロボット制御装置において、
前記タイミング決定部は、前記ユーザからの前記ユーザ言動情報に、前記実行モードの設定の変更指示が含まれるか否かを判断し、当該変更指示が含まれる場合に、前記設定記憶部の前記実行モードの設定を更新するロボット制御装置。 - 請求項1乃至8いずれかに記載のロボット制御装置において、
前記ユーザ言動情報取得部は、前記ユーザ言動情報を、各前記ユーザを識別する情報に対応づけて取得するロボット制御装置。 - 請求項9に記載のロボット制御装置において、
各前記ユーザを識別する情報と、当該ユーザの属性とを対応づけて記憶する属性記憶部と、
前記属性記憶部に記憶された前記ユーザの属性に応じて、前記ユーザ言動情報取得部が取得した前記ユーザ言動情報に重み付けを付与する重み付け付与部と、
をさらに含み、
前記収集部は、前記ユーザ言動情報を前記重み付け付与部により付与された前記重み付けに対応付けて収集するロボット制御装置。 - 請求項9に記載のロボット制御装置において、
前記言動決定部は、所定の条件を満たした場合に、前記ロボットが実行する前記言動に対応する前記ユーザ言動情報に対応付けられた前記ユーザを識別する情報に基づき、前記ロボットが当該ユーザを明示する発言をするように当該ロボットの言動を決定するロボット制御装置。 - 請求項1乃至11いずれかに記載のロボット制御装置において、
前記タイミング決定部は、前記ユーザ言動情報の内容に基づき、当該ユーザ言動情報を前記収集部による収集処理を行うことなく出力するか否かを判断し、
前記言動決定部は、前記タイミング決定部が前記収集処理を行うことなく出力すると決定した場合に、当該ユーザ言動情報に基づき、前記ロボットの言動を決定することを特徴とするロボット制御装置。 - 請求項1乃至12いずれかに記載のロボット制御装置において、
前記ユーザ言動情報取得部は、前記複数のユーザそれぞれに対応づけられた複数の入力手段からの入力を受け付ける通信処理部を含むロボット制御装置。 - 請求項1乃至13いずれかに記載のロボット制御装置と、
前記ロボット制御装置の前記ユーザ言動取得部とネットワークを介してそれぞれ接続された複数の入力手段と、
を含むロボット制御システム。 - 自律移動型または対話型のロボット装置であって、
請求項1乃至13いずれかに記載のロボット制御装置と、
前記出力処理部の出力に基づき、前記言動決定部が決定した前記言動を実行する言動実行部と、
を含むことを特徴とするロボット装置。 - ロボットを制御するロボット制御方法であって、
ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得ステップと、
前記ユーザ言動情報取得ステップで取得された前記ユーザ言動情報を収集する収集ステップと、
前記収集ステップにおける収集処理の終了タイミングを決定するタイミング決定ステップと、
前記タイミング決定ステップにおける前記終了タイミングの決定があるまでの前記収集ステップにおける前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定ステップと、
前記言動決定ステップで決定された言動を前記ロボットに実行させる出力ステップと、
を含むロボット制御方法。 - 請求項16に記載のロボット制御方法において、
前記収集ステップは、前記ユーザ言動情報を同種のユーザ言動情報毎に分類するステップを含むロボット制御方法。 - ロボットを制御するために、コンピュータを、
ユーザの言動を示すユーザ言動情報を複数のユーザからそれぞれ取得するユーザ言動情報取得手段、
前記ユーザ言動情報取得手段、が取得した前記ユーザ言動情報を収集する収集手段、
前記収集手段による収集処理の終了タイミングを決定するタイミング決定手段、
前記タイミング決定手段による前記終了タイミングの決定があるまでの前記収集手段による前記ユーザ言動情報の収集結果に基づき、前記ユーザの言動を前記ロボットが表現するように当該ロボットの言動を決定する言動決定手段、
前記言動決定手段が決定した言動を前記ロボットに実行させる出力処理手段、
として機能させることを特徴とするプログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005212406A JP2007030050A (ja) | 2005-07-22 | 2005-07-22 | ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005212406A JP2007030050A (ja) | 2005-07-22 | 2005-07-22 | ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2007030050A true JP2007030050A (ja) | 2007-02-08 |
Family
ID=37789926
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005212406A Pending JP2007030050A (ja) | 2005-07-22 | 2005-07-22 | ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2007030050A (ja) |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008152943A1 (ja) * | 2007-06-13 | 2008-12-18 | Softbank Bb Corp. | 移動通信装置、移動通信装置の制御方法、そのプログラムおよび記録媒体 |
| JP2017514227A (ja) * | 2014-04-17 | 2017-06-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | ロボット上のソフトウェアアプリケーションの実行 |
| JP2018156296A (ja) * | 2017-03-16 | 2018-10-04 | 株式会社日立製作所 | 教育支援システムおよび教育支援方法 |
| JP2018174425A (ja) * | 2017-03-31 | 2018-11-08 | 国立大学法人大阪大学 | 会議システムおよび制御プログラム |
| JP2019169099A (ja) * | 2018-03-26 | 2019-10-03 | 株式会社 日立産業制御ソリューションズ | 会議支援装置及び会議支援システム |
| CN111787035A (zh) * | 2019-04-03 | 2020-10-16 | 王宇溪 | 一种用户交互系统 |
-
2005
- 2005-07-22 JP JP2005212406A patent/JP2007030050A/ja active Pending
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2008152943A1 (ja) * | 2007-06-13 | 2008-12-18 | Softbank Bb Corp. | 移動通信装置、移動通信装置の制御方法、そのプログラムおよび記録媒体 |
| JP2017514227A (ja) * | 2014-04-17 | 2017-06-01 | ソフトバンク・ロボティクス・ヨーロッパSoftbank Robotics Europe | ロボット上のソフトウェアアプリケーションの実行 |
| JP2018156296A (ja) * | 2017-03-16 | 2018-10-04 | 株式会社日立製作所 | 教育支援システムおよび教育支援方法 |
| JP2018174425A (ja) * | 2017-03-31 | 2018-11-08 | 国立大学法人大阪大学 | 会議システムおよび制御プログラム |
| JP2019169099A (ja) * | 2018-03-26 | 2019-10-03 | 株式会社 日立産業制御ソリューションズ | 会議支援装置及び会議支援システム |
| CN111787035A (zh) * | 2019-04-03 | 2020-10-16 | 王宇溪 | 一种用户交互系统 |
| CN111787035B (zh) * | 2019-04-03 | 2023-04-07 | 王宇溪 | 一种用户交互系统 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11151997B2 (en) | Dialog system, dialog method, dialog apparatus and program | |
| CN112204565B (zh) | 用于基于视觉背景无关语法模型推断场景的系统和方法 | |
| CN112074899A (zh) | 基于多模态传感输入的人机对话的智能发起的系统和方法 | |
| US11183187B2 (en) | Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog | |
| CN112204564A (zh) | 经由基于集成音频和视觉的语音识别进行语音理解的系统和方法 | |
| CN112262024B (zh) | 用于增强数字体验的动态机器人配置的系统和方法 | |
| Kanda et al. | Person identification and interaction of social robots by using wireless tags | |
| JP2019159707A (ja) | 情報提示装置、情報提示方法及び情報提示プログラム | |
| JP6864326B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
| JP7286303B2 (ja) | 会議支援システム及び会議用ロボット | |
| JPWO2017200079A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
| KR101949997B1 (ko) | 더빙/증강현실을 이용한 참여형 대화훈련 학습 방법 | |
| JP7130290B2 (ja) | 情報抽出装置 | |
| JP2007030050A (ja) | ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 | |
| Huang et al. | Exploration of human reactions to a humanoid robot in public STEM education | |
| JP7096626B2 (ja) | 情報抽出装置 | |
| Huang et al. | Can a Virtual Listener Replace a Human Listener in Active Listening Conversation? | |
| US11605390B2 (en) | Systems, methods, and apparatus for language acquisition using socio-neuorocognitive techniques | |
| JP2008096884A (ja) | 外国語学習通信システム | |
| CN116566758A (zh) | 音视频会议快速响应、教学提问响应方法和电子设备 | |
| JPWO2017200077A1 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
| Saxena et al. | Virtual Assistant with Facial Expession Recognition | |
| Wallis | A robot in the kitchen | |
| JP2022139436A (ja) | 会議支援装置、会議支援システム、会議支援方法、およびプログラム | |
| JP7659322B2 (ja) | 情報抽出装置 |