JP4419035B2 - Robot apparatus and control method thereof - Google Patents
Robot apparatus and control method thereof Download PDFInfo
- Publication number
- JP4419035B2 JP4419035B2 JP2000350278A JP2000350278A JP4419035B2 JP 4419035 B2 JP4419035 B2 JP 4419035B2 JP 2000350278 A JP2000350278 A JP 2000350278A JP 2000350278 A JP2000350278 A JP 2000350278A JP 4419035 B2 JP4419035 B2 JP 4419035B2
- Authority
- JP
- Japan
- Prior art keywords
- behavior
- growth
- action
- unit
- external
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
【0001】
【発明の属する技術分野】
本発明はロボット装置及びその制御方法に関し、例えばペットロボットに適用して好適なものである。
【0002】
【従来の技術】
近年、ユーザからの指示や周囲の環境に応じて自律的に行動するようになされたペットロボットが本願特許出願人により開発されている。かかるペットロボットは、一般家庭において飼育される犬や猫に似せた外観を有し、それぞれ所定部位に配設されたCCD(Charge Coupled Device)カメラ、マイクロホン及びタッチセンサ等の出力に基づいて周囲及び自己内部の状況や、ユーザからの指令及び働きかけの有無などを認識し、認識結果に基づいて行動するものである。
【0003】
【発明が解決しようとする課題】
ところでかかる従来のペットロボットにおいては、行動モデルと呼ばれる行動様式を規定した1つのモデルを用いて発現する行動を決定するように構築されており、このため行動様式の変更が煩雑であったり、表現の多様化を行い難い問題があった。
【0004】
本発明は以上の点を考慮してなされたもので、行動様式の変更及び多様化を容易化し得るロボット装置及びその制御方法を提案しようとするものである。
【0005】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、外部センサ及び内部センサのうち少なくともいずれか一方の出力に基づいて外部及び内部のうち少なくともいずれか一方の状況を認識し、外部及び内部のうち少なくともいずれか一方の状況のうち、予め定められた成長に関する複数の成長要素の累積度を当該成長要素ごとにカウントするカウンタと、成長要素の累積度の合計に応じ、次の成長段階へ移行すると共に、行動パターンの系列である基本行動系が定められた複数の性格から成長要素の累積度に応じた性格を選択し、成長要素の累積度に応じて基本行動系に属する行動パターンに対する難易度を設定する成長制御部と、外部及び内部のうち少なくともいずれか一方の状況に対し、選択された性格における基本行動系から、設定された難易度でなる行動パターンを選択する行動決定部と、行動決定部によって選択された行動パターンに従って行動するよう、駆動部を制御する駆動制御部とを設けるようにした。
【0006】
この結果このロボット装置では、行動パターンのバリエーションを増加させることができる。
【0007】
また本発明においては、外部センサ及び内部センサのうち少なくともいずれか一方の出力に基づいて外部及び内部のうち少なくともいずれか一方の状況を認識し、外部及び内部のうち少なくともいずれか一方の状況のうち、予め定められた成長に関する複数の成長要素の累積度を当該成長要素ごとにカウントするカウンタステップと、成長要素の累積度の合計に応じ、次の成長段階へ移行すると共に、行動パターンの系列である基本行動系が定められた複数の性格から成長要素の累積度に応じた性格を選択し、成長要素の累積度に応じて基本行動系に属する行動パターンに対する難易度を設定する成長制御ステップと、外部及び内部のうち少なくともいずれか一方の状況に対し、選択された性格における基本行動系から、設定された難易度でなる行動パターンを選択する行動決定ステップと、行動決定部によって選択された行動パターンに従って行動するよう、駆動部を制御する駆動制御ステップとを設けるようにした。
【0008】
この結果このロボット装置では、行動パターンのバリエーションを増加させることができる。
【0009】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0010】
(1)本実施の形態によるペットロボット1の構成
図1において、1は全体として本実施の形態によるペットロボットを示し、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3A〜3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されることにより構成されている。
【0011】
この場合胴体部ユニット2には、図2に示すように、このペットロボット1全体の行動を制御するコントローラ10と、このペットロボット1の動力源としてのバッテリ11と、バッテリセンサ12及び温度センサ13等からなる内部センサ部14となどが収納されている。
【0012】
また頭部ユニット4には、このペットロボット1の実質的な「目」として機能するCCD(Charge Coupled Device)カメラ15、「耳」として機能するマイクロホン16及びタッチセンサ17等からなる外部センサ部18と、外見上の「目」として機能するLED(Light Emitting Diode)19と、「口」として機能するスピーカ20となどがそれぞれ所定位置に配設されている。
【0013】
さらに各脚部ユニット3A〜3Dの関節部分や、各脚部ユニット3A〜3D及び胴体部ユニット2の各連結部分、頭部ユニット4及び胴体部ユニット2の連結部分、並びに尻尾部ユニット5における尻尾5A(図1)の付根部分などには、それぞれ必要な自由度数分のアクチュエータ211〜21nが配設されている。
【0014】
そして外部センサ部18のCCDカメラ15は、周囲の状況を撮像し、得られた画像信号S1Aをコントローラ10に送出する。またマイクロホン16は、ユーザから図示しないサウンドコマンダを介して音階として与えられる「歩け」、「伏せ」又は「ボールを追いかけろ」等の指令音を集音し、得られた音声信号S1Bをコントローラ10に送出する。
【0015】
さらにタッチセンサ17は、図1において明らかなように頭部ユニット4の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、検出結果を圧力検出信号S1Cとしてコントローラ10に送出する。
【0016】
一方、内部センサ部14のバッテリセンサ12は、バッテリ11の残量を検出して、検出結果をバッテリ残量検出信号S2Aとしてコントローラ10に送出し、温度センサ13は、ペットロボット1の内部温度を検出して検出結果を温度検出信号S2Bとしてコントローラ10に送出する。
【0017】
コントローラ10は、CCDカメラ15、マイクロホン16及びタッチセンサ17からそれぞれ供給される画像信号1A、音声信号S1B及び圧力検出信号S1C(以下、これらをまとめて外部センサ信号S1と呼ぶ)と、バッテリセンサ12及び温度センサ13からそれぞれ与えられるバッテリ残量検出信号S2A及び温度検出信号S2B(以下、これらをまとめて内部センサ信号S2と呼ぶ)となどに基づいて、ペットロボット1の周囲及び内部の状況や、ユーザからの指令、ユーザからの働きかけの有無などを判断する。
【0018】
そしてコントローラ10は、この判断結果と、予めメモリ10Aに格納されている制御プログラムとに基づいて続く行動を決定し、決定結果に基づいて必要なアクチュエータ211〜21nを駆動させることにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5の尻尾5Aを動かせたり、各脚部ユニット3A〜3Dを駆動して歩行させるなど行動を行わせる。
【0019】
またこの際コントローラ10は、必要に応じて所定の音声信号S3をスピーカ20に与えることにより当該音声信号S3に基づく音声を外部に出力させたり、外見上の「目」としてのLED19にLED駆動信号S4を出力することによりこれを点滅させる。
【0020】
このようにしてこのペットロボット1においては、周囲又は内部の状況や、ユーザからの指令及び働きかけの有無などに基づいて自律的に行動することができるようになされている。
【0021】
かかる構成に加えこのペットロボット1の場合、ユーザからの働きかけやサウンドコマンダを用いた指令などの操作入力の履歴と、自己の行動及び動作履歴とに応じて、あたかも本物の動物が「成長」するかのごとく行動及び動作を変化させるようになされている。
【0022】
すなわちこのペットロボット1には、図3に示すように、成長過程として「幼年期」、「少年期」、「青年期」及び「成人期」の4つの「成長段階」が設けられている。そしてコントローラ10のメモリ10Aには、これら各「成長段階」ごとの「歩行状態」、「モーション(動き)」及び「サウンド(鳴き声)」などの行動及び動作の基礎となる制御パラメータが予め格納されている。
【0023】
そしてコントローラ10は、初期時には「幼年期」の制御パラメータに従って、例えば「歩行状態」については歩幅を小さくするなどして「よちよち歩き」となるように、「モーション」については単に「歩く」、「立つ」、「寝る」程度の「単純」な動きとなるように、また「サウンド」については音声信号S6の増幅率を低下させるなどして「小さく短い」鳴き声となるように、各アクチュエータ211〜21n及び音声出力を制御する。
【0024】
またこの際コントローラ10は、サウンドコマンダを用いた指令入力と、「なでる」及び「たたく」に該当するタッチセンサ17を介してのセンサ入力及び決められた行動及び動作の成功回数などでなる強化学習と、「なでる」及び「たたく」に該当しないタッチセンサ17を介してのセンサ入力と、「ボールで遊ぶ」などの所定の行動及び動作となどの予め決められた「成長」に関与する複数の要素(以下、これらを成長要素と呼ぶ)について、その発生を常時監視してカウントする。
【0025】
そしてコントローラ10は、これら成長要素の累積度数に基づいて、各成長要素の累積度数の合計値(以下、これを成長要素の総合経験値と呼ぶ)が予め設定された閾値を越えると、使用する制御パラメータを「幼年期」よりも成長レベル(行動や動作の難易度や煩雑さなどのレベル)が高い「少年期」の制御パラメータに変更する。
【0026】
そしてコントローラ10は、この後この「少年期」の制御パラメータに従って、例えば「歩行状態」については各アクチュエータ211〜21nの回転速度を速くするなどして「少しはしっかり」と歩くように、「モーション」については動きの数を増加させるなどして「少しは高度かつ複雑」な動きとなるように、また「サウンド」については音声信号S6の増幅率を上げるなどして「少しは長く大きい」鳴き声となるように、各アクチュエータ211〜21nやスピーカ20からの音声出力を制御する。
【0027】
さらにコントローラ10は、この後これと同様にして、成長要素の総合経験値が「青年期」や「成人期」にそれぞれ対応させて予め設定された各閾値を越えるごとに、制御パラメータをより成長レベルの高い「青年期」又は「成人期」の行動及び動作モデルに順次変更し、当該制御パラメータに従って各アクチュエータ211〜21nの回転速度やスピーカ20に与える音声信号S3の長さや増幅率を徐々に上げたり、1つの動作を行う際の各アクチュエータ211〜21nの回転量などを変化させる。
【0028】
この結果ペットロボット1は、「成長段階」が上がる(すなわち「幼年期」から「少年期」、「少年期」から「青年期」、「青年期」から「成人期」に変化する)に従って、「歩行状態」が「よちよち歩き」から「しっかりした歩き」に、「モーション」が「単純」から「高度・複雑」に、かつ「サウンド」が「小さく短い」から「長く大きい」に段階的に変化する。
【0029】
このようにしてこのペットロボット1においては、外部からの入力や自己の行動及び動作の履歴に応じて、「幼年期」、「少年期」、「青年期」及び「成人期」の4段階で「成長」するようになされている。
【0030】
なおこの実施の形態の場合、図3において明らかなように、「少年期」、「青年期」及び「成人期」の各「成長段階」について、それぞれ複数の「性格」が用意されている。
【0031】
実際上例えば「少年期」の「性格」として、動きが雑で速い「荒々しい性格」(Child 1)と、これよりも動きが滑らかで遅い「おっとりとした性格」(Child 2)とがある。
【0032】
また「青年期」の「性格」として、「少年期」の「荒々しい性格」よりもより動きが雑で速い「いらいら性格」(Young 1)と、これよりも動きが遅くかつ滑らかな「普通の性格」(Young 2)と、これよりも一層動作が遅く、かつ行動量が少ない「おっとりとした性格」(Young 3)とがある。
【0033】
さらに「成人期」の「性格」として、それぞれ「青年期」の「いらいらした性格」よりもより動きが雑で速く、かつユーザからの指令に応じた動きを行い難い「攻撃的な性格」(Adult 1)と、これよりも動きが滑らかで遅く、かつユーザからの指令に応じた動きを行い易い「少し荒々しい性格」(Adult 2)と、これによりも動きが滑らかで遅く、行動量が少く、かつユーザからの指令に応じた動きを必ず行う「少しおとなしい性格」(Adult 3)と、これによりもさらに一層動きが遅く、行動量が少なく、かつユーザからの指令に応じた動きを必ず行う「おとなしい性格」(Adult 4)とがある。
【0034】
そしてコントローラ10は、「成長段階」を上げる際、各成長要素の累積度数に基づいて次の「成長段階」内の1つの「性格」を選択する。
【0035】
この場合「少年期」以降では、次の「成長段階」に移る際、現在の「成長段階」の「性格」から遷移できる次の「成長段階」の「性格」は決まっており、図3において矢印で結ばれた「性格」間の遷移しかできない。従って例えば「少年期」において「荒々しい性格」(Child 1)が選択されている場合には、「青年期」において「おっとりとした性格」(Young 3)に遷移することができない。
【0036】
このようにこのペットロボットにおいては、あたかも本物の動物が飼い主の飼育の仕方等によって性格を形成してゆくかのごとく、ユーザからの働きかけ及び指令の入力履歴や自己の行動履歴に応じて、「成長」に伴って「性格」をも変化させるようになされている。なおこのようにして選択された「性格」に応じた行動や動作をペットロボット1に行わせるための手法については後述する。
【0037】
(2)コントローラ10の処理
次にこのペットロボット1におけるコントローラ10の具体的な処理について説明する。
【0038】
コントローラ10は、メモリ10A(図2)に格納された制御プログラムに従って各種処理を実行する。ここで、かかるコントローラ10の処理内容を機能的に分類すると、図4に示すように、外部センサ部18(図2)及び内部センサ部14(図2)の出力に基づいて外部及び内部の状態を認識する状態認識部30と、状態認識部30の認識結果に基づいてペットロボット1の感情及び本能の状態を決定する感情・本能モデル部31と、状態認識部30の認識結果や、ペットロボット1の感情及び本能の状態に基づいて続く行動を決定する行動決定部32と、行動決定部32の決定結果に応じた行動をペットロボット1に発現させる行動生成部33と、ペットロボット1の「成長」を制御する成長制御部34とに分けることができる。
【0039】
以下、これら状態認識部30、感情・本能モデル部31、行動決定部32、行動生成部33及び成長制御部34について詳細に説明する。
【0040】
(2−1)状態認識部30の構成
状態認識部30は、外部センサ部18から与えられる外部センサ信号S1と、内部センサ部14から与えられる内部センサ信号S2とに基づいて特定の状態を認識し、認識結果を状態認識情報S10として感情・本能モデル部31及び行動決定部32に通知する。
【0041】
実際上、状態認識部30は、外部センサ部18のCCDカメラ15(図2)から与えられる画像信号S1Aを常時監視し、当該画像信号S1Aに基づく画像内に例えば「赤い丸いもの」や「垂直な平面」を検出したときには、「ボールがある」、「壁がある」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。
【0042】
また状態認識部30は、マイクロホン16(図2)から与えられる音声信号S1Bを常時監視し、当該音声信号S1Bに基づいて「歩け」、「伏せ」、「ボールを追いかけろ」などの指令音が入力されたことを認識すると、かかる認識結果を感情・本能モデル部31及び行動決定部32に通知する。
【0043】
さらに状態認識部30は、タッチセンサ17(図2)から与えられる圧力検出信号S1Cを常時監視し、当該圧力検出信号S1Cに基づいて所定の閾値以上のかつ短時間(例えば2秒未満)の圧力を検出したときには「叩かれた(叱られた)」と認識し、所定の閾値未満で長時間(例えば2秒以上)かつ広範囲の圧力を検出したときには「撫でられた(誉められた)」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。
【0044】
さらに状態認識部30は、内部センサ部14の温度センサ13(図2)から与えられる温度検出信号S2Bを常時監視し、当該温度検出信号S2Bに基づいて所定以上の温度を検出したときには「内部温度が上昇しすぎた」と認識し、認識結果を感情・本能モデル部31及び行動決定部32に通知する。
【0045】
(2−2)感情・本能モデル部31の構成
感情・本能モデル部31は、「喜び」、「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び「怒り」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして感情・本能モデル部31は、これら各情動のパラメータ値を、それぞれ状態認識部30から状態認識情報S10として与えられる「叩かれた」又は「撫でられた」などの特定の認識結果と、後述のように行動決定部32から与えられる決定された出力行動を表す行動決定情報S11と、経過時間となどに基づいて順次更新する。
【0046】
具体的に感情・本能モデル部31は、状態認識情報S10に基づき得られる認識結果及び行動決定情報S11に基づく出力行動がその情動に対して作用する度合い(予め設定されている)と、他の情動から受ける抑制及び刺激の度合いと、経過時間となどに基づいて所定の演算式により算出されるその情動の変化量をΔE〔t〕、現在のその情動のパラメータ値をE〔t〕、認識結果等に応じてその情動を変化させる割合を表す係数をkeとして、所定周期で次式
【0047】
【数1】
【0048】
を用いて次の周期におけるその情動のパラメータ値E〔t+1〕を算出する。
【0049】
そして感情・本能モデル部31は、この演算結果を現在のその情動のパラメータ値E〔t〕と置き換えるようにしてその情動のパラメータ値を更新する。なお各認識結果や各出力行動に対してどの情動のパラメータ値を更新するかは、予め決められており、例えば「叩かれた」といった認識結果が与えられた場合には「怒り」の情動のパラメータ値が上がると共に「喜び」の情動のパラメータ値が下がり、「撫でられた」といった認識結果が与えられた場合には「喜び」の情動のパラメータ値が上がると共に「悲しみ」及び「怒り」の各情動のパラメータ値が下がる。
【0050】
これと同様にして、感情・本能モデル部31は、「運動欲」、「愛情欲」、「食欲」、「好奇心」及び「睡眠欲」の互いに独立した5つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータ値を保持している。そして感情・本能モデル部31は、これら各欲求のパラメータ値を、それぞれ状態認識部30からの認識結果や、経過時間及び行動決定部32からの通知などに基づいて順次更新する。
【0051】
具体的に感情・本能モデル部31は、「運動欲」、「愛情欲」及び「好奇心」についてはペットロボット1の出力行動、経過時間及び認識結果などに基づいて所定の演算式により算出されるその欲求の変動量ΔI〔k〕、現在のその欲求のパラメータ値をI〔k〕、その欲求の感度を表す係数をkiとして、所定周期で次式
【0052】
【数2】
【0053】
を用いて次の周期におけるその欲求のパラメータ値I〔k+1〕を算出し、この演算結果を現在のその欲求のパラメータ値I〔k〕と置き換えるようにしてその欲求のパラメータ値を更新する。この場合、出力行動や認識結果等に対してどの欲求のパラメータ値を変化させるかは予め定められており、例えば行動決定部32から何らかの行動を発現したとの通知があった場合には「運動欲」のパラメータ値が下がる。
【0054】
また感情・本能モデル部31は、「食欲」については、状態認識部30を介して与えられるバッテリ残量検出信号S2A(図2)に基づいて、バッテリ残量をBLとして所定周期で次式
【0055】
【数3】
【0056】
により「食欲」のパラメータ値〔k+1〕を算出し、この演算結果を現在の食欲のパラメータ値I〔k〕と置き換えるようにして当該「食欲」のパラメータ値を更新する。
【0057】
さらに感情・本能モデル部41は、「睡眠欲」については1日を1同期として所定時間ごとにパラメータ値を増減変更する。
【0058】
なお本実施の形態においては、各情動及び各欲求のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数ke、kiの値も各情動及び各欲求ごとに個別に設定されている。
【0059】
(2−3)行動決定部32の構成
行動決定部32は、メモリ10A内に複数の行動モデルを有している。そして行動決定部32は、状態認識部30から与えられる状態認識情報S10と、感情・本能モデル部31における各情動及び各欲求のパラメータ値と、対応する行動モデルと、経過時間となどに基づいて次の行動を決定し、決定結果を行動決定情報S11として感情・本能モデル部31、行動生成部33及び成長制御部34に出力する。なお行動決定部32についての詳細は後述するので、ここでは簡単に行動モデルを利用した次の行動の決定手法について説明する。
【0060】
このペットロボット1では、次の行動を決定する手法として、図5に示すように1つのノード(状態)NODE0から同じ又は他のどのノードNODE0〜NODEnに遷移するかを各ノードNODE0〜NODEn間を接続するアークARC0〜ARCnに対してそれぞれ設定された遷移確率P0〜Pnに基づいて確率的に決定する確率オートマトンと呼ばれるアルゴリズムを用いる。
【0061】
より具体的には、メモリ10Aには、各行動モデルごとに、その行動モデルの各ノードNODE0〜NODEnごとの図6に示すような状態遷移表35が格納されている。
【0062】
ここで状態遷移表35では、そのノードNODE0〜NODEnにおいて遷移条件とする入力イベント(状態認識部30の認識結果)が「入力イベント」の行に優先順に列記され、その条件についてのさらなる条件が「データ名」及び「データ範囲」の行における対応する列に記述されている。
【0063】
従って図6の状態遷移表35で定義されたノードNODE100では、「ボールを検出した(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から100の範囲(0,1000)」であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から1000の範囲(0,1000)」であることが自己又は他のノードNODE0〜NODEnに遷移するための条件となる。
【0064】
またこのノードNODE100では、認識結果の入力がない場合においても、行動決定部32が周期的に参照する感情・本能モデル部31の各情動及び各欲求のパラメータ値のうち「喜び(JOY)」、「驚き(SUPRISE)」又は「悲しみ(SUDNESS)」のいずれかの情動のパラメータ値が「50から100の範囲(50,100)」であるときには自己又は他のノードNODE0〜NODEnに遷移することができる。
【0065】
さらに状態遷移表35では、「他のノードへの遷移確率」の欄における「遷移先ノード」の列にそのノードNODE0〜NODEnから遷移できるいくつかのノードNODE0〜NODEnが列記されると共に、「入力イベント名」、「データ値」及び「データの範囲」の各行に記述された全ての条件が揃った場合におけるそのノードNODE0〜NODEnへの遷移確率が「他のノードへの遷移確率」の欄におけるそのノードNODE0〜NODEnの行に記述され、このとき出力される行動及び動作が「出力行動」の行に記述される。なお「他のノードへの遷移確率」の欄における各行の遷移確率の和は100 〔%〕となっている。
【0066】
従ってこの例のノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「大きさ(SIZE)」が「0から1000の範囲(0,1000)」であるという認識結果が与えられた場合には、「30〔%〕」の確率で「ノードNODE120(node120)」に遷移でき、そのとき「ACTION 1」の行動又は動作が出力されることとなる。
【0067】
そして各行動モデルは、それぞれこのような状態遷移表35として記述されたノードNODE0〜NODEnがいくつも繋がるようにして形成されている。
【0068】
かくして行動決定部32は、状態認識部30から状態認識情報S10が与えられたときや、最後に行動を発現してから一定時間が経過したときなどに、メモリ10Aに格納されている対応する行動モデルのうちの対応するノードNODE0〜NODEnの状態遷移表35を利用して次の行動や動作(「出力行動」の行に記述された行動又は動作)を確率的に決定し、決定結果を行動決定情報S11として感情・本能モデル部32、行動生成部33及び成長制御部34に出力する。
【0069】
(2−4)行動生成部33の構成
行動生成部33は、各「成長段階」にそれぞれ対応させて、その「成長段階」に応じた「成長レベル」の「歩行状態」、「モーション」及び「サウンド」等の行動や動作をペットロボット1に発現させるための各種制御パラメータをメモリ10A内に有している。
【0070】
そして行動生成部33は、行動決定部32から行動決定情報S11が与えられると、メモリ10Aに格納されているこれら各種制御パラメータのうち、後述のように予め成長制御部34により指定された「成長段階」の制御パラメータに基づいて必要なアクチュエータ211〜22nを所定状態に駆動させたり、音声信号S3に基づく音声をスピーカ20から出力させたり、外見上の「目」としてのLED19を所定パターンで点滅駆動する。
【0071】
このようにして行動生成部33は、行動決定部32により決定された行動を、そのときの「成長段階」に応じたレベルでペットロボット1に発現させ得るようになされている。
【0072】
(2−5)成長制御部34の構成
成長制御部34は、図7(A)に示すように、状態認識部30から与えられる状態認識情報S10に基づく各種状態のうち、「成長段階」を上げる際の参考要素とすべき上述の成長要素のリスト(以下、これを第1の成長要素リストと呼ぶ)40Aと、これら成長要素の累積度数をそれぞれ計数するための図7(B)のようなカウンタテーブル(以下、これを第1の成長要素カウンタテーブルと呼ぶ)41Aとをメモリ10A内に有している。
【0073】
そして成長制御部34は、状態認識部30から状態認識情報S10が与えられると、当該状態認識情報S10に基づき得られる状態が成長要素か否かを第1の成長要素リスト40Aに基づいて判断し、当該状態が成長要素である場合には第1の成長要素カウンタテーブル41A内の対応するカウント値(経験値)を1つ増加させる。
【0074】
また成長制御部34は、図8(A)に示すように、上述のように行動決定部32から与えられる行動決定情報S11に基づき得られる行動のうち、「成長段階」を上げる際の参考要素とすべき上述の成長要素のリスト(以下、これを第2の成長要素リストと呼ぶ)40Bと、これら成長要素の累積度数をそれぞれ計数するための図8(B)のようなカウンタテーブル(以下、これを第2の成長要素カウンタテーブルと呼ぶ)41Bとをメモリ10A内に有している。
【0075】
そして成長制御部34は、行動決定部32から行動決定情報S11が与えられると、当該行動決定情報S11に基づき得られる行動が成長要素か否かを第2の成長要素リスト40Bに基づいて判断し、当該行動が成長要素である場合には第2の成長要素カウンタテーブル41B内の対応するカウント値(経験値)を1つ増加させる。
【0076】
さらに成長制御部34は、上述のように第1又は第2の成長要素カウンタテーブル41A、41B内のカウント値を増加させたときには、これら第1及び第2の成長要素カウンタテーブル41A、41Bとは別に用意した「成長段階」を上げるか否かを判定するためのカウンタ(以下、これを総合経験値カウンタと呼ぶ)のカウント値を1増加させ、この後当該総合経験値カウンタのカウント値が現在の「成長段階」の終了条件として予め設定されたカウント値に達したか否かを判断する。
【0077】
そして成長制御部34は、総合経験値カウンタのカウント値が現在の「成長段階」の終了条件として予め設定されたカウント値に達した場合には、ペットロボット1の「性格」を次の「成長段階」におけるどの「性格」とするかを第1及び第2の成長要素カウンタテーブル41A、41B内の各カウント値に基づいて決定し、決定結果を性格指定情報S20として行動決定部32及び行動生成部33に出力する。なお成長制御部34は、初期時には「幼年期」の「性格」(Baby 1)を選択すべき旨の性格指定情報S20を行動決定部32及び行動生成部33に与える。
【0078】
この結果行動決定部32は、かかる性格指定情報S20に基づいて、メモリ10Aに格納されている複数の行動モデルの中から指定された「性格」と対応付けられた行動モデルを選択し、これ以降はこの行動モデルを用いて上述のように現在のペットロボット1の行動に対する次の行動を決定するようになる。
【0079】
また行動生成部33は、かかる性格指定情報S20に基づいて、指定された「成長段階」と対応付けられた「歩行状態」、「モーション」及び「サウンド」等についての制御パラメータを選択し、これ以降はこの制御パラメータを用いて各アクチュエータ211〜21n等を駆動する。
【0080】
このようにして成長制御部34は、ペットロボット1の「成長」を制御し得るようになされている。
【0081】
(3)行動決定部32の詳細構成
次にこのペットロボット1の行動決定部32の詳細構成について説明する。
【0082】
このペットロボット1では、当該ペットロボット1の行動をその内容に応じて図9のように「システム系」、「転倒復帰系」、「反応系」、「障害物回避系」、「感情がやや高いとき系」、「基本行動系」などの幾つかの系統(以下、これらを主分類系統と呼ぶ)50〜55、……に分け、これら各主分類系統50〜55、……ごとに、それぞれペットロボット1の「成長段階」や「性格」に応じた行動を発現し得るように1又は複数の行動モデルを用意している。
【0083】
またこのペットロボット1では、自律モード時における当該ペットロボット1の状態を、図10のようにしばらくの間ユーザからの入力がないときなどの状態である「退屈状態」と、ユーザやボールと遊んでいるときなどの状態である「わんぱく状態」、ボール等を探すなどして歩き回っている「お散歩状態」と、退屈そうにごろごろと寝ころがっているときなどの状態である「ぐうたら状態」と、座った姿勢でユーザと遊んでいる「おはなし/おしえて状態」と、寝ているときなどの状態である「おやすみ状態」の6つの基本状態に分け、これら6つの基本状態のうちの行動が発現されない「おやすみ状態」を除く残りの5つの基本状態にそれぞれ対応させて、「基本行動系」の主分類系統55を「退屈系」、「追跡系」、「歩き回り系」、「狸寝入り系」及び「インタラクション系」の5つの系統(以下、この系統を副分類系統と呼ぶ)55A〜55Eに分け、これら各副分類系統55A〜55Eごとにそれぞれペットロボット1の「性格」に応じた行動を発現し得るように複数の行動モデルを用意している。
【0084】
そして行動決定部32は、例えば成長制御部34から上述の性格指定情報S20が与えられた場合には、2以上の行動モデルが用意されている「基本行動系」以外の各主分類系統50〜54について、性格指定情報S20により指定された「性格」の行動を発現し得るように、予めその「性格」に対応付けられている行動モデルを1つ選択する。
【0085】
例えばこの図9の例では、指定された「性格」が幼児期の「おっとりとした性格」(Child 1)(図3)であったことから、「転倒復帰系」については転倒したときに復帰できずに呼ぶ又は失神するという行動を発現し易い「復帰できずに呼ぶ/失神」という行動モデルが選択され、「障害物回避系」については障害物に対して近寄らない行動を発現し易い「チキン(臆病者)」という行動モデルが選択されていることを示している。なお「システム系」、「反応系」及び「感情がやや高いとき系」については、もともと行動モデルが1つしか用意されていないため、それぞれ「Plane(平常)」という行動モデルが選択される。
【0086】
またこれと共に行動決定部32は、「基本行動系」の主分類系統55に関しても、当該「基本行動系」内の各副分類系統55A〜55Eについて、それぞれ性格指定情報S20により指定された「性格」の行動を発現し得るように、予めその「性格」に対応付けられている行動モデルを1つずつ選択する。
【0087】
例えば図9に示す例では、「退屈系」については「きょろ系」、「追跡系」については「ユーザ系」、「歩き回り系」については「ユーザ探索場所移動系」、「狸寝入り系」については「すやすや系」、「インタラクション系」については「すなお系」の行動モデルがそれぞれ選択されたことを示している。
【0088】
そして行動決定部32は、この後、状態認識部30から状態認識情報S10が与えられたときや、最後に行動を発現してから一定時間が経過したときなどに、「基本行動系」を除く主分類系統50〜54のうちの対応する全ての主分類系統50〜54の行動モデルをそれぞれ用いて次の行動をそれぞれ決定する。
【0089】
なおここでいう『対応する全ての主分類系統50〜54』とは、状態認識部30からの認識結果等に対して予め対応付けられている主分類系統50〜54のことを意味し、例えば状態認識部30からの「内部温度が所定温度以上となった」や「バッテリ残量が少なくなった」という認識結果に対しては「システム系」のみが対応付けられ、「転倒した」という認識結果に対しては「転倒復帰系」のみが対応付けられている。また最後に行動を発現してから一定時間が経過した場合に対しては、「感情がやや高いとき系」及び「基本行動系」が対応付けられている。従ってこの場合には、「感情がやや高いとき系」及び「基本行動系」のそれぞれの行動モデルを用いて続く行動がそれぞれ決定される。
【0090】
またこれと共に行動決定部32は、「基本行動系」については、状態認識部30からの認識結果等に対して予め対応付けられている1つの副分類系統55A〜55Eの行動モデルを用いて続く行動を決定する。例えば状態認識部30からの「ボールを検出した」との認識結果には、「追跡系」が対応付けられており、従ってこの場合には「追跡系」の行動モデルを用いて続く行動が決定される。
【0091】
そして行動決定部32は、上述のようにして対応する全ての主分類系統50〜54の各行動モデルや、対応する副分類系統55A〜55E内の1つの行動モデルを用いて次の行動を決定すると、この後これら決定した行動の中から予め定められた優先順位の高い主分類系統50〜55によって選択された行動を1つ選択し、当該選択した行動を上述のように行動決定情報S11として行動生成部32及び成長制御部34に通知する。因にこの実施の形態においては、図9において上側に表記された主分類系統50〜55ほど優先順位が高く設定されている。
【0092】
このようにしてこの行動決定部32は、そのときのペットロボット1の「性格」に応じた行動モデルを利用して続く行動を決定し得るようになされている。
【0093】
なおこの実施の形態においては、同じ「成長段階」の同じ「性格」のペットロボット1でも、それまでの外部からの入力履歴や自己の行動履歴に応じて、出力行動の難易度や煩雑さに変化を生じさせ得るようになされている。
【0094】
すなわちこのペットロボット1の場合、行動決定部32は、図11に示すように、各種芸や、大きな音に対する反応(LOUD)、動きの難易度(MOVE)、ボールに対する反応(BALL)及び好きな色に対する反応(FAV)などの幾つかの行動や動作について、同じ行動や動作でも難易度や煩雑さ等が異なる幾つかのパターンを有している。
【0095】
そして成長制御部34は、上述のようにペットロボット1の「成長段階」を上げる際に第1及び第2の成長要素カウンタテーブル41A、41B(図7(B)、図8(B))内の各カウント値に基づいて、かかる行動や動作についてそれぞれどのパターンの行動や動作を使用すべきかを行動決定部32に通知(以下、これを行動難易度指定通知と呼ぶ)する。例えばこの図11は「性格」が幼児期の「おっとりとした性格」(Child 1)(図3)である場合の一例を示すのもであり、この例では出力される各種芸については「稚拙」、大きな音に対する反応については「失神」、ボールに対する接触の仕方については「稚拙」、お手の仕方については「稚拙」が指定されたことを表す。
【0096】
また行動決定部32は、かかる行動難易度指定通知に基づいて、指定された行動や動作のパターンを選択し、かかる行動や動作についてそのパターンが発現されるように、図9に示す「基本行動系」に属する全ての行動モデル(「きょろ系」、「のんびり系」、……、「すやすや系」、「下品系」、……、「いたずら系」、「すなお系」、「独立系」、……、「FAV定住場所微少系」、「ボール探索場所移動系」、「ユーザ探索場所移動系」、……、「アイテム系」、「ユーザ系」、……)における対応する状態遷移表35(図6)内の対応する出力行動の欄を対応する出力行動に変更する。
【0097】
この結果「基本行動系」に属する行動モデルを用いて次の行動としてかかる行動や動作が選択されたときに、成長制御部34により指定されたパターンの行動や動作が発現されることとなる。
【0098】
このようにしてこのペットロボット1では、同じ「成長段階」の同じ「性格」のものであっても、各行動や動作ごとにそれぞれ異なるパターン(難易度・煩雑さ)の行動や動作を発現し得るようにすることができ、これによりペットロボット1に多様な個性をもたせ得るようになされている。
【0099】
(4)本実施の形態の動作及び効果
以上の構成において、このペットロボット1では、自律モード時における当該ペットロボット1の状態を複数の基本状態に分けたときの各基本状態ごとの行動モデル(図9の「基本状態系」の「退屈系」、「追跡系」、「歩き回り系」、「狸寝入り系」又は「インタラクション系」に属する各行動モデル)を用意し、これら行動モデルのうち、状態認識部30の認識結果等に応じた行動モデルを用いて行動決定部32において行動を決定し、当該決定した行動を発現するようにアクチュエータ211〜21n等を制御する。
【0100】
従ってこのペットロボット1では、それまで1つであった「基本状態系」の行動モデルの規模を縮小させてその取扱いを容易化させることができ、また基本状態の分け方によっては行動モデルの数を増加させることができるため、ペットロボット1の行動様式を多様化させることができる。
【0101】
以上の構成によれば、自律モード時における当該ペットロボット1の状態を複数の基本状態に分けたときの各基本状態ごとの行動モデル(図9の「基本状態系」の「退屈系」、「追跡系」、「歩き回り系」、「狸寝入り系」又は「インタラクション系」に属する各行動モデル)を用意し、これら行動モデルのうち、状態認識部30の認識結果等に応じた行動モデルを用いて行動決定部32において行動を決定し、当該決定した行動を発現するようにアクチュエータ211〜21n等を制御するようにしたことにより、行動モデルの規模を縮小させてその取扱いを容易化させることができると共に、基本状態の分け方によっては行動モデルの数を増加させることができることからペットロボット1の行動様式を多様化させることができ、かくして行動様式の変更及び多様化を容易化し得るペットロボットを実現できる。
【0102】
(5)他の実施の形態
なお上述の実施の形態においては、本発明を図1のように構成された4足歩行型のペットロボットに適用するようにした場合について述べたが、本発明はこれに限らず、要は、外部センサ及び又は内部センサの出力に基づいて外部及び又は内部の状態を認識し、認識結果に基づいて行動する自律型のロボット装置であるのならば、この他種々の形態のロボット装置に広く適用することができる。
【0103】
また上述の実施の形態においては、自律モード時におけるペットロボット1のの基本状態を「退屈状態」、「わんぱく状態」、「お散歩状態」、「ぐうたら状態」、「おはなし/おしえて状態」及び「おやすみ状態」の6つの状態に分けるようにした場合について述べたが、本発明はこれに限らず、この他種々の状態に分けるようにしても欲、また6以外の状態に分けるようにしても良い。
【0104】
さらに上述の実施の形態においては、各種行動モデルを記憶する記憶手段としてメモリ10Aを適用するようにした場合について述べたが、本発明はこれに限らず、これ以外の記憶手段を適用するようにしても良い。
【0105】
さらに上述の実施の形態においては、メモリ10Aに格納された各種行動モデルのうち、外部及び又は内部の状況に応じた行動モデルを用いて行動を決定する行動決定手段としての行動決定部32と、行動決定部32により決定された行動を発現するように所定の制御処理を実行する制御手段としての行動生成部33と、外部からの入力履歴及び又は自己の行動履歴に応じて、上記記憶手段に記憶された各上記行動モデルを変更する変更手段としての成長制御部34とを同じコントローラ10により構成するようにした場合について述べたが、本発明はこれに限らず、これらを別体として構成するようにしても良い。
【0106】
さらに上述の実施の形態においては、ペットロボット1の「成長段階」を上げる際に図9に示す「基本行動系」に属する各行動モデルの内容を変更するようにした場合について述べたが、本発明はこれに限らず、そのタイミングとしては「成長段階」を上げる以外のタイミングであっても良い。この場合においては、例えば外部からの入力履歴及び又は自己の行動履歴に基づく学習によりそのタイミングを設定するようにすれば良い。
【0107】
【発明の効果】
上述のように本発明によれば、外部センサ及び内部センサのうち少なくともいずれか一方の出力に基づいて外部及び内部のうち少なくともいずれか一方の状況を認識し、外部及び内部のうち少なくともいずれか一方の状況のうち、予め定められた成長に関する複数の成長要素の累積度を当該成長要素ごとにカウントするカウンタと、成長要素の累積度の合計に応じ、次の成長段階へ移行すると共に、行動パターンの系列である基本行動系が定められた複数の性格から成長要素の累積度に応じた性格を選択し、成長要素の累積度に応じて基本行動系に属する行動パターンに対する難易度を設定する成長制御部と、外部及び内部のうち少なくともいずれか一方の状況に対し、選択された性格における基本行動系から、設定された難易度でなる行動パターンを選択する行動決定部と、行動決定部によって選択された行動パターンに従って行動するよう、駆動部を制御する駆動制御部とを設けるようにしたことにより、行動パターンのバリエーションを増加させることができ、かくして行動様式の変更及び多様化を容易かし得るロボット装置を実現できる。
【0108】
また本発明によれば、外部センサ及び内部センサのうち少なくともいずれか一方の出力に基づいて外部及び内部のうち少なくともいずれか一方の状況を認識し、外部及び内部のうち少なくともいずれか一方の状況のうち、予め定められた成長に関する複数の成長要素の累積度を当該成長要素ごとにカウントするカウンタステップと、成長要素の累積度の合計に応じ、次の成長段階へ移行すると共に、行動パターンの系列である基本行動系が定められた複数の性格から成長要素の累積度に応じた性格を選択し、成長要素の累積度に応じて基本行動系に属する行動パターンに対する難易度を設定する成長制御ステップと、外部及び内部のうち少なくともいずれか一方の状況に対し、選択された性格における基本行動系から、設定された難易度でなる行動パターンを選択する行動決定ステップと、行動決定部によって選択された行動パターンに従って行動するよう、駆動部を制御する駆動制御ステップとを設けるようにしたことにより、行動パターンのバリエーションを増加させることができ、かくして行動様式の変更及び多様化を容易かし得るロボット装置を実現できる。
【図面の簡単な説明】
【図1】本実施の形態によるペットロボットの外観構成を示す斜視図である。
【図2】本実施の形態によるペットロボットの内部構成を示すブロック図である。
【図3】ペットロボットの「成長」の説明に供する概念図である。
【図4】コントローラの処理の説明に供するブロック図である。
【図5】確率オートマトンを示す概念図である。
【図6】状態遷移表を示す概念図である。
【図7】第1の成長要素リスト及び第1の成長要素カウンタテーブルの説明に供する概念図である。
【図8】第2の成長要素リスト及び第2の成長要素カウンタテーブルの説明に供する概念図である。
【図9】行動決定部の説明に供する概念図である。
【図10】自律モード時におけるペットロボットの各種基本状態の説明に供する略線図である。
【図11】自律モード時におけるペットロボットの各種基本状態の説明に供する略線図である。
【符号の説明】
1……ペットロボット、10……コントローラ、10A……メモリ、30……状態認識部、31……感情・本能モデル部、32……行動決定部、33……行動生成部、34……成長制御部、50〜55……主分類系統、55A〜55E……副分類系統、S10……状態認識情報、S11……行動決定情報、S20……性格指定情報。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot apparatus and a control method thereof, and is suitably applied to, for example, a pet robot.
[0002]
[Prior art]
In recent years, a pet robot designed to behave autonomously according to an instruction from a user and the surrounding environment has been developed by the present applicant. Such a pet robot has an appearance resembling a dog or a cat bred in a general home, and is based on the output of a CCD (Charge Coupled Device) camera, a microphone, a touch sensor, and the like disposed in each predetermined part. It recognizes the internal situation, the command from the user, the presence or absence of an action, and the like, and acts based on the recognition result.
[0003]
[Problems to be solved by the invention]
By the way, in such a conventional pet robot, it is constructed so as to determine an action to be expressed by using a single model that defines a behavior mode called a behavior model. There was a problem that was difficult to diversify.
[0004]
The present invention has been made in view of the above points, and an object of the present invention is to propose a robot apparatus and a control method thereof that can facilitate the change and diversification of behavior patterns.
[0005]
[Means for Solving the Problems]
In order to solve this problem, in the present invention, At least one of external sensor and internal sensor Based on the output of At least one of the external and internal situations Recognize In addition, according to a counter that counts the cumulative degree of a plurality of growth factors related to a predetermined growth in each of the growth factors in at least one of the external and internal situations, While moving to the next growth stage, select a personality according to the cumulative degree of growth elements from a plurality of personalities with basic behavioral systems that are a series of behavior patterns, and select basic behavioral systems according to the cumulative degree of growth elements Select the behavior pattern with the set difficulty level from the basic behavior system with the selected personality for the growth control unit that sets the difficulty level for the behavior pattern belonging to and at least one of the external and internal situations A behavior control unit that controls the drive unit to act according to the behavior pattern selected by the behavior determination unit; It was made to provide.
[0006]
As a result, this robotic device ,line Movement pattern The variation of can be increased.
[0007]
In the present invention, At least one of external sensor and internal sensor Based on the output of At least one of the external and internal situations Recognize In addition, a counter step for counting the cumulative degree of a plurality of growth factors relating to a predetermined growth in at least one of the external and internal situations for each growth factor, and depending on the total cumulative factor of the growth factors In addition to moving to the next growth stage, select a personality according to the cumulative degree of growth factors from a plurality of personalities with a basic behavior system that is a series of behavior patterns, and select basic behavior according to the cumulative degree of growth factors A growth control step for setting a difficulty level for an action pattern belonging to the system, and an action pattern having a set difficulty level from the basic action system for the selected character for at least one of the external and internal situations. An action determining step to select, and a drive control step to control the drive unit to act according to the action pattern selected by the action determining unit; It was made to provide.
[0008]
As a result, this robotic device ,line Movement pattern The variation of can be increased.
[0009]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0010]
(1) Configuration of
In FIG. 1, 1 indicates a pet robot according to the present embodiment as a whole, and
[0011]
In this case, as shown in FIG. 2, the
[0012]
The
[0013]
Further, the joint portions of the leg units 3A to 3D, the connecting portions of the leg units 3A to 3D and the
[0014]
Then, the
[0015]
Further, as apparent from FIG. 1, the
[0016]
On the other hand, the
[0017]
The
[0018]
Then, the
[0019]
At this time, the
[0020]
In this way, the
[0021]
In addition to such a configuration, in the case of this
[0022]
That is, as shown in FIG. 3, the
[0023]
Then, the
[0024]
At this time, the
[0025]
Based on the cumulative frequencies of these growth factors, the
[0026]
Then, the
[0027]
Further, the
[0028]
As a result, the
[0029]
In this way, the
[0030]
In the case of this embodiment, as is apparent from FIG. 3, a plurality of “characters” are prepared for each “growth stage” of “boyhood”, “adolescence”, and “adulthood”.
[0031]
In practice, for example, “boyhood” “personality” includes “rough personality” (Child 1), and “moist personality” (Child 2) that is smoother and slower than this. is there.
[0032]
Also, as the “personality” of “Youth”, “Iraira character” (Young 1), which is slower and smoother than the “rough personality” of “Youth”, the slower and smoother “ There are “ordinary personality” (Young 2) and “soft character” (Young 3) that is slower than this and has a small amount of action.
[0033]
Furthermore, as the “personality” of “adulthood”, the “aggressive personality” (which is more complicated and faster than the “irritated personality” of “adolescence” and difficult to move in response to commands from the user ( “Adult 1)” and “Slightly rough personality” (Adult 2) that makes the movement smoother and slower than this, and can easily move according to the command from the user. “Slightly gentle personality” (Adult 3) that always moves according to the command from the user, and this makes the movement even slower, the amount of action is small, and the movement according to the command from the user There is always a “gentle character” (Adult 4).
[0034]
Then, when increasing the “growth stage”, the
[0035]
In this case, after “boyhood”, when moving to the next “growth stage”, the “character” of the next “growth stage” that can be transitioned from the “character” of the current “growth stage” has been determined. You can only transition between “characters” connected by arrows. Therefore, for example, when “rough personality” (Child 1) is selected in “boyhood”, it is not possible to transition to “moist personality” (Young 3) in “adolescence”.
[0036]
In this way, in this pet robot, according to the action from the user, the command input history, and the self action history, as if a real animal forms a personality according to the way of breeding the owner, etc. The “personality” is changed along with the “growth”. A method for causing the
[0037]
(2) Processing of
Next, specific processing of the
[0038]
The
[0039]
Hereinafter, the
[0040]
(2-1) Configuration of
The
[0041]
In practice, the
[0042]
In addition, the
[0043]
Further, the
[0044]
Further, the
[0045]
(2-2) Configuration of Emotion / Instinct Model Unit 31
The emotion / instinct model unit 31 is a parameter that represents the strength of emotion for each of the six emotions of “joy”, “sadness”, “surprise”, “fear”, “disgust”, and “anger”. Holding. Then, the emotion / instinct model unit 31 sets the parameter value of each emotion as a specific recognition result such as “struck” or “boiled” given as state recognition information S10 from the
[0046]
Specifically, the emotion / instinct model unit 31 determines whether the recognition result obtained based on the state recognition information S10 and the output action based on the action determination information S11 act on the emotion (set in advance), Recognize the amount of change in the emotion calculated by a predetermined arithmetic expression based on the degree of suppression and stimulation received from the emotion, the elapsed time, etc., and the current parameter value of the emotion as E [t] A coefficient representing the rate of changing the emotion according to the result etc. e As follows:
[0047]
[Expression 1]
[0048]
Is used to calculate the parameter value E [t + 1] of the emotion in the next cycle.
[0049]
Then, the emotion / instinct model unit 31 updates the parameter value of the emotion so as to replace the calculation result with the current parameter value E [t] of the emotion. It should be noted that the emotion parameter value to be updated for each recognition result and each output action is determined in advance. For example, when a recognition result such as “struck” is given, the emotion of “anger” When the parameter value increases, the parameter value of the emotion of “joy” decreases, and when the recognition result such as “boiled” is given, the parameter value of the emotion of “joy” increases and “sadness” and “anger” The parameter value of each emotion is lowered.
[0050]
In the same manner, the emotion / instinct model unit 31 has five independent needs for “exercise greed”, “loving lust”, “appetite”, “curiosity” and “sleep greed” for each of these needs. A parameter value representing the strength of the desire is held. Then, the emotion / instinct model unit 31 sequentially updates the parameter values of each desire based on the recognition result from the
[0051]
Specifically, the emotion / instinct model unit 31 calculates “exercise greed”, “loving greed”, and “curiosity” by a predetermined arithmetic expression based on the output behavior, elapsed time, recognition result, and the like of the
[0052]
[Expression 2]
[0053]
Is used to calculate the parameter value I [k + 1] of the desire in the next cycle, and the parameter value of the desire is updated so that the calculation result is replaced with the current parameter value I [k] of the desire. In this case, the parameter value of the desire to be changed with respect to the output action, the recognition result, or the like is determined in advance. For example, when there is a notification from the
[0054]
Further, the emotion / instinct model unit 31 sets the remaining battery level for “appetite” to B based on the remaining battery level detection signal S2A (FIG. 2) given through the
[0055]
[Equation 3]
[0056]
Thus, the parameter value [k + 1] of “appetite” is calculated, and the parameter value of “appetite” is updated so that the calculation result is replaced with the parameter value I [k] of the current appetite.
[0057]
Further, the emotion / instinct model unit 41 increases / decreases the parameter value for every predetermined time with “sleep desire” as one synchronization per day.
[0058]
In the present embodiment, the parameter values of each emotion and each desire are regulated so as to vary in the range from 0 to 100, respectively, and the coefficient k e , K i The value of is also set individually for each emotion and each desire.
[0059]
(2-3) Configuration of the
The
[0060]
In this
[0061]
More specifically, the
[0062]
Here, in the state transition table 35, the node NODE 0 ~ NODE n Input events (recognition results of the state recognition unit 30) are listed in the “input event” row in priority order, and further conditions for the conditions correspond to the “data name” and “data range” rows. It is described in the column.
[0063]
Therefore, the node NODE defined in the state transition table 35 of FIG. 100 Then, when the recognition result “ball detected (BALL)” is given, the “size (SIZE)” of the ball given together with the recognition result is “range from 0 to 100 (0, 1000)”. Or when the recognition result “OBSTACLE” is given, the “distance” to the obstacle given together with the recognition result is in the range of 0 to 1000 (0 , 1000) ”is self or another node NODE 0 ~ NODE n This is a condition for transitioning to.
[0064]
This node NODE 100 Then, even when there is no input of the recognition result, “joy” or “SUPRISE” among the emotion and instinct model unit 31 parameter values of the emotions and instinct model unit 31 that the
[0065]
Further, in the state transition table 35, the node NODE appears in the “transition destination node” column in the “transition probability to other node” column. 0 ~ NODE n Some nodes NODE that can transition from 0 ~ NODE n And the node NODE when all the conditions described in the “input event name”, “data value”, and “data range” lines are met. 0 ~ NODE n The node NODE in the column of “transition probability to other node” is the transition probability to 0 ~ NODE n The action and action output at this time are described in the “output action” line. Note that the sum of the transition probabilities of each row in the “transition probability to other node” column is 100 [%].
[0066]
Therefore, the node NODE in this example 100 Then, for example, when a “ball is detected (BALL)” and a recognition result is given that the “size (SIZE)” of the ball is “range from 0 to 1000 (0, 1000)”, “ “NODE NODE” with a probability of 30% 120 (Node 120) ", and the action or action of"
[0067]
Each behavior model is represented by a node NODE described as such a state transition table 35. 0 ~ NODE n Is formed to connect several.
[0068]
Thus, the
[0069]
(2-4) Configuration of action generation unit 33
The behavior generation unit 33 corresponds to each “growth stage”, and the behavior and actions such as “walking state”, “motion”, and “sound” of “growth level” corresponding to the “growth stage”. 1 has various control parameters for causing it to appear in the
[0070]
Then, when the action determination information S11 is given from the
[0071]
In this way, the behavior generation unit 33 can cause the
[0072]
(2-5) Configuration of the
As shown in FIG. 7A, the
[0073]
Then, when the state recognition information S10 is given from the
[0074]
Further, as shown in FIG. 8A, the
[0075]
Then, when the behavior determination information S11 is given from the
[0076]
Further, when the
[0077]
Then, when the count value of the total experience value counter reaches the preset count value as the current “growth stage” end condition, the
[0078]
As a result, the
[0079]
The behavior generation unit 33 selects control parameters for “walking state”, “motion”, “sound”, and the like associated with the designated “growth stage” based on the personality designation information S20. Thereafter, each actuator 21 is used using this control parameter. 1 ~ 21 n Drive etc.
[0080]
In this way, the
[0081]
(3) Detailed configuration of the
Next, a detailed configuration of the
[0082]
In this
[0083]
Further, in this
[0084]
For example, when the above-described personality designation information S20 is given from the
[0085]
For example, in the example of FIG. 9, since the designated “personality” was the “moist personality” (Child 1) (FIG. 3) in early childhood, the “falling recovery system” is restored when it falls. The behavior model of “calling without returning / fainting” that is easy to express the behavior of calling or fainting is selected, and the “obstacle avoidance system” is likely to exhibit the behavior that does not approach the obstacle. This shows that the behavior model “chicken” is selected. For “system system”, “reaction system”, and “system when emotion is slightly high”, only one behavior model is originally prepared, and therefore an action model of “Plane (normal)” is selected.
[0086]
At the same time, the
[0087]
For example, in the example shown in FIG. 9, the “boring system” is “choro system”, the “tracking system” is “user system”, the “walking system” is “user search location moving system”, and the “sleeping system”. For "Susaya" and "Interaction", the action model of "Sunao" is selected.
[0088]
Then, the
[0089]
Here, “all corresponding
[0090]
In addition, the
[0091]
Then, the
[0092]
In this way, the
[0093]
In this embodiment, even the
[0094]
That is, in the case of this
[0095]
When the
[0096]
Further, the
[0097]
As a result, when the action or action is selected as the next action using the action model belonging to the “basic action system”, the action or action of the pattern designated by the
[0098]
In this way, in this
[0099]
(4) Operation and effect of the present embodiment
In the above configuration, in the
[0100]
Accordingly, in this
[0101]
According to the above configuration, the behavior model for each basic state when the state of the
[0102]
(5) Other embodiments
In the above-described embodiment, the case where the present invention is applied to the quadruped walking pet robot configured as shown in FIG. 1 is described. However, the present invention is not limited to this, If it is an autonomous robot device that recognizes the external and / or internal state based on the output of the external sensor and / or the internal sensor and acts based on the recognition result, it can be widely applied to various other types of robot devices. can do.
[0103]
In the above-described embodiment, the basic states of the
[0104]
Further, in the above-described embodiment, the case where the
[0105]
Furthermore, in the above-described embodiment, the
[0106]
Further, in the above-described embodiment, the case where the contents of each behavior model belonging to the “basic behavior system” shown in FIG. 9 is changed when raising the “growth stage” of the
[0107]
【The invention's effect】
As described above, according to the present invention, At least one of external sensor and internal sensor Based on the output of At least one of the external and internal situations Recognize In addition, according to a counter that counts the cumulative degree of a plurality of growth factors related to a predetermined growth in each of the growth factors in at least one of the external and internal situations, While moving to the next growth stage, select a personality according to the cumulative degree of growth elements from a plurality of personalities with basic behavioral systems that are a series of behavior patterns, and select basic behavioral systems according to the cumulative degree of growth elements Select the behavior pattern with the set difficulty level from the basic behavior system with the selected personality for the growth control unit that sets the difficulty level for the behavior pattern belonging to and at least one of the external and internal situations A behavior control unit that controls the drive unit to act according to the behavior pattern selected by the behavior determination unit; By providing ,line Movement pattern Thus, a robot apparatus that can easily change and diversify behavior patterns can be realized.
[0108]
Also according to the invention, At least one of external sensor and internal sensor Based on the output of At least one of the external and internal situations Recognize In addition, a counter step for counting the cumulative degree of a plurality of growth factors relating to a predetermined growth in at least one of the external and internal situations for each growth factor, and depending on the total cumulative factor of the growth factors In addition to moving to the next growth stage, select a personality according to the cumulative degree of growth factors from a plurality of personalities with a basic behavior system that is a series of behavior patterns, and select basic behavior according to the cumulative degree of growth factors A growth control step for setting a difficulty level for an action pattern belonging to the system, and an action pattern having a set difficulty level from the basic action system for the selected character for at least one of the external and internal situations. An action determining step to select, and a drive control step to control the drive unit to act according to the action pattern selected by the action determining unit; By providing ,line Movement pattern Thus, a robot apparatus that can easily change and diversify behavior patterns can be realized.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an external configuration of a pet robot according to an embodiment.
FIG. 2 is a block diagram showing an internal configuration of the pet robot according to the present embodiment.
FIG. 3 is a conceptual diagram for explaining “growth” of a pet robot.
FIG. 4 is a block diagram for explaining processing of a controller.
FIG. 5 is a conceptual diagram showing a stochastic automaton.
FIG. 6 is a conceptual diagram showing a state transition table.
FIG. 7 is a conceptual diagram for explaining a first growth factor list and a first growth factor counter table.
FIG. 8 is a conceptual diagram for explaining a second growth factor list and a second growth factor counter table.
FIG. 9 is a conceptual diagram for explaining an action determination unit.
FIG. 10 is a schematic diagram for explaining various basic states of the pet robot in the autonomous mode.
FIG. 11 is a schematic diagram for explaining various basic states of the pet robot in the autonomous mode.
[Explanation of symbols]
DESCRIPTION OF
Claims (4)
上記成長要素の累積度の合計に応じ、次の成長段階へ移行すると共に、行動パターンの系列である基本行動系が定められた複数の性格から上記成長要素の累積度に応じた性格を選択し、上記成長要素の累積度に応じて上記基本行動系に属する行動パターンに対する難易度を設定する成長制御部と、
上記外部及び内部のうち少なくともいずれか一方の状況に対し、上記選択された性格における上記基本行動系から、上記設定された難易度でなる行動パターンを選択する行動決定部と、
上記行動決定部によって選択された行動パターンに従って行動するよう、駆動部を制御する駆動制御部と
を有するロボット装置。Recognize at least one of the external and internal situations based on the output of at least one of the external and internal sensors, and determine a predetermined growth of at least one of the external and internal situations. A counter that counts the cumulative degree of a plurality of growth factors for each growth factor;
Depending on the total growth factor accumulation level, the system proceeds to the next growth stage, and selects a personality corresponding to the growth factor accumulation level from a plurality of personalities with basic behaviors that are a series of behavior patterns. A growth control unit that sets a difficulty level for an action pattern belonging to the basic action system according to a cumulative degree of the growth element;
An action determination unit that selects an action pattern having the set difficulty level from the basic action system in the selected personality for at least one of the external and internal situations;
And a drive control unit that controls the drive unit to act according to the behavior pattern selected by the behavior determination unit.
次の成長段階へ移行する際、前の性格に応じて次の性格を選択する
請求項1に記載のロボット装置。The growth control unit
The robot apparatus according to claim 1 , wherein when moving to the next growth stage, the next character is selected according to the previous character.
動物型ロボット装置における手や足を駆動するアクチュエータでなる
請求項2に記載のロボット装置。The drive unit is
The robot apparatus according to claim 2 , comprising an actuator that drives a hand or a foot in an animal type robot apparatus.
上記成長要素の累積度の合計に応じ、次の成長段階へ移行すると共に、行動パターンの系列である基本行動系が定められた複数の性格から上記成長要素の累積度に応じた性格を選択し、上記成長要素の累積度に応じて上記基本行動系に属する行動パターンに対する難易度を設定する成長制御ステップと、
上記外部及び内部のうち少なくともいずれか一方の状況に対し、上記選択された性格における上記基本行動系から、上記設定された難易度でなる行動パターンを選択する行動決定ステップと、
上記行動決定部によって選択された行動パターンに従って行動するよう、駆動部を制御する駆動制御ステップと
を有するロボット装置の制御方法。Recognize at least one of the external and internal situations based on the output of at least one of the external and internal sensors, and determine a predetermined growth of at least one of the external and internal situations. A counter step for counting the cumulative degree of a plurality of growth factors for each growth factor;
Depending on the total growth factor accumulation level, the system proceeds to the next growth stage, and selects a personality corresponding to the growth factor accumulation level from a plurality of personalities with basic behaviors that are a series of behavior patterns. A growth control step for setting a difficulty level for the behavior pattern belonging to the basic behavior system according to a cumulative degree of the growth factor;
An action determining step of selecting an action pattern having the set difficulty level from the basic action system in the selected character for at least one of the external and internal situations;
A control method for a robot apparatus, comprising: a drive control step for controlling the drive unit so as to behave according to the behavior pattern selected by the behavior determination unit.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000350278A JP4419035B2 (en) | 2000-10-11 | 2000-10-11 | Robot apparatus and control method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000350278A JP4419035B2 (en) | 2000-10-11 | 2000-10-11 | Robot apparatus and control method thereof |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002120182A JP2002120182A (en) | 2002-04-23 |
| JP4419035B2 true JP4419035B2 (en) | 2010-02-24 |
Family
ID=18823537
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2000350278A Expired - Fee Related JP4419035B2 (en) | 2000-10-11 | 2000-10-11 | Robot apparatus and control method thereof |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4419035B2 (en) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4042108B2 (en) | 2003-02-19 | 2008-02-06 | ソニー株式会社 | Robot apparatus and control method thereof |
| JP2013099800A (en) * | 2011-11-07 | 2013-05-23 | Fujitsu Ltd | Robot, method for controlling robot, and control program |
| WO2019151387A1 (en) * | 2018-01-31 | 2019-08-08 | Groove X株式会社 | Autonomous behavior robot that behaves on basis of experience |
| JP7613443B2 (en) * | 2022-09-21 | 2025-01-15 | カシオ計算機株式会社 | Device control device, device, device control method and program |
-
2000
- 2000-10-11 JP JP2000350278A patent/JP4419035B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2002120182A (en) | 2002-04-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6445978B1 (en) | Robot device and method for controlling the same | |
| US8483873B2 (en) | Autonomous robotic life form | |
| EP1120740B1 (en) | Robot device, its control method, and recorded medium | |
| US7117190B2 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
| EP1508409A1 (en) | Robot device and robot control method | |
| US6711467B2 (en) | Robot apparatus and its control method | |
| US7063591B2 (en) | Edit device, edit method, and recorded medium | |
| JPWO2000043167A1 (en) | Robot device and operation control method | |
| JP3277500B2 (en) | Robot device | |
| JP4419035B2 (en) | Robot apparatus and control method thereof | |
| JP2003340760A (en) | Robot apparatus, robot control method, recording medium, and program | |
| JP2002178282A (en) | Robot apparatus and control method thereof | |
| JP4524524B2 (en) | Robot apparatus and control method thereof | |
| JP2003208161A (en) | Robot apparatus and control method thereof | |
| JP2002120179A (en) | Robot apparatus and control method therefor | |
| JP2001157982A (en) | Robot apparatus and control method therefor | |
| JP2001157980A (en) | Robot apparatus and control method therefor | |
| JP2001154707A (en) | Robot apparatus and control method therefor | |
| JP2001157984A (en) | Robot apparatus and operation control method for robot apparatus | |
| JP2001157977A (en) | Robot apparatus and control method therefor | |
| JP2002264057A (en) | Robot apparatus, behavior control method for robot apparatus, program, and recording medium | |
| JP2003136451A (en) | Robot apparatus and control method thereof | |
| JP2001353674A (en) | Robot device | |
| JP2001157978A (en) | Robot apparatus and control method therefor | |
| JPWO2000067961A1 (en) | Robot device and control method thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070307 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081215 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081218 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090212 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090903 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091009 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091105 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091118 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121211 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121211 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |