JP2001191282A - Robot apparatus and control method therefor - Google Patents
Robot apparatus and control method thereforInfo
- Publication number
- JP2001191282A JP2001191282A JP37727699A JP37727699A JP2001191282A JP 2001191282 A JP2001191282 A JP 2001191282A JP 37727699 A JP37727699 A JP 37727699A JP 37727699 A JP37727699 A JP 37727699A JP 2001191282 A JP2001191282 A JP 2001191282A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- data
- control data
- action
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
- Feedback Control In General (AREA)
- Toys (AREA)
Abstract
(57)【要約】
【課題】本発明は、アミューズメント性をより一層向上
させ得るロボット装置及びその制御方法を実現しようと
するものである。
【解決手段】第1の制御データに基づいて行動するロボ
ット装置及びその制御方法において、周囲及び又は自己
の状態を認識した後、当該認識結果のうち、特定の認識
結果が得られたとき、第1の制御データを、特定の認識
結果に対応する生物を模倣して行動するための第2の制
御データに変更するようにした。
An object of the present invention is to realize a robot apparatus and a control method thereof that can further improve amusement. In a robot apparatus and a control method thereof that act based on first control data, after recognizing a surrounding and / or a self state, when a specific recognition result is obtained among the recognition results, a second step is performed. The first control data is changed to the second control data for imitating a living thing corresponding to a specific recognition result.
Description
【0001】[0001]
【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and a control method therefor, and is suitably applied to, for example, a pet robot.
【0002】[0002]
【従来の技術】近年、ユーザからの指令や周囲の環境に
応じて行動を行う4足歩行型のペットロボットが本願特
許出願人から提案及び開発されている。かかるペットロ
ボットは、一般家庭において飼育される犬や猫に似た形
状を有し、ユーザからの指令や周囲の環境に応じて自律
的に行動するものである。2. Description of the Related Art In recent years, a pet robot of a four-legged walking type that performs an action in response to a command from a user or the surrounding environment has been proposed and developed by the present applicant. Such a pet robot has a shape similar to a dog or cat bred in a general household, and acts autonomously in response to a command from a user or a surrounding environment.
【0003】一般に汎用されている自律型ペットロボッ
トは、外形形状によって模倣できる生物の種類が限定さ
れており、通常は設計時に特定された一種類の生物の動
きのみ模倣するようになされている。[0003] In general, an autonomous pet robot generally used is limited in the type of creature that can be imitated depending on the outer shape, and usually imitates only the movement of one type of creature specified at the time of design.
【0004】[0004]
【発明が解決しようとする課題】ところで、近年の自律
型のペットロボットは、比較的多くの自由度を有してい
るため、単一のペットロボットに複数種類の生物を模倣
させることができれば、ユーザに飽きを感じさせるのを
防止して、より一層のアミューズメント性の向上を図れ
るものと考えられる。By the way, recent autonomous pet robots have relatively many degrees of freedom, so if a single pet robot can imitate multiple types of living things, It is considered that it is possible to prevent the user from getting tired and to further improve the amusement.
【0005】かかるペットロボットとして、モジュール
型や群ロボットのように合体などの動作により形状を変
更させるものは本願特許出願人により提案されている
(特願平8−57159号)。しかしながら特願平8−
57159号に開示されたペットロボットにおいては、
ユーザの好みに応じた種々の生物を模倣させるものは未
だ提案されていなかった。As such a pet robot, one that changes its shape by an operation such as uniting, such as a modular robot or a group robot, has been proposed by the present applicant (Japanese Patent Application No. 8-57159). However, Japanese Patent Application Hei 8-
In the pet robot disclosed in No. 57159,
What imitates various creatures according to the user's preference has not yet been proposed.
【0006】本発明は以上の点を考慮してなされたもの
で、アミューズメント性をより一層向上させ得るロボッ
ト装置及びその制御方法を提案しようとするものであ
る。The present invention has been made in view of the above points, and an object of the present invention is to propose a robot apparatus which can further improve amusement properties and a control method thereof.
【0007】[0007]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、第1の制御データに基づいて行動
するロボット装置において、周囲及び又は自己の状態を
認識する状態認識手段と、当該状態認識手段による認識
結果のうち、特定の認識結果が得られたとき、第1の制
御データを、特定の認識結果に対応する生物を模倣して
行動するための第2の制御データに変更するデータ変更
手段とを設けるようにした。According to the present invention, there is provided a robot apparatus which acts on the basis of first control data, comprising: state recognition means for recognizing a surrounding and / or own state; Data for changing the first control data to the second control data for imitating an organism corresponding to the specific recognition result when a specific recognition result is obtained among the recognition results by the recognition means. A change means is provided.
【0008】この結果このロボット装置では、周囲及び
又は自己の状態のうち特定の認識結果が得られたときに
は、現在の状態にかかわらず、当該認識結果に応じた生
物を模倣して行動させることができる。As a result, in this robot apparatus, when a specific recognition result among the surrounding and / or self states is obtained, regardless of the current state, it is possible to imitate the creature according to the recognition result and act. it can.
【0009】また本発明においては、第1の制御データ
に基づいて行動するロボット装置の制御方法において、
周囲及び又は自己の状態を認識した後、当該認識結果の
うち、特定の認識結果が得られたとき、第1の制御デー
タを、特定の認識結果に対応する生物を模倣して行動す
るための第2の制御データに変更するようにした。Further, according to the present invention, there is provided a method for controlling a robot apparatus acting based on first control data,
After recognizing the surrounding and / or self state, when a specific recognition result is obtained among the recognition results, the first control data is used to imitate an organism corresponding to the specific recognition result. The control data is changed to the second control data.
【0010】この結果このロボット装置の制御方法で
は、周囲及び又は自己の状態のうち特定の認識結果が得
られたときには、現在の状態にかかわらず、当該認識結
果に応じた生物を模倣して行動させることができる。As a result, according to the control method of the robot apparatus, when a specific recognition result is obtained among the surrounding and / or self states, the behavior is imitated by imitating an organism corresponding to the recognition result regardless of the current state. Can be done.
【0011】[0011]
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.
【0012】(1)本実施の形態によるペットロボット
の構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。(1) Configuration of Pet Robot According to the Present Embodiment In FIG. 1, reference numeral 1 denotes a pet robot according to the present embodiment as a whole, and leg units 3A to 3D are respectively connected to the front, rear, left and right of a body unit 2. The head unit 4 and the tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.
【0013】この場合胴体部ユニット2には、図2に示
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
してのバッテリ11と、バッテリセンサ12及び熱セン
サ13と、内部メモリ14A及び着脱自在に装填された
外部メモリ14Bとなどが収納されている。In this case, as shown in FIG. 2, a controller 10 for controlling the entire operation of the pet robot 1, a battery 11 as a power source of the pet robot 1, a battery sensor 12 and A heat sensor 13, an internal memory 14A, an external memory 14B which is detachably mounted, and the like are stored.
【0014】また頭部ユニット4には、このペットロボ
ット1の「耳」に相当するマイクロホン15、「目」に
相当するCCD(Charge Coupled De
vice)カメラ16及びタッチセンサ17と、「口」
に相当するスピーカ20となどがそれぞれ所定位置に配
設されている。The head unit 4 has a microphone 15 corresponding to the "ears" of the pet robot 1 and a CCD (Charge Coupled De) corresponding to the "eyes".
vice) camera 16 and touch sensor 17 and "mouth"
Are disposed at predetermined positions, respectively.
【0015】さらに各脚部ユニット3A〜3Dの関節部
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5及び胴体部ユニット
2の連結部分などにはそれぞれアクチュエータ191〜
19nが配設されている。Further, the joints of the leg units 3A to 3D, the leg units 3A to 3D and the trunk unit 2
Each coupling portion of the coupling portion of the head unit 4 and body unit 2, and each actuator 19 1 ~ is like the connecting portions of the tail unit 5 and the body unit 2
19 n are provided.
【0016】そして頭部ユニット4のマイクロホン15
は、ユーザから図示しないサウンドコマンダを介して音
階として与えられる「歩け」、「伏せ」又は「ボールを
追いかけろ」などの指令音を集音し、得られた音声信号
S1をコントローラ10に送出する。またCCDカメラ
16は、周囲の状況を撮像し、得られた画像信号S2を
コントローラ10に送出する。The microphone 15 of the head unit 4
Collects command sounds such as “walk”, “down” or “chase the ball” given as a musical scale by a user via a sound commander (not shown), and sends the obtained audio signal S1 to the controller 10. Further, the CCD camera 16 captures an image of the surroundings, and sends the obtained image signal S2 to the controller 10.
【0017】さらにタッチセンサ17は、図1において
明らかなように、頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出し、検出結果を圧力
検出信号S3としてコントローラ10に送出する。Further, as apparent from FIG. 1, the touch sensor 17 is provided on the upper part of the head unit 4 and detects a pressure received by a physical action such as “stroke” or “hit” from the user. Then, the detection result is sent to the controller 10 as a pressure detection signal S3.
【0018】さらに胴体部ユニット2のバッテリセンサ
12は、バッテリ11のエネルギー残量を検出し、検出
結果をバッテリ残量検出信号S4としてコントローラ1
0に送出し、熱センサ13は、ペットロボット1内部の
熱を検出して検出結果を熱検出信号S5としてコントロ
ーラ10に送出する。Further, the battery sensor 12 of the body unit 2 detects the remaining energy of the battery 11 and uses the detection result as a remaining battery detection signal S4.
0, the heat sensor 13 detects the heat inside the pet robot 1 and sends the detection result to the controller 10 as a heat detection signal S5.
【0019】コントローラ10は、マイクロホン15、
CCDカメラ16、タッチセンサ17、バッテリセンサ
12及び熱センサ13から与えられる音声信号S1、画
像信号S2、圧力検出信号S3、バッテリ残量信号S4
及び熱検出信号S5などに基づいて、周囲の状況や、ユ
ーザからの指令及びユーザからの働きかけの有無などを
判断する。The controller 10 includes a microphone 15,
Audio signal S1, image signal S2, pressure detection signal S3, remaining battery signal S4 provided from CCD camera 16, touch sensor 17, battery sensor 12 and heat sensor 13.
Then, based on the heat detection signal S5 and the like, the surrounding conditions, the command from the user, the presence or absence of the user's action, and the like are determined.
【0020】そしてコントローラ10は、この判断結
果、内部メモリ14Aに予め格納されている制御プログ
ラム、及び外部メモリ14Bに予め格納されている各種
制御データ等に基づいて続く行動を決定し、決定結果に
基づいて必要なアクチュエータ191〜19nを駆動さ
せることにより、頭部ユニット4を上下左右に振らせた
り、尻尾部ユニット5の尻尾5Aを動かせたり、各脚部
ユニット3A〜3Dを駆動して歩行させるなどの行動や
動作を行わせる。なお以下においては、動作の集合を行
動と定義して使用するものとする。The controller 10 determines a subsequent action based on the determination result based on the control program stored in the internal memory 14A in advance and various control data stored in the external memory 14B in advance. By driving the necessary actuators 19 1 to 19 n based on the above, the head unit 4 can be swung up and down, left and right, the tail 5A of the tail unit 5 can be moved, and the leg units 3A to 3D can be driven. Have the person perform an action or action such as walking. In the following, a set of actions is defined and used as an action.
【0021】またこの際コントローラ10は、必要に応
じて音声信号S6を生成してこれをスピーカ18に与え
ることにより当該音声信号S6に基づく音声を外部に出
力させたり、このペットロボット1の「目」の位置に配
設された図示しないLED(Light Emitti
ng Diode)を点滅させる。At this time, the controller 10 generates a sound signal S6 as necessary and supplies the sound signal S6 to the speaker 18 to output a sound based on the sound signal S6 to the outside. (Not shown) disposed at the position of "" (Light Emitti
ng Diode) blinks.
【0022】このようにしてこのペットロボット1にお
いては、周囲の状況や、内部メモリ14Aに格納された
制御プログラム、さらには外部メモリ14Bに格納され
た各種制御データ等に基づいて自律的に行動し得るよう
になされている。In this manner, the pet robot 1 autonomously acts on the basis of the surrounding conditions, the control program stored in the internal memory 14A, and various control data stored in the external memory 14B. Have been made to gain.
【0023】(2)制御プログラムのソフトウェア構成 次にこのペットロボット1におけるコントローラ10の
具体的な処理について説明する。(2) Software Configuration of Control Program Next, specific processing of the controller 10 in the pet robot 1 will be described.
【0024】コントローラ10の処理内容を機能的に分
類すると、図3に示すように、外部及び内部の状態を認
識する状態認識機構部30と、状態認識機構部30の認
識結果に基づいて感情及び本能の状態を決定する感情・
本能モデル部31と、状態認識機構部30の認識結果及
び感情・本能モデル部31の出力に基づいて続く行動や
動作を決定する行動決定機構部32と、行動決定機構部
32により決定された行動や動作を行うためのペットロ
ボット1の一連の動作計画を立てる姿勢遷移機構部33
と、姿勢遷移機構部33により立てられた動作計画に基
づいてアクチュエータ191〜19nを制御する制御機
構部34とに分けることができる。When the processing contents of the controller 10 are functionally classified, as shown in FIG. 3, a state recognition mechanism section 30 for recognizing external and internal states, and emotions and emotions based on the recognition results of the state recognition mechanism section 30 are obtained. Emotions that determine the state of instinct
An instinct model unit 31, an action determining mechanism unit 32 that determines a subsequent action or action based on the recognition result of the state recognition mechanism unit 30 and the output of the emotion / instinct model unit 31, and an action determined by the action determining mechanism unit 32 Transition mechanism unit 33 that makes a series of motion plans of the pet robot 1 for performing motion and motion
And a control mechanism unit 34 for controlling the actuators 19 1 to 19 n based on an operation plan established by the posture transition mechanism unit 33.
【0025】以下、これら状態認識機構部30、感情・
本能モデル部31、行動決定機構部32、姿勢遷移機構
部33及び制御機構部34について詳細に説明する。Hereinafter, these state recognition mechanism units 30
The instinct model unit 31, action determination mechanism unit 32, posture transition mechanism unit 33, and control mechanism unit 34 will be described in detail.
【0026】(2−1)状態認識機構部30の処理 状態認識機構部30は、マイクロホン15、CCDカメ
ラ16、タッチセンサ17、バッテリセンサ12及び熱
センサ13から与えられる音声信号S1、画像信号S
2、圧力検出信号S3、バッテリ残量信号S4及び熱検
出信号S5に基づいて特定の状態を認識し、認識結果を
状態認識情報S10として感情・本能モデル部31及び
行動決定機構部32に通知する。(2-1) Processing of the state recognition mechanism section 30 The state recognition mechanism section 30 includes a sound signal S1 and an image signal S provided from the microphone 15, the CCD camera 16, the touch sensor 17, the battery sensor 12, and the heat sensor 13.
2. Recognize a specific state based on the pressure detection signal S3, the remaining battery signal S4, and the heat detection signal S5, and notify the recognition result as state recognition information S10 to the emotion / instinct model unit 31 and the action determination mechanism unit 32. .
【0027】実際上、状態認識機構部30は、マイクロ
ホン15(図2)から与えられる音声信号S1を常時監
視し、当該音声信号S1のスペクトラムとして「歩
け」、「伏せ」、「ボールを追いかけろ」などの指令に
応じてサウンドコマンダから出力される指令音と同じ音
階のスペクトラムを検出したときにその指令が与えられ
たと認識し、認識結果を感情・本能モデル部31、行動
決定機構部32及び判断部35に通知する。In practice, the state recognition mechanism section 30 constantly monitors the audio signal S1 given from the microphone 15 (FIG. 2), and as a spectrum of the audio signal S1, "walk", "prone", "follow the ball". When a spectrum of the same scale as the command sound output from the sound commander is detected in response to such a command, it is recognized that the command has been given, and the recognition result is expressed by the emotion / instinct model unit 31, the action determination mechanism unit 32, and the judgment. Notify the unit 35.
【0028】また状態認識機構部30は、CCDカメラ
16(図2)から与えられる画像信号S2を常時監視
し、当該画像信号S2に基づく画像内に例えば「赤い丸
いもの」や「地面に対して垂直かつ所定高さ以上の平
面」を検出したときには「ボールがある」、「壁があ
る」と認識し、認識結果を感情・本能モデル部31、行
動決定機構部32及び判断部35に通知する。The state recognizing mechanism 30 constantly monitors the image signal S2 given from the CCD camera 16 (FIG. 2), and includes, for example, a “red round object” or “red ground” in an image based on the image signal S2. When a “vertical plane having a height equal to or more than a predetermined height” is detected, it is recognized that “there is a ball” and “there is a wall”, and the recognition result is notified to the emotion / instinct model unit 31, the action determination mechanism unit 32, and the determination unit 35. .
【0029】さらに状態認識機構部30は、タッチセン
サ17(図2)から与えられる圧力検出信号S3を常時
監視し、当該圧力検出信号S3に基づいて所定の閾値以
上のかつ短時間(例えば2秒未満)の圧力を検出したと
きには「叩かれた(叱られた)」と認識し、所定の閾値
未満のかつ長時間(例えば2秒以上)の圧力を検出した
ときには「撫でられた(誉められた)」と認識し、認識
結果を感情・本能モデル部31、行動決定機構部32及
び判断部35に通知する。Further, the state recognition mechanism section 30 constantly monitors the pressure detection signal S3 given from the touch sensor 17 (FIG. 2), and based on the pressure detection signal S3, has a predetermined threshold or more and a short time (for example, 2 seconds). When a pressure of less than a predetermined threshold is detected and the pressure is detected for a long time (for example, 2 seconds or more), it is recognized that the user has been struck (praised). )), And notifies the recognition result to the emotion / instinct model unit 31, the action determination mechanism unit 32, and the determination unit 35.
【0030】一方、状態認識機構部30は、熱センサ1
3(図2)から与えられる熱検出信号S5を常時監視
し、当該熱検出信号S5に基づいて所定以上の熱を検出
したときには「内部温度が上昇した」と認識し、認識結
果を感情・本能モデル部31及び行動決定機構部32に
通知する。On the other hand, the state recognition mechanism 30
3 (FIG. 2) is constantly monitored, and when a predetermined level of heat is detected based on the heat detection signal S5, it is recognized that "the internal temperature has risen" and the recognition result is expressed as emotion / instinct. Notify the model unit 31 and the action determination mechanism unit 32.
【0031】(2−2)感情・本能モデル部31の処理 感情・本能モデル部31は、図4に示すように、「喜
び」、「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び
「怒り」の6つの情動にそれぞれ対応させて設けられた
感情モデルとしての情動ユニット40A〜40Fからな
る基本情動群40と、「食欲」、「愛情欲」、「探索
欲」及び「運動欲」の4つの欲求にそれぞれ対応させて
設けられた欲求モデルとしての欲求ユニット41A〜4
1Dからなる基本欲求群41と、各情動ユニット40A
〜40F及び各欲求ユニット41A〜41Dにそれぞれ
対応して設けられた強度増減関数42A〜42Jとを有
している。(2-2) Processing of the Emotion / Instinct Model Unit 31 As shown in FIG. 4, the emotion / instinct model unit 31 performs “joy”, “sadness”, “surprise”, “fear”, and “disgust”. And a basic emotion group 40 composed of emotion units 40A to 40F as emotion models provided corresponding to the six emotions of “anger” and “anger”, “appetite”, “love affection”, “search desire”, and “exercise desire”. Unit 41A-4 as a desire model provided corresponding to each of the four needs
1D basic desire group 41 and each emotion unit 40A
To 40F and the intensity increasing / decreasing functions 42A to 42J provided corresponding to the desire units 41A to 41D, respectively.
【0032】そして各情動ユニット40A〜40Fは、
対応する情動の度合いを例えば0〜100レベルまでの
強度によってそれぞれ表し、当該強度を対応する強度増
減関数42A〜42Fから与えられる強度情報S11A
〜S11Fに基づいて時々刻々と変化させる。Each of the emotion units 40A to 40F
The degree of the corresponding emotion is represented by, for example, intensity from 0 to 100 level, and the intensity is given by intensity information S11A given from the corresponding intensity increase / decrease functions 42A to 42F.
11S11F to change every moment.
【0033】また各欲求ユニット41A〜41Dは、情
動ユニット40A〜40Fと同様に、対応する欲求の度
合いを0〜100レベルまでの強度によってそれぞれ表
し、当該強度を対応する強度増減関数42G〜42Jか
ら与えられる強度情報S11G〜S11Jに基づいて時
々刻々と変化させる。Similarly to the emotion units 40A to 40F, each of the desire units 41A to 41D expresses the degree of the corresponding desire by the intensity from 0 to 100 level, and the intensity is obtained from the corresponding intensity increase / decrease functions 42G to 42J. It changes every moment based on the given intensity information S11G to S11J.
【0034】そして感情・本能モデル31は、これら情
動ユニット40A〜40Fの強度を組み合わせることよ
り感情の状態を決定すると共に、これら欲求ユニット4
1A〜41Dの強度を組み合わせることにより本能の状
態を決定し、当該決定した感情及び本能の状態を感情・
本能状態情報S12として行動決定機構部32に出力す
る。The emotion / instinct model 31 determines the state of emotion by combining the intensity of the emotion units 40A to 40F,
The state of the instinct is determined by combining the intensities of 1A to 41D, and the determined emotion and the state of the instinct are expressed as emotion /
The information is output to the action determining mechanism 32 as the instinct state information S12.
【0035】なお強度増減関数42A〜42Jは、状態
認識機構部30から与えられる状態認識情報S10と、
後述の行動決定機構部32から与えられるペットロボッ
ト1自身の現在又は過去の行動の内容を表す行動情報S
13とに基づき、予め設定されているパラメータに応じ
て上述のように各情動ユニット40A〜40F及び各欲
求ユニット41A〜41Dの強度を増減させるための強
度情報S11A〜S11Jを生成して出力するような関
数である。The intensity increasing / decreasing functions 42A to 42J correspond to state recognition information S10 given from the state recognition mechanism 30 and
Behavior information S representing the current or past behavior of the pet robot 1 itself given from the behavior determining mechanism 32 described later.
13, and generates and outputs intensity information S11A to S11J for increasing / decreasing the intensity of each of the emotion units 40A to 40F and each of the desire units 41A to 41D according to the parameters set in advance as described above. Function.
【0036】ここで判断部35は、状態認識機構部30
から与えられる認識結果に基づいて、ユーザがマイクロ
ホン15、CCDカメラ16及びタッチセンサ17の少
なくとも1以上を用いて指定した生物を判断し、当該判
断結果に基づいて、外部メモリ14Bに予め格納されて
いる複数種類の生物の中から選択された生物に関する種
々のデータを読み出すようになされている。Here, the judging section 35 includes the state recognizing mechanism section 30
Judge the creature designated by the user using at least one of the microphone 15, the CCD camera 16 and the touch sensor 17 based on the recognition result given by the user and stored in advance in the external memory 14B based on the judgment result. Various data on an organism selected from a plurality of types of organisms are read out.
【0037】この外部メモリ14Bには、複数種類の生
物について、それぞれ特有の感情及び本能に応じた性格
をもたせるための感情・本能データDA(DA1、DA
2、DA3、……)が格納されている。これら感情・本
能データDAには、図5に示すように、例えば「猫」の
場合(感情・本能データDA1)には「人になつきにく
い」性格や「薄情」な性格が記述され、「犬」の場合
(感情・本能データDA2)には「人になつきやすい」
性格や「忠実」な性格が記述され、「トカゲ」の場合
(感情・本能データDA3)には「人を避ける」性格や
「凶暴」な性格が記述されている。The external memory 14B stores emotion and instinct data DA (DA 1 , DA 1) for giving a plurality of types of creatures a personalized feeling and a character corresponding to their instinct.
2, DA 3, ......) are stored. As shown in FIG. 5, in the emotion / instinct data DA, for example, in the case of “cat” (emotion / instinct data DA 1 ), a “hard to reach a person” character and a “small” character are described. in the case of the dog "easy to Natsuki to" people in (emotion-instinct data DA 2) "
The personality and “faithful” personality are described. In the case of “lizard” (emotional and instinct data DA 3 ), the personality “avoid people” and the “violent” personality are described.
【0038】そして感情・本能モデル部31は、判断部
35においてユーザが指定した生物に対応する感情・本
能データDA(DA1、DA2、DA3、……)を外部
メモリ14Bから読み出した後、当該感情・本能データ
DAに基づいて周期的に感情モデル又は本能モデルの対
応する情動又は欲求のパラメータの値を変更する。The emotion / instinct model unit 31 reads the emotion / instinct data DA (DA 1 , DA 2 , DA 3 ,...) Corresponding to the creature designated by the user from the external memory 14 B in the judgment unit 35. Then, based on the emotion / instinct data DA, the value of the emotion model or the parameter of the corresponding emotion or desire of the instinct model is periodically changed.
【0039】かくしてペットロボット1においては、こ
れら強度増減関数42A〜42Jのパラメータを、ユー
ザによって指定された生物に応じた値に設定変更するこ
とによって、ペットロボット1を当該指定された生物と
同じような性格をもたせることができるようになされて
いる。Thus, in the pet robot 1, by changing the parameters of the intensity increasing / decreasing functions 42A to 42J to values corresponding to the creature designated by the user, the pet robot 1 can be changed in the same manner as the designated creature. It is made to be able to have a personality.
【0040】(2−3)行動決定機構部32の処理 行動決定機構部32は、複数の行動モデルを内部メモリ
14A内に有している。そして行動決定機構部32は、
状態認識機構部30から与えられる状態認識情報10
と、感情・本能モデル部31の各情動ユニット40A〜
40F及び各欲求ユニット41A〜41Dの強度と、対
応する行動モデルとに基づいて次の行動や動作を決定
し、決定結果を行動決定情報S14として姿勢遷移機構
部33に出力する。(2-3) Processing of the Action Determination Mechanism 32 The action determination mechanism 32 has a plurality of action models in the internal memory 14A. And the action decision mechanism unit 32
State recognition information 10 provided from the state recognition mechanism unit 30
And each emotion unit 40A of the emotion / instinct model unit 31
The next action or action is determined based on the strength of the unit 40F and the desire units 41A to 41D and the corresponding action model, and the determination result is output to the attitude transition mechanism unit 33 as action determination information S14.
【0041】この場合、行動決定機構部32は、次の行
動や動作を決定する手法として、図6に示すような1つ
のノード(状態)NDA0から同じ又は他のどのノード
NDA0〜NDAnに遷移するかを各ノードNDA0〜
NDAn間を接続するアークARA0〜ARAnに対し
てそれぞれ設定された遷移確率P0〜Pnに基づいて確
率的に決定する確率オートマトンと呼ばれるアルゴリズ
ムを用いる。In this case, the action determining mechanism 32 determines the next action or operation from one node (state) ND A0 as shown in FIG. 6 or any other node ND A0 to ND An as shown in FIG. To each node ND A0 to
An algorithm called probability automaton for determining probabilistically based on the transition probability P 0 to P n which is set respectively arc AR A0 to Ar An for connecting the ND An employed.
【0042】より具体的には、外部メモリ14Bには行
動モデルとして、各ノードNDA0〜NDAnごとの図
7に示すような状態遷移表50が格納されており、行動
決定機構部32がこれに状態遷移表50に基づいて次の
行動や動作を決定するようになされている。More specifically, a state transition table 50 as shown in FIG. 7 for each of the nodes ND A0 to ND An is stored in the external memory 14B as a behavior model, and the behavior decision mechanism 32 Next, the next action or action is determined based on the state transition table 50.
【0043】ここで状態遷移表50においては、そのノ
ードNDA0〜NDAnにおいて遷移条件とする入力イ
ベント(認識結果)が「入力イベント」の行に優先順に
列記され、その遷移条件についてのさらなる条件が「デ
ータ名」及び「データ範囲」の行における対応する列に
記述されている。In the state transition table 50, input events (recognition results) as transition conditions at the nodes ND A0 to ND An are listed in the “input event” row in the order of priority, and further conditions for the transition conditions are further described. Are described in the corresponding columns in the rows of “data name” and “data range”.
【0044】従って図7の状態遷移表50で定義された
ノードND100では、「ボールを検出した(BAL
L)」という認識結果が与えられた場合に、当該認識結
果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000の範囲(0,1000)」で
あることや、「障害物を検出(OBSTACLE)」と
いう認識結果が与えられた場合に、当該認識結果と共に
与えられるその障害物までの「距離(DISTANC
E)」が「0から100の範囲(0,100)」である
ことが他のノードに遷移するための条件となっている。Therefore, the node ND 100 defined in the state transition table 50 of FIG.
L) "is given, the" size (SIZ) "of the ball given together with the recognition result is given.
E) is in the range of 0 to 1000 (0,1000), or when a recognition result of “obstacle detected (OBSTABLE)” is given, the obstacle is given together with the recognition result. "Distance (DISTANC
"E)" is in the range of "0 to 100 (0, 100)", which is a condition for transition to another node.
【0045】またこのノードND100では、認識結果
の入力がない場合においても、行動決定機構部が周期的
に参照する感情・本能モデル部31の各情動ユニット4
0A〜40F及び各欲求ユニット41A〜41Dの強度
のうち、「喜び(JOY)」、「驚き(SUPRIS
E)」又は「悲しみ(SADNESS)」のいずれかの
情動ユニット40A〜40Fの強度が「50から100
の範囲(50,100)」であるときには他のノードに
遷移することができる。In the node ND 100 , even when there is no input of the recognition result, each of the emotion units 4 of the emotion / instinct model unit 31 periodically referred to by the action determining mechanism unit 31.
0A to 40F and the intensity of each desire unit 41A to 41D, “joy” and “surprise”
E) ”or“ Sadness ”, the intensity of the emotion unit 40A to 40F is“ 50 to 100 ”.
Is within the range (50, 100) ”, it is possible to transit to another node.
【0046】また状態遷移表50では、「他のノードへ
の遷移確率」の欄における「遷移先ノード」の列にその
ノードNDA0〜NDAnから遷移できるノード名が列
記されると共に、「入力イベント名」、「データ値」及
び「データの範囲」の各行に記述された全ての条件が揃
ったときに遷移できる他の各ノードNDA0〜NDAn
への遷移確率が「他のノードへの遷移確率」の欄におけ
る「出力行動」の行に記述される。なお「他のノードへ
の遷移確率」の欄における各行の遷移確率の和は100
〔%〕となっている。In the state transition table 50, in the column of "transition destination node" in the column of "transition probability to another node", the names of nodes that can transition from the nodes ND A0 to ND An are listed, and Other nodes ND A0 to ND An to which a transition can be made when all the conditions described in each row of “event name”, “data value”, and “data range” are met
Is described in the row of “output action” in the column of “transition probability to another node”. Note that the sum of the transition probabilities of each row in the column of “transition probability to another node” is 100
[%].
【0047】従ってこの例のノードNODE100で
は、例えば「ボールを検出(BALL)」し、そのボー
ルの「大きさ(SIZE)」が「0から1000の範囲
(0,1000)」であるという認識結果が与えられた
場合には、「30〔%〕」の確率で「ノードNODE
120(node 120)」に遷移でき、そのとき
「ACTION 1」の行動や動作が出力されることと
なる。Therefore, in the node NODE 100 of this example, for example, “ball is detected (BALL)”, and it is recognized that the “size” of the ball is in the range of 0 to 1000 (0, 1000). If the result is given, the “node NODE” has a probability of “30 [%]”.
120 (node 120) ", and the action or action of" ACTION 1 "is output at that time.
【0048】そして各行動モデルは、それぞれこのよう
な状態遷移表50として記述されたノードNDA0〜N
DAnがいくつも繋がるようにして構成されている。The respective behavior models correspond to the nodes ND A0 to ND A described in the state transition table 50, respectively.
The configuration is such that a number of D An are connected.
【0049】かくして行動決定機構部32は、状態認識
機構部30から状態認識情報S10が与えられたとき
や、最後に行動を発現してから一定時間が経過したとき
などに、外部メモリ14Bに格納されている対応する行
動モデルのうちの対応するノードNDA0〜NDAnの
状態遷移表50を利用して次の行動や動作(「出力行
動」の行に記述された行動や動作)を確率的に決定し、
決定結果を行動指令情報S14として姿勢遷移機構部3
3に出力するようになされている。The action determining mechanism 32 stores the information in the external memory 14B when the state recognizing information S10 is given from the state recognizing mechanism 30 or when a certain period of time has passed since the last appearance of the action. Using the state transition table 50 of the corresponding nodes ND A0 to ND An in the corresponding behavior model, the next behavior or behavior (the behavior or behavior described in the row of “output behavior”) is probabilistically determined. Decided to
The posture transition mechanism unit 3 uses the determination result as the action command information S14.
3 is output.
【0050】また外部メモリ14Bには、複数種類の生
物について、それぞれ特有の行動を発現させるための行
動モデルを表す行動データDB(DB1、DB2、DB
3、……)が格納されている。これら行動データDBに
は、例えば「猫」の場合(行動データDB1)には「日
向ぼっこ」、「毛繕い」や「鳴く」などの行動パターン
が記述され、「犬」の場合(行動データDB2)には
「マーキング」、「テリトリ争い」や「吠える」などの
行動パターンが記述され、「トカゲ」の場合(行動デー
タDB3)には「逃避」や「襲撃」などの行動パターン
が記述されている(図5)。In the external memory 14B, behavior data DB (DB 1 , DB 2 , DB) representing a behavior model for expressing a specific behavior for each of a plurality of types of living things are stored.
3 ,...) Are stored. In the behavior data DB, for example, in the case of “cat” (behavior data DB 1 ), behavior patterns such as “sunshine”, “grooming” and “screaming” are described, and in the case of “dog” (behavior data DB 1). 2 ) describes behavior patterns such as "marking", "territory fight" and "barking". In the case of "lizard" (behavior data DB 3 ), behavior patterns such as "escape" and "attack" are described. (FIG. 5).
【0051】かくして行動決定機構部32は、判断部3
5においてユーザが指定した生物に対応する行動データ
DB(DB1、DB2、DB3、……)を外部メモリ1
4Bから読み出した後、当該行動データDBに基づく行
動モデルに変更するようになされている。Thus, the action determining mechanism 32 is provided with the determining unit 3
5 stores the behavior data DB (DB 1 , DB 2 , DB 3 ,...) Corresponding to the creature designated by the user in the external memory 1.
After reading from 4B, the behavior model is changed to the behavior model based on the behavior data DB.
【0052】かくしてペットロボット1においては、行
動モデルをユーザによって指定された生物に応じた行動
モデルに変更することによって、ペットロボット1を当
該指定された生物と同じような行動を発現させることが
できるようになされている。Thus, in the pet robot 1, by changing the behavior model to a behavior model corresponding to the creature designated by the user, the pet robot 1 can exhibit the same behavior as the designated creature. It has been made like that.
【0053】(2−4)姿勢遷移機構部33の処理 姿勢遷移機構部33は、行動決定機構部32から行動決
定情報S14が与えられると、当該行動決定情報S14
に基づく行動や動作を行うためのペットロボット1の一
連の動作計画を立て、当該動作計画に基づく動作指令情
報S15を制御機構部34に出力する。(2-4) Processing of Posture Transition Mechanism 33 When the behavior decision information S14 is given from the behavior decision mechanism 32, the posture transition mechanism 33 receives the behavior decision information S14.
A series of operation plans of the pet robot 1 for performing an action or an operation based on the operation plan are made, and operation command information S15 based on the operation plan is output to the control mechanism unit 34.
【0054】この場合姿勢遷移機構部33は、動作計画
を立てる手法として、図8に示すようなペットロボット
1がとり得る姿勢をそれぞれノードNDB0〜NDB2
とし、遷移可能なノードNDB0〜NDB2間を動作を
表す有向アークARB0〜ARB2で結び、かつ1つの
ノードNDB0〜NDB2間で完結する動作を自己動作
アークARC0〜ARC2として表現する有向グラフを
用いる。In this case, the posture transition mechanism unit 33 uses the nodes ND B0 to ND B2 to determine the postures that the pet robot 1 can take as shown in FIG.
And then, connected by directed arcs AR B0 to Ar B2 representing the operation between possible transition nodes ND B0 to ND B2, and one node ND B0 self operating arc operation to complete between ~ND B2 AR C0 ~AR C2 Is used.
【0055】このため外部メモリ14Bには、このよう
な有向グラフの元となる、当該ペットロボット1が発現
できる全ての動作の始点姿勢及び終了姿勢をデータベー
ス化したファイル(以下、これをネットワーク定義ファ
イルと呼ぶ)のデータが格納されており、姿勢遷移機構
部33は、このネットワーク定義ファイルに基づいて、
図9〜図12に示すような全身用、頭部用、脚部用及び
尻尾部用の各有向グラフ60〜63をそれぞれ生成す
る。Therefore, in the external memory 14B, a file in which the starting point posture and the ending posture of all the movements that can be expressed by the pet robot 1 as a source of such a directed graph are stored in a database (hereinafter, referred to as a network definition file) Is stored, and the posture transition mechanism unit 33 uses the network definition file to
The directed graphs 60 to 63 for the whole body, for the head, for the legs, and for the tail as shown in FIGS.
【0056】なおこの図9〜図12からも明らかなよう
に、このペットロボット1においては、姿勢が大きく
「立つ(oStanding)」、「すわる(oSit
ting)」、「伏せる(oSleeping)」及び
バッテリ11(図2)を充電するための図示しない充電
台上の姿勢である「ステーション(oStatio
n)」の4つに分類されている。そしてこれら各4つの
各姿勢について、各「成長段階」に共通する基本姿勢
(◎印)と、「幼年期」用、「少年期」用、「青年期」
用及び「成人期」用の1又は複数の通常姿勢(○印)と
を有している。As is clear from FIGS. 9 to 12, in the pet robot 1, the posture is largely “stand (oStanding)” and “stand (oSit)”.
"station", which is an attitude on a charging stand (not shown) for charging the battery 11 (FIG. 2), "oSleeping", and the battery 11 (FIG. 2).
n)). For each of these four postures, the basic posture (marked with ◎) common to each “growth stage” and “childhood”, “childhood”, and “youth”
And one or a plurality of normal postures (marked with “○”) for the child and “adult”.
【0057】例えば図9〜図12において破線で囲んだ
部分は「幼年期」用の通常姿勢を表わすものであるが、
このうち図9からも明らかなように、「幼年期」におけ
る「伏せる」の通常姿勢として、「oSleeping
b(baby)」、「oSleeping b2」〜
「oSleeping b5」があり、「すわる」の通
常姿勢として、「oSitting b」、「oSit
ting b2」がある。For example, a portion surrounded by a broken line in FIGS. 9 to 12 represents a normal posture for “childhood”,
As is apparent from FIG. 9, the normal posture “down” in “childhood” is “oSleeping”.
b (baby) "," oSleeping b2 "~
There is “oSleeping b5”, and “oSitting b”, “oSit
ting b2 ".
【0058】そして姿勢遷移機構部33は、行動決定機
構部32から「立て」、「歩け」、「お手をしろ」、
「頭を揺すれ」、「尻尾を動かせ」などの行動指令が行
動指令情報S14として与えられると、対応する有向グ
ラフ60〜63を用いて、有向アークの向きに従いなが
ら現在のノードから指定された姿勢が対応付けられたノ
ード又は指定された動作が対応付けられた有向アーク若
しくは自己動作アークに至る経路を探索し、当該探索し
た経路上の各有向アークにそれぞれ対応付けられた動作
を順次行わせるような動作指令を動作指令情報S15と
して制御機構部34に次々と出力する。Then, the posture transition mechanism section 33 sends the "stand", "walk", "reach hand",
When an action command such as "shake the head" or "move the tail" is given as the action command information S14, the command is designated from the current node using the corresponding directed graphs 60 to 63 while following the direction of the directed arc. A path to a node to which a posture is associated or a directed arc or a self-operation arc to which a specified operation is associated is searched, and the operations respectively associated with the directed arcs on the searched path are sequentially performed. Operation commands to be performed are sequentially output to the control mechanism unit 34 as operation command information S15.
【0059】例えばペットロボット1の現在のノードが
全身用の有向グラフ60における「oSitting
b」であり、行動決定機構部32から「oSleepi
ngb4」のノードにおいて発現する動作(自己動作ア
ークa1に対応付けられた動作)の行動指令が姿勢遷移
機構部に与えれた場合、姿勢遷移機構部33は、全身用
の有向グラフ60上で「oSitting b」のノー
ドから「oSleeping b4」のノードに至る経
路を探索し、「oSitting b」のノードから
「oSleeping b5」のノードに姿勢を遷移さ
せるための動作指令と、「oSleeping b5」
のノードから「oSleeping b3」のノードに
姿勢を遷移させるための動作指令と、「oSleepi
ng b3」のノードから「oSleeping b
4」のノードに姿勢を遷移させるための動作指令とを動
作指令情報S15として制御機構部34に次々と出力
し、最後に「oSleeping b4」のノードから
指定された動作が対応付けられた自己動作アークa1を
介して「oSleeping b4」のノードに戻るた
めの動作指令を動作指令情報S15として制御機構部3
4に出力する。For example, if the current node of the pet robot 1 is “oSitting” in the directed graph 60 for the whole body,
b ”, and the behavior determination mechanism unit 32 outputs“ oSleepi
If the action command of the operation to be expressed at a node ngb4 "(operation associated with the self-operating arc a 1) is given to the posture transition mechanism unit, the posture transition mechanism section 33 on the directed graph 60 for the whole body" oSitting b) to search for a path from the node “o Sleeping b4” to the node “o Sleeping b4”, and an operation command to change the posture from the node “o Sleeping b 5” to the node “o Sleeping b 5”, and “o Sleeping b 5”
An operation command for changing the posture from the node of “oSleeping b3” to the node of “oSleeping b3” and “oSleepi b3”
ng b3 ”node to“ oSleeping b
4 is sequentially output to the control mechanism unit 34 as the operation command information S15 as the operation command information S15, and finally, the self-operation associated with the operation specified by the node “oSleeping b4” arc a 1 through the "OSleeping b4" control mechanism unit 3 an operation command for returning to the node as operation command information S15 in
4 is output.
【0060】この際、ペットロボット1の「成長段階」
及び「性格」等に応じて動き(「荒々しい」動き、「お
となしい」動きなど)を変えるために、遷移可能な2つ
のノード間が複数の有向アークによって結ばれているこ
とがあるが、このような場合には、姿勢遷移機構部33
は、そのときのペットロボット1の「成長段階」及び
「性格」に応じた有向アークを経路として選択する。At this time, the “growth stage” of the pet robot 1
In order to change the movement (“rough” movement, “quiet” movement, etc.) according to the “personality” and the like, two nodes that can be transitioned may be connected by a plurality of directed arcs. In such a case, the posture transition mechanism 33
Selects a directed arc as a path according to the “growth stage” and “character” of the pet robot 1 at that time.
【0061】またこれと同様に、各「成長段階」及び
「性格」等に応じて動きを変えるために、あるノードか
ら当該ノードに戻る自己動作アークが複数設けられてい
ることがあるが、このような場合にも姿勢遷移機構部3
3は、上述と同様にしてそのときのペットロボット1の
「成長段階」及び「性格」に応じた有向アークを経路と
して選択する。Similarly, a plurality of self-operation arcs returning from a certain node to the node may be provided in order to change the movement according to each “growth stage” and “character”. In such a case, the posture transition mechanism 3
3 selects a directed arc according to the “growth stage” and “character” of the pet robot 1 at that time as a path in the same manner as described above.
【0062】なお上述のような姿勢遷移では、途中の姿
勢に停留する時間がほどんど「0」であり、従って当該
姿勢遷移の途中で他の「成長段階」で使用するノードを
経由しても良い。このため姿勢遷移機構部33は、現在
のノードから目標とするノード又は有向アーク若しくは
自己動作アークに至る経路を探索する際、現在の「成長
段階」に関わりなく最短の経路を探索する。In the above-described posture transition, the time of staying in the middle position is almost “0”. Therefore, during the posture transition, it is possible to pass through a node used in another “growth stage”. good. Therefore, when searching for a path from the current node to the target node or the directed arc or the self-acting arc, the posture transition mechanism unit 33 searches for the shortest path regardless of the current “growth stage”.
【0063】また姿勢遷移機構部33は、頭部、脚部又
は尻尾部に対する行動指令が与えられた場合には、全身
用の有向グラフ60に基づいてペットロボット1の姿勢
を当該行動命令に応じたいずれかの基本姿勢(◎印)に
戻し、この後対応する頭部、脚部又は尻尾部の有向グラ
フ61〜63を用いて頭部、脚部又は尻尾部の姿勢を遷
移させるように動作指令情報S15を出力する。When an action command for the head, legs, or tail is given, the posture transition mechanism unit 33 changes the posture of the pet robot 1 based on the directed graph 60 for the whole body. Return to one of the basic postures (marked with ◎), and thereafter, use the directed graphs 61 to 63 of the corresponding head, leg, or tail to move the posture of the head, leg, or tail so as to change the posture. S15 is output.
【0064】また外部メモリ14Bには、複数種類の生
物について、それぞれ特有の姿勢を発現させるための姿
勢データDC(DC1、DC2、DC3、……)が格納
されている。これら姿勢データDCには、例えば「猫」
の場合(姿勢データDC1)には「寝る」、「伸びをす
る」や「髭をなでる」などの姿勢パターンが記述され、
「犬」の場合(姿勢データDC2)には「脚を上げて放
尿」や「匂いを嗅ぐ仕種」などの姿勢パターンが記述さ
れ、「トカゲ」の場合(姿勢データDC3)には「ガニ
股歩き」や「噛む」などの姿勢パターンが記述されてい
る(図5)。The external memory 14B stores posture data DC (DC 1 , DC 2 , DC 3 ,...) For expressing a unique posture for each of a plurality of types of living things. These posture data DC include, for example, “cat”
In the case of (posture data DC 1 ), a posture pattern such as “sleep”, “stretch” or “stroke a beard” is described.
In the case of “dog” (posture data DC 2 ), a posture pattern such as “urinating with legs raised” or “smell smell” is described. In the case of “lizard” (posture data DC 3 ), “crab” Posture patterns such as "crawling" and "biting" are described (FIG. 5).
【0065】かくして姿勢遷移機構部33は、判断部3
5においてユーザが指定した生物に対応する姿勢データ
DC(DC1、DC2、DC3、……)を外部メモリ1
4Bから読み出した後、当該姿勢データDCに基づい
て、これら有向グラフ60〜63を用いてユーザによっ
て指定された生物に応じた姿勢遷移のための有向アーク
を順次経路として選択することによって、ペットロボッ
ト1を当該指定された生物と同じような姿勢に遷移させ
ることができるようになされている。Thus, the posture transition mechanism 33 is
5, the posture data DC (DC 1 , DC 2 , DC 3 ,...) Corresponding to the creature designated by the user is stored in the external memory 1.
4B, the directional arcs for posture transition according to the creature designated by the user are sequentially selected as paths using the directional graphs 60 to 63 on the basis of the posture data DC. 1 can be shifted to a posture similar to the designated creature.
【0066】(2−5)制御機構部34の処理 制御機構部34は、姿勢遷移機構部33から与えられる
動作指令情報S15に基づいて制御信号S16を生成
し、当該制御信号S16に基づいて各アクチュエータ1
91〜19nを駆動制御することにより、ペットロボッ
ト1に指定された行動や動作を行わせる。(2-5) Processing of the control mechanism section 34 The control mechanism section 34 generates a control signal S16 based on the operation command information S15 given from the attitude transition mechanism section 33, and generates each control signal based on the control signal S16. Actuator 1
By controlling the driving of 9 1 to 19 n , the pet robot 1 is caused to perform a specified action or operation.
【0067】(3)本実施の形態の動作及び効果 以上の構成において、このペットロボット1では、ユー
ザからの指令や働きかけに応じて特定の生物が指定され
ると、現在発現している行動及び動作を停止すると共
に、これに代えて当該指定された生物と同じような特有
の性格、行動及び姿勢を発現する。(3) Operation and Effect of the Present Embodiment In the above configuration, in the pet robot 1, when a specific creature is designated in response to a command or action from the user, the behavior and the currently appearing creature are displayed. The operation is stopped, and instead, a characteristic, behavior and posture similar to the specified creature are developed.
【0068】従ってペットロボット1では、製造時に特
定されている生物に応じた行動及び動作を発現させるの
みならず、ユーザによって選択的に指定された生物に応
じた行動及び動作をも模倣して発現させることができ
る。Therefore, in the pet robot 1, not only the behavior and action according to the creature specified at the time of manufacture but also the behavior and action according to the creature selectively designated by the user are expressed. Can be done.
【0069】例えば図1に示す犬型のペットロボット1
において、「猫」の名前「たま」と呼ばれた場合に、図
13(A)に示すように両方の前脚を前方に伸ばして伸
びをしたり、図13(B)に示すように前脚で髭を撫で
るようにして、あたかも本物の猫の行動を模倣すること
ができる。For example, a dog-type pet robot 1 shown in FIG.
In this case, when the name of the "cat" is called "tama", both front legs are extended forward as shown in FIG. 13 (A), or extended with the front legs as shown in FIG. 13 (B). By stroking the beard, you can imitate the behavior of a real cat.
【0070】以上の構成によれば、このペットロボット
1では、特定の生物に応じて製造された形状及び構造を
有しているにもかかわらず、複数種類の生物の中からユ
ーザの好みによって指定された他の生物に応じた行動及
び動作を模倣して発現するようにしたことにより、ユー
ザに飽きを感じさせ難くしてより一層の親近感や満足感
をユーザに与えることができ、かくしてアミューズメン
ト性をより一層向上させ得るペットロボットを実現でき
る。According to the above configuration, the pet robot 1 is designated by the user's preference from among a plurality of types of creatures, although the pet robot 1 has a shape and a structure manufactured according to a specific creature. By imitating the behavior and action according to the other living creatures, it is possible to make the user hard to feel tired and to give the user more intimacy and satisfaction, and thus amusement It is possible to realize a pet robot that can further improve the performance.
【0071】(4)他の実施の形態 なお上述の実施の形態においては、本発明を図1のよう
に構成された4足歩行型のペットロボット1に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他種々の構成のロボット装置に広く適用するこ
とができる。(4) Other Embodiments In the above-described embodiment, a case has been described in which the present invention is applied to a quadruped walking type pet robot 1 configured as shown in FIG. However, the present invention is not limited to this, and can be widely applied to robot devices having various other configurations.
【0072】また上述の実施の形態においては、模倣対
象となる生物として、犬、猫及びトカゲの3種類の生物
について述べたが、本発明はこれに限らず、1、2種類
又は4種類以上の生物にも適用することができ、さらに
は実在上の生物のみならず仮想上の生物(例えば龍や河
童など)にも広く適用することができる。この場合、各
種の実在上又は仮想上の生物について、第2の制御デー
タとしての感情・本能データDA、行動データDB及び
姿勢データDCを外部メモリ14Bに記憶しておくよう
にすれば良い。Further, in the above-described embodiment, three kinds of living things to be imitated, namely, dogs, cats and lizards, have been described. Can be applied to not only real creatures but also virtual creatures (for example, dragons and kappas). In this case, the emotion / instinct data DA, the behavior data DB, and the posture data DC as the second control data may be stored in the external memory 14B for various real or virtual creatures.
【0073】さらに上述の実施の形態においては、ペッ
トロボット1は各脚部ユニット3A〜3D、頭部ユニッ
ト4及び尻尾部ユニット5を動かすことによって、生物
の模倣して行動するようにした場合について述べたが、
本発明はこれに限らず、コントローラ10が模倣対象と
なる生物を指定したとき、当該生物の鳴き声をスピーカ
18を介して発生するようにしても良い。Further, in the above-described embodiment, a case is described in which the pet robot 1 acts by imitating a living thing by moving each of the leg units 3A to 3D, the head unit 4, and the tail unit 5. As stated,
The present invention is not limited to this, and when the controller 10 specifies a living thing to be imitated, the sound of the living thing may be generated via the speaker 18.
【0074】さらに上述の実施の形態においては、周囲
及び又は自己の状態を認識する状態認識手段として、コ
ントローラ10(状態認識機構部30)を適用し、当該
コントローラ10がサウンドコマンダ(図示せず)によ
る指令音をマイクロホン15を介して入力することによ
って当該指令音に基づいて周囲の状態を認識するように
した場合について述べたが、本発明はこれに限らず、コ
ントローラ10の前段に音声認識処理部(図示せず)を
設け、ユーザが発した音声内容をマイクロホン15を介
して認識することによって周囲の状態を認識するように
しても良い。Further, in the above-described embodiment, the controller 10 (state recognition mechanism unit 30) is applied as state recognition means for recognizing the surroundings and / or its own state, and the controller 10 uses a sound commander (not shown). Has been described in which the surrounding sound is recognized based on the instruction sound by inputting the instruction sound by the microphone 15 through the microphone 15, but the present invention is not limited to this. A unit (not shown) may be provided to recognize the surrounding state by recognizing the voice content uttered by the user via the microphone 15.
【0075】また音声認識のみならず、コントローラ1
0は、CCDカメラ16による撮像結果に基づいて周囲
及び又は自己の状態を認識するようにしても良く、さら
にはタッチセンサ17、加速度センサ(図示せず)、バ
ッテリセンサ12及び熱センサ13による検知結果に基
づいて周囲及び又は自己の状態を認識するようにしても
良い。要は、本発明を適用するロボット装置の形態に応
じて、ユーザからの指令や働きかけのみならず自発的な
動作によって周囲及び又は自己の状態を認識することが
できれば、この他種々の構成の状態認識手段を広く適用
することができる。In addition to speech recognition, the controller 1
0 may be made to recognize the surroundings and / or its own state based on the imaging result by the CCD camera 16, and furthermore, the detection by the touch sensor 17, the acceleration sensor (not shown), the battery sensor 12, and the heat sensor 13. You may make it recognize surroundings and / or a self state based on a result. In short, according to the form of the robot device to which the present invention is applied, if the surroundings and / or the state of the user can be recognized by not only commands and actions from the user but also spontaneous operations, the state of various other configurations Recognition means can be widely applied.
【0076】さらに上述の実施の形態においては、周囲
及び又は自己の状態の認識結果のうち特定の認識結果が
得られたとき、データ変更手段としてのコントローラ1
0(感情・本能モデル部31、行動決定機構部32及び
姿勢遷移機構部33)が、第1の制御データ(感情・本
能データDA、行動データDB及び姿勢データDC)
を、当該特定の認識結果に対応する生物を模倣して行動
するための第2の制御データ(感情・本能データDA、
行動データDB及び姿勢データDC)に変更するように
した場合について述べたが、本発明はこれに限らず、特
定の認識結果に対応する生物を模倣して行動させること
ができれば、データ変更手段としてはこの他種々の構成
をものを広く適用することができる。Further, in the above-described embodiment, when a specific recognition result is obtained among the recognition results of the surroundings and / or its own state, the controller 1 as a data changing means is used.
0 (the emotion / instinct model unit 31, the behavior determination mechanism unit 32, and the posture transition mechanism unit 33) are the first control data (the emotion / instinct data DA, the behavior data DB, and the posture data DC).
To the second control data (emotion / instinct data DA,
Although the description has been made on the case where the behavior data is changed to the behavior data DB and the posture data DC), the present invention is not limited to this. Various other configurations can be widely applied.
【0077】さらに上述の実施の形態においては、本体
(すなわち胴体部ユーザ2)内に着脱自在に装填された
データ記録手段として、外部メモリ14Bを適用した場
合について述べたが、本発明はこれに限らず、複数種類
の第2の制御データ(感情・本能データDA、行動デー
タDB及び姿勢データDC)を記憶しておくことができ
れば、フラッシュメモリ等のメモリ以外にもこの他種々
の着脱自在な記録媒体(光ディスクや光磁気ディスク
等)に広く適用することができる。Further, in the above-described embodiment, the case where the external memory 14B is applied as the data recording means detachably mounted in the main body (that is, the body user 2) has been described. Not limited to this, as long as a plurality of types of second control data (emotion / instinct data DA, action data DB, and posture data DC) can be stored, various other removable data can be used in addition to a memory such as a flash memory. It can be widely applied to recording media (optical disks, magneto-optical disks, etc.).
【0078】さらに上述の実施の形態においては、ペッ
トロボット1として頭部ユニット4、各脚部ユニット3
A〜3D、胴体部ユニット2及び尻尾部ユニット5が一
体形成されたものを適用した場合について述べたが、本
発明はこれに限らず、胴体部ユニット2に対して頭部ユ
ニット4、各脚部ユニット3A〜3D及び尻尾部ユニッ
ト5が着脱自在に取り付けられている場合には、これら
各ユニット2〜5を必要に応じて他のユニットと交換す
るようにしても良い。In the above embodiment, the head unit 4 and the leg units 3 are used as the pet robot 1.
A to 3D, a case in which the body unit 2 and the tail unit 5 are integrally formed has been described, but the present invention is not limited to this, and the head unit 4 and each leg are used for the body unit 2. When the unit units 3A to 3D and the tail unit 5 are detachably attached, these units 2 to 5 may be replaced with other units as needed.
【0079】この場合、交換対象となる各ユニットの動
作状態が記録された記録媒体を用意すると共に、胴体部
ユニットにおいて当該記録媒体を読み込んで各ユニット
を動作可能な状態にするためのソフトウェア処理を行う
ようにすれば良い。この結果、周囲及び又は自己の状態
の認識結果に基づいて決定された生物と、行動のみなら
ず形状も模倣することができ、より一層ユーザを飽き難
くさせて親近感や満足感を向上させることができる。In this case, a recording medium in which the operating state of each unit to be replaced is recorded is prepared, and a software process for reading the recording medium in the body unit and making each unit operable is performed. You can do it. As a result, it is possible to imitate not only the behavior but also the shape of the creature determined based on the recognition result of the surroundings and / or the state of one's own state, thereby further reducing the user's tiredness and improving the affinity and satisfaction. Can be.
【0080】[0080]
【発明の効果】上述のように本発明によれば、第1の制
御データに基づいて行動するロボット装置において、周
囲及び又は自己の状態を認識する状態認識手段と、当該
状態認識手段による認識結果のうち、特定の認識結果が
得られたとき、第1の制御データを、特定の認識結果に
対応する生物を模倣して行動するための第2の制御デー
タに変更するデータ変更手段とを設けるようにしたこと
により、ユーザに飽きを感じさせ難くしてより一層の親
近感や満足感をユーザに与えることができ、かくしてア
ミューズメント性をより一層向上させ得るロボット装置
を実現できる。As described above, according to the present invention, in a robot apparatus which acts based on the first control data, a state recognizing means for recognizing a surrounding and / or self state, and a recognition result by the state recognizing means. And a data change unit for changing the first control data to the second control data for imitating a living thing corresponding to the specific recognition result when a specific recognition result is obtained. By doing so, it is possible to make the user less likely to feel tired and to give the user a further sense of intimacy and satisfaction, thereby realizing a robot device that can further improve amusement.
【0081】また本発明によれば、第1の制御データに
基づいて行動するロボット装置において、周囲及び又は
自己の状態を認識した後、当該認識結果のうち、特定の
認識結果が得られたとき、第1の制御データを、特定の
認識結果に対応する生物を模倣して行動するための第2
の制御データに変更するようにしたことにより、ユーザ
に飽きを感じさせ難くしてより一層の親近感や満足感を
ユーザに与えることができ、かくしてアミューズメント
性をより一層向上させ得るロボット装置の制御方法を実
現できる。Further, according to the present invention, in a robot apparatus acting based on the first control data, after recognizing the surroundings and / or its own state, when a specific recognition result is obtained among the recognition results. , The first control data is used to imitate a living thing corresponding to a specific recognition result.
The control of the robot apparatus which makes it difficult for the user to feel tired and gives the user a further sense of intimacy and satisfaction by changing the control data to the control data of the robot apparatus, thus further improving the amusement property. The method can be realized.
【図1】本実施の形態によるペットロボットの外観構成
を示す斜視図である。FIG. 1 is a perspective view illustrating an external configuration of a pet robot according to an embodiment.
【図2】本実施の形態によるペットロボットの回路構成
を示すブロック図である。FIG. 2 is a block diagram illustrating a circuit configuration of the pet robot according to the present embodiment.
【図3】コントローラの処理の説明に供するブロック図
である。FIG. 3 is a block diagram for explaining processing of a controller;
【図4】感情・本能モデル部におけるデータ処理の説明
に供する概念図である。FIG. 4 is a conceptual diagram serving to explain data processing in an emotion / instinct model unit.
【図5】各生物の行動例の説明に供する図表である。FIG. 5 is a chart provided for explaining an example of behavior of each living thing.
【図6】確率オートマトンを示す概念図である。FIG. 6 is a conceptual diagram illustrating a stochastic automaton.
【図7】状態遷移表を示す概念図である。FIG. 7 is a conceptual diagram showing a state transition table.
【図8】有向グラフに説明に供する概念図である。FIG. 8 is a conceptual diagram for explaining a directed graph.
【図9】全身用の有向グラフを示す概念図である。FIG. 9 is a conceptual diagram showing a directed graph for the whole body.
【図10】頭部用の有向グラフを示す概念図である。FIG. 10 is a conceptual diagram showing a directed graph for the head.
【図11】脚用の有向グラフを示す概念図である。FIG. 11 is a conceptual diagram showing a directed graph for a leg.
【図12】尻尾用の有向グラフを示す概念図である。FIG. 12 is a conceptual diagram showing a directed graph for a tail.
【図13】生物の模倣例の説明に供する略線的な斜視図
である。FIG. 13 is a schematic perspective view for explaining an example of imitating a living thing.
1……ペットロボット、2……胴体部ユニット、3A〜
3D……脚部ユニット、4……頭部ユニット、5……尻
尾部ユニット、10……コントローラ、14A……内部
メモリ、14B……外部メモリ、15……マイクロホ
ン、16……CCDカメラ、17……タッチセンサ、1
9l〜19n……アクチュエータ、30……状態認識機
構部、31……感情・本能モデル部、32……行動決定
機構部、33……姿勢遷移機構部、34……制御機構
部、35……判断部、DA……感情・本能データ、DB
……行動データ、DC……姿勢データ。1 ... pet robot, 2 ... body unit, 3A ~
3D ... leg unit, 4 ... head unit, 5 ... tail unit, 10 ... controller, 14A ... internal memory, 14B ... external memory, 15 ... microphone, 16 ... CCD camera, 17 ...... Touch sensor, 1
9 l ~ 19 n ...... actuator, 30 ...... state recognition mechanism unit, 31 ...... emotion or instinct model unit, 32 ...... action decision unit, 33 ...... posture transition mechanism unit, 34 ...... control mechanism unit, 35 …… Judgment part, DA …… Emotion / instinct data, DB
... action data, DC ... posture data.
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G05B 13/02 G05B 13/02 M Fターム(参考) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF16 EF23 EF29 EF33 3F059 AA00 BA00 BB06 DA05 DA07 DB04 DC01 DD00 FC00 3F060 AA00 BA10 CA14 5H004 GA26 GB16 HA07 HB03 HB07 HB20 JA03 JA22 JB05 JB06 JB08 KD52 KD55 KD70 MA23 MA29 9A001 HH19 KK32 KK62 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (reference) G05B 13/02 G05B 13/02 MF term (reference) 2C150 BA06 CA02 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED52 EF16 EF23 EF29 EF33 3F059 AA00 BA00 BB06 DA05 DA07 DB04 DC01 DD00 FC00 3F060 AA00 BA10 CA14 5H004 GA26 GB16 HA07 HB03 HB07 HB20 JA03 JA22 JB05 JB06 JB08 KD52 KD55 KD70 MA23 MA29 9A001 HH19 KK32 KK62
Claims (3)
ット装置において、 周囲及び又は自己の状態を認識する状態認識手段と、 上記状態認識手段による認識結果のうち、特定の上記認
識結果が得られたとき、上記第1の制御データを、上記
特定の認識結果に対応する生物を模倣して行動するため
の第2の制御データに変更するデータ変更手段とを具え
ることを特徴とするロボット装置。1. A robot apparatus which acts on the basis of first control data, comprising: state recognition means for recognizing a surrounding and / or self state; And a data changing means for changing the first control data to second control data for imitating a living thing corresponding to the specific recognition result when the first control data is received. apparatus.
上記第2の制御データを記憶するデータ記憶手段を具
え、 上記データ変更手段は、上記特定の認識結果が得られた
とき、上記複数種類の第2の制御データの中から当該認
識結果に対応する上記第2の制御データを読み出すこと
を特徴とする請求項1に記載のロボット装置。2. The apparatus according to claim 1, further comprising: a data storage unit that is removably mounted in the main body and stores a plurality of types of the second control data. The robot apparatus according to claim 1, wherein the second control data corresponding to the recognition result is read out from a plurality of types of second control data.
ット装置の制御方法において、 周囲及び又は自己の状態を認識する第1のステップと、 上記認識結果のうち、特定の上記認識結果が得られたと
き、上記第1の制御データを、上記特定の認識結果に対
応する生物を模倣して行動するための第2の制御データ
に変更する第2のステップとを具えることをことを特徴
とするロボット装置の制御方法。3. A control method for a robot apparatus acting based on first control data, comprising: a first step of recognizing a surrounding and / or a self state; and obtaining a specific one of the recognition results. And changing the first control data to second control data for imitating a creature corresponding to the specific recognition result. A method for controlling a robot device.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP37727699A JP2001191282A (en) | 1999-12-30 | 1999-12-30 | Robot apparatus and control method therefor |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP37727699A JP2001191282A (en) | 1999-12-30 | 1999-12-30 | Robot apparatus and control method therefor |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2001191282A true JP2001191282A (en) | 2001-07-17 |
Family
ID=18508553
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP37727699A Pending JP2001191282A (en) | 1999-12-30 | 1999-12-30 | Robot apparatus and control method therefor |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2001191282A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019138618A1 (en) * | 2018-01-10 | 2019-07-18 | ソニー株式会社 | Animal-shaped autonomous moving body, method of operating animal-shaped autonomous moving body, and program |
-
1999
- 1999-12-30 JP JP37727699A patent/JP2001191282A/en active Pending
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2019138618A1 (en) * | 2018-01-10 | 2019-07-18 | ソニー株式会社 | Animal-shaped autonomous moving body, method of operating animal-shaped autonomous moving body, and program |
| US20200333800A1 (en) * | 2018-01-10 | 2020-10-22 | Sony Corporation | Animal-shaped autonomous mobile object, method of causing animal-shaped autonomous mobile object to perform motion, and program |
| JPWO2019138618A1 (en) * | 2018-01-10 | 2020-12-17 | ソニー株式会社 | Animal-type autonomous mobiles, how animal-type autonomous mobiles operate, and programs |
| EP3738726A4 (en) * | 2018-01-10 | 2021-03-17 | Sony Corporation | AUTONOMOUS MOBILE BODY IN ANIMAL SHAPE, OPERATING METHOD OF AUTONOMOUS MOBILE BODY IN ANIMAL SHAPE AND PROGRAM |
| JP7238796B2 (en) | 2018-01-10 | 2023-03-14 | ソニーグループ株式会社 | ANIMAL-TYPE AUTONOMOUS MOBILE BODY, OPERATION METHOD OF ANIMAL-TYPE AUTONOMOUS MOBILE BODY, AND PROGRAM |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Fujita | AIBO: Toward the era of digital creatures | |
| US7117190B2 (en) | Robot apparatus, control method thereof, and method for judging character of robot apparatus | |
| CN100423911C (en) | Robotic device and its behavior control method | |
| US6889117B2 (en) | Robot apparatus and method and system for controlling the action of the robot apparatus | |
| EP1120740B1 (en) | Robot device, its control method, and recorded medium | |
| US6445978B1 (en) | Robot device and method for controlling the same | |
| US20030088336A1 (en) | Robot and control method for controlling the robot's motions | |
| JP2001191281A (en) | Editing device, editing method, and recording medium | |
| WO2000043167A1 (en) | Robot device and motion control method | |
| WO2000067959A1 (en) | Robot device and method for controlling the same | |
| JP3277500B2 (en) | Robot device | |
| JP2004298975A (en) | Robot device, obstacle search method | |
| JP2004130427A (en) | Robot apparatus and operation control method for robot apparatus | |
| JP3854061B2 (en) | Pseudo-biological device, pseudo-biological behavior formation method in pseudo-biological device, and computer-readable storage medium describing program for causing pseudo-biological device to perform behavior formation | |
| JP2001191282A (en) | Robot apparatus and control method therefor | |
| JP2002205289A (en) | Operation control method of robot device, program, recording medium, and robot device | |
| JP2001157982A (en) | Robot apparatus and control method therefor | |
| JP2002120179A (en) | Robot apparatus and control method therefor | |
| JP2001157980A (en) | Robot apparatus and control method therefor | |
| JP2001157979A (en) | Robot apparatus and control method therefor | |
| JP2001154707A (en) | Robot apparatus and control method therefor | |
| JP4411503B2 (en) | Robot apparatus and control method thereof | |
| JP2004130428A (en) | Robot apparatus, operation control method for robot apparatus, recording medium, and program | |
| JP2001157981A (en) | Robot apparatus and control method therefor | |
| JP2007125629A (en) | Robot apparatus and behavior control method thereof |