[go: up one dir, main page]

JP2001212782A - Robot device and control method for robot device - Google Patents

Robot device and control method for robot device

Info

Publication number
JP2001212782A
JP2001212782A JP2000027415A JP2000027415A JP2001212782A JP 2001212782 A JP2001212782 A JP 2001212782A JP 2000027415 A JP2000027415 A JP 2000027415A JP 2000027415 A JP2000027415 A JP 2000027415A JP 2001212782 A JP2001212782 A JP 2001212782A
Authority
JP
Japan
Prior art keywords
robot
robot apparatus
action
robot device
growth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000027415A
Other languages
Japanese (ja)
Inventor
Kotaro Sabe
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000027415A priority Critical patent/JP2001212782A/en
Publication of JP2001212782A publication Critical patent/JP2001212782A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Toys (AREA)
  • Navigation (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To determine the behavior on the basis of information between robot devices. SOLUTION: Robot devices 1a, 1b are provided with output parts for outputting signals of infrared rays and detecting parts for detecting signals of infrared rays. For example, as shown in Fig. 3, the robot device 1a (1b) is provided with an infrared ray communication means 26 making use of infrared rays and having directivity. Therefore, the robot devices 1a, 1b can exchange information when they are faced to each other.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、自主的に行動を決
定する自律型のロボット装置、及びそのようなロボット
装置の制御をするロボット装置の制御方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an autonomous robot apparatus for autonomously determining an action, and a control method for a robot apparatus for controlling such a robot apparatus.

【0002】[0002]

【従来の技術】従来、ユーザからの指令や周囲の環境に
応じて自主的に行動を決定する自律型のロボット装置の
提案及び開発がなされている。例えば、この種のロボッ
ト装置は、犬や猫のように多関節の四足動物によく似た
形状とされ、自律的に行動するようになされている。
2. Description of the Related Art Conventionally, there has been proposed and developed an autonomous robot apparatus which autonomously determines an action in response to a command from a user or a surrounding environment. For example, this type of robot apparatus has a shape very similar to an articulated quadruped such as a dog or a cat, and operates autonomously.

【0003】自律的な行動としては、具体的には、ロボ
ット装置は、ユーザから「ふせ」という音声命令を受け
取ると「伏せ」の姿勢をとったり、自分の口の前にユー
ザが手を差し出す動作に応じて「お手」をするようにな
されている。
[0003] As an autonomous action, specifically, when a robot device receives a voice command of "downplay" from a user, the robot device takes an "upturned" posture or moves the user in front of his / her own mouth. In accordance with the "hand" is done.

【0004】[0004]

【発明が解決しようとする課題】ところで、ユーザのコ
マンド装置(リモートコントローラ)の操作により、任
意の命令の実行が可能なロボット装置が提案されてい
る。例えば、コマンド装置から出力される音階コマンド
に応じて所定の動作をするようなロボット装置がある。
これにより、ユーザは、自律型のロボット装置として遊
ぶ以外にも自律行動時には発現しない面白い行動を音階
コマンドによって呼び出して鑑賞することができる。
By the way, there has been proposed a robot device capable of executing an arbitrary command by a user's operation of a command device (remote controller). For example, there is a robot device that performs a predetermined operation according to a scale command output from a command device.
This allows the user to call and enjoy an interesting action that does not appear during the autonomous action by using the musical scale command, in addition to playing as an autonomous robot apparatus.

【0005】このようにロボット装置は、自主的に行動
を決定し、或いはコマンド装置から送られてくる情報に
より行動を決定することができる。
[0005] As described above, the robot device can independently determine an action or determine an action based on information sent from a command device.

【0006】しかし、自律型のロボット装置間において
情報の交換はなされていない。よって、そのようなロボ
ット装置間の情報の交換に基づく行動の決定等もなされ
ていない。ロボット装置間で決定される情報に応じた行
動をすることができれば、ロボット装置の行動を鑑賞す
るユーザの楽しさは増大する。
However, information is not exchanged between autonomous robot devices. Therefore, no action is determined based on the exchange of information between such robot devices. If an action according to information determined between the robot apparatuses can be performed, the pleasure of the user who appreciates the action of the robot apparatus increases.

【0007】そこで、本発明は、上述の実情に鑑みてな
されたものであり、ロボット装置間の情報に基づいて行
動を決定するロボット装置及びロボット装置の制御方法
を提供することを目的としている。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and has as its object to provide a robot apparatus that determines an action based on information between robot apparatuses and a control method of the robot apparatus.

【0008】[0008]

【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、自主的に行動を決
定する自律型のロボット装置であって、他のロボット装
置に所定の向きで対面した際に、所定の処理を開始する
制御手段を備える。
A robot apparatus according to the present invention is an autonomous robot apparatus for autonomously determining an action in order to solve the above-mentioned problems, and is provided with a predetermined orientation to another robot apparatus. And a control means for starting a predetermined process when faced with.

【0009】このような構成を備えたロボット装置は、
他のロボット装置と所定の向きで対面した際に情報交換
行動等の所定の処理を発現する。
A robot device having such a configuration is
When a robot faces another robot device in a predetermined direction, it performs a predetermined process such as an information exchange action.

【0010】また、本発明に係るロボット装置の制御方
法は、上述の課題を解決するために、自主的に行動を決
定する自律型のロボット装置の制御をするロボット装置
の制御方法であって、他のロボット装置に所定の向きで
対面した際に、所定の処理を開始する。
In order to solve the above-mentioned problems, a method for controlling a robot apparatus according to the present invention is a method for controlling an autonomous robot apparatus that autonomously determines an action, When a user faces another robot device in a predetermined direction, a predetermined process is started.

【0011】このようなロボット装置の制御方法によ
り、ロボット装置は、他のロボット装置と所定の向きで
対面した際に、情報交換行動等の所定の処理を発現す
る。
[0011] According to such a control method of the robot device, when the robot device confronts another robot device in a predetermined direction, it performs a predetermined process such as an information exchange action.

【0012】また、本発明に係るロボット装置は、上述
の課題を解決するために、自主的に行動を決定する自律
型のロボット装置であって、他のロボット装置から所定
の領域内に入ったときに、所定の処理を開始する制御手
段を備える。
Further, in order to solve the above-mentioned problems, a robot apparatus according to the present invention is an autonomous robot apparatus which determines an action independently, and enters a predetermined area from another robot apparatus. Sometimes, a control means for starting a predetermined process is provided.

【0013】このような構成を備えたロボット装置は、
他のロボット装置から所定の領域内に入ったときに、情
報交換行動等の所定の処理を発現する。
[0013] The robot device having such a configuration is as follows.
When entering a predetermined area from another robot device, a predetermined process such as an information exchange action is performed.

【0014】また、本発明に係るロボット装置の制御方
法は、上述の課題を解決するために、自主的に行動を決
定する自律型のロボット装置の制御をするロボット装置
の制御方法であって、他のロボット装置から所定の領域
内に入ったときに、所定の処理を開始する。
According to another aspect of the present invention, there is provided a control method of a robot apparatus for controlling an autonomous robot apparatus which independently determines an action. When a robot enters a predetermined area from another robot device, a predetermined process is started.

【0015】このようなロボット装置の制御方法によ
り、ロボット装置は、他のロボット装置から所定の領域
内に入ったときに、情報交換行動等の所定の処理を発現
する。
According to such a control method of the robot device, the robot device performs a predetermined process such as an information exchange action when the robot device enters a predetermined area from another robot device.

【0016】また、本発明に係るロボット装置は、上述
の課題を解決するために、自主的に行動を決定する自律
型のロボット装置であって、自己の周囲にいる他のロボ
ット装置の成長の度合いを検出する成長度合い検出手段
と、成長度合い検出手段が検出した他のロボット装置の
成長の度合いに応じて所定の処理を開始する制御手段と
を備える。
Further, in order to solve the above-mentioned problems, a robot device according to the present invention is an autonomous robot device which determines an action independently, and is used for growth of other robot devices around itself. A growth degree detecting means for detecting the degree, and a control means for starting a predetermined process according to the growth degree of another robot apparatus detected by the growth degree detecting means are provided.

【0017】このような構成を備えたロボット装置は、
自己の周囲にいる他のロボット装置の成長の度合いを成
長度合い検出手段により検出し、成長度合い検出手段が
検出した他のロボット装置の成長の度合いに応じて制御
手段により所定の処理を開始する。
A robot device having such a configuration is as follows.
The degree of growth of another robot device around itself is detected by the growth degree detecting means, and a predetermined process is started by the control means according to the degree of growth of the other robot apparatus detected by the growing degree detecting means.

【0018】これにより、ロボット装置は、自己の周囲
にいる他のロボット装置の成長の度合いに応じて所定の
処理を開始する。
Thus, the robot device starts a predetermined process according to the degree of growth of other robot devices around itself.

【0019】また、本発明に係るロボット装置の制御方
法は、上述の課題を解決するために、自主的に行動を決
定する自律型のロボット装置の制御をするロボット装置
の制御方法であって、自己の周囲にいる他のロボット装
置の成長の度合いを検出する成長度合い検出工程と、成
長度合い検出工程にて検出した他のロボット装置の成長
の度合いに応じて所定の処理を開始する処理工程とを有
する。
In order to solve the above-mentioned problem, a control method of a robot apparatus according to the present invention is a control method of a robot apparatus that controls an autonomous robot apparatus that independently determines an action, A growth degree detection step of detecting the growth degree of another robot device around itself, and a processing step of starting a predetermined process according to the growth degree of the other robot device detected in the growth degree detection step Having.

【0020】このロボット装置の制御方法により、ロボ
ット装置は、自己の周囲にいる他のロボット装置の成長
の度合いに応じて所定の処理を開始する。
According to the control method of the robot device, the robot device starts a predetermined process according to the growth degree of another robot device around itself.

【0021】また、本発明に係るロボット装置は、上述
の課題を解決するために、自主的に行動を決定する自律
型のロボット装置であって、他のロボット装置から送信
されてくる地図情報を受信する受信手段と、現在位置を
検出する位置検出手段と、位置検出手段の検出により得
た現在位置情報と受信手段が受信した地図情報とに基づ
いて行動を制御する制御手段とを備える。
Further, in order to solve the above-mentioned problem, the robot apparatus according to the present invention is an autonomous robot apparatus that determines an action independently, and uses map information transmitted from another robot apparatus. There are provided a receiving means for receiving, a position detecting means for detecting the current position, and a control means for controlling an action based on the current position information obtained by the detection of the position detecting means and the map information received by the receiving means.

【0022】このような構成を備えたロボット装置は、
他のロボット装置から送信されてくる地図情報を受信手
段により受信して、位置検出手段の検出により得た現在
位置情報と受信手段が受信した地図情報とに基づいた行
動を制御手段により制御する。
The robot device having such a configuration is as follows.
The map information transmitted from the other robot device is received by the receiving unit, and the control unit controls an action based on the current position information obtained by the detection of the position detecting unit and the map information received by the receiving unit.

【0023】これにより、ロボット装置は、他のロボッ
ト装置から取得した地図情報に基づいて、例えば所定の
目的物まで移動する。
Thus, the robot device moves to, for example, a predetermined target based on the map information obtained from another robot device.

【0024】また、本発明に係るロボット装置の制御方
法は、上述の課題を解決するために、自主的に行動を決
定する自律型のロボット装置の制御をするロボット装置
の制御方法であって、他のロボット装置から送信されて
くる地図情報をロボット装置が受信する受信工程と、現
在位置の情報と受信工程にて受信した地図情報とに基づ
いてロボット装置の行動を制御する移動工程とを有す
る。
According to another aspect of the present invention, there is provided a control method of a robot apparatus for controlling an autonomous robot apparatus which independently determines an action. The robot apparatus has a receiving step of receiving map information transmitted from another robot apparatus, and a moving step of controlling the behavior of the robot apparatus based on information on the current position and the map information received in the receiving step. .

【0025】このようなロボット装置の制御方法によ
り、ロボット装置は、他のロボット装置から取得した地
図情報に基づいて、例えば所定の目的物まで移動する。
According to such a control method of the robot apparatus, the robot apparatus moves to, for example, a predetermined target based on the map information obtained from another robot apparatus.

【0026】また、本発明に係るロボット装置は、上述
の課題を解決するために、自主的に行動を決定する自律
型のロボット装置であって、移動して得られる周囲の状
況に基づいて地図情報を作製する地図情報作製手段と、
地図作製手段が作製した地図情報が記憶される地図情報
記憶手段とを備える。
Further, in order to solve the above-mentioned problems, a robot apparatus according to the present invention is an autonomous robot apparatus which determines an action autonomously, and a map based on surrounding conditions obtained by moving. Map information producing means for producing information;
Map information storage means for storing map information created by the map creation means.

【0027】このような構成を備えたロボット装置は、
移動して得られる周囲の状況に基づいて地図情報を地図
情報作製手段により作製し、地図作製手段が作製した地
図情報が地図情報記憶手段に記憶される。
The robot device having such a configuration is as follows.
Map information is created by the map information creating means based on the surrounding situation obtained by moving, and the map information created by the map creating means is stored in the map information storage means.

【0028】これにより、ロボット装置は、地図情報を
作製して、この地図情報を、例えば他のロボット装置に
提供するために保持する。
Thus, the robot device creates map information and holds the map information to provide it to, for example, another robot device.

【0029】また、本発明に係るロボット装置の制御方
法は、上述の課題を解決するために、自主的に行動を決
定する自律型のロボット装置の制御をするロボット装置
の制御方法であって、ロボット装置が移動して得られる
周囲の状況に基づいて地図情報を作製する地図情報作成
工程と、地図作製工程にて作製した地図情報を地図情報
記憶手段に記憶する記憶工程とを有する。
Further, in order to solve the above-mentioned problem, a control method of a robot apparatus according to the present invention is a control method of a robot apparatus for controlling an autonomous robot apparatus which independently determines an action, It has a map information creation step of creating map information based on the surrounding situation obtained by moving the robot device, and a storage step of storing the map information created in the map creation step in the map information storage means.

【0030】このロボット装置の制御方法により、ロボ
ット装置は、地図情報を作製して、この地図情報を、例
えば他のロボット装置に提供するために保持する。
According to the control method of the robot device, the robot device creates map information and holds the map information to provide it to, for example, another robot device.

【0031】[0031]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、本
発明を、自主的に行動を決定する自律型のロボット装置
に適用したものである。
Embodiments of the present invention will be described below in detail with reference to the drawings. In this embodiment, the present invention is applied to an autonomous robot device that determines an action independently.

【0032】ロボット装置は、図1に示すように、移動
のため駆動される脚部2a,2b,2c,2dと、CC
D(Charge Coupled Device)ビデオカメラなどが収容
された頭部3と、胴体4とを備えている。このロボット
装置1は、図2に示すように、ユーザが「おて」と言う
と、前脚2aをユーザの手300にのせる「お手」の動
作をするといった自主的な行動をすることができるよう
になされている。
As shown in FIG. 1, the robot apparatus has legs 2a, 2b, 2c, and 2d driven for movement and CCs.
A head 3 in which a D (Charge Coupled Device) video camera is accommodated and a body 4 are provided. As shown in FIG. 2, when the user says “front”, the robot apparatus 1 can take an independent action such as performing “hand” in which the front leg 2 a is put on the user's hand 300. It has been made possible.

【0033】このロボット装置は、自主的な行動を、感
情モデルや本能モデルに基づいて決定している。ここ
で、感情モデルとは、行動に感情を表出させるためのモ
デル化された情報からなり、本能モデルとは、行動に本
能を表出させるためのモデル化された情報からなる。
This robot device determines an independent action based on an emotion model or an instinct model. Here, the emotion model is composed of modeled information for causing the behavior to express an emotion, and the instinct model is configured of modeled information for causing the behavior to express an instinct.

【0034】具体的には、ロボット装置1は、外的要因
又は内的要因とされる各種センサからの入力に応じて感
情モデルや本能モデルにより感情や本能の状態を変化さ
せ、その変化された感情や本能に応じて自主的に行動を
決定するようになされている。
More specifically, the robot apparatus 1 changes the state of emotions and instinct by an emotion model or an instinct model in accordance with an input from various sensors as external factors or internal factors. They decide their actions voluntarily according to their emotions and instinct.

【0035】このように自主的に行動を決定する自律的
なロボット装置は、他のロボット装置との間で情報を交
換する手段を備えている。通信手段の具体例を以下に説
明する。
As described above, the autonomous robot apparatus which determines the action independently includes means for exchanging information with another robot apparatus. A specific example of the communication means will be described below.

【0036】通信手段としては、赤外線を利用した通信
手段が挙げられる。具体的には、ロボット装置は、赤外
線を利用した通信手段として、赤外線による信号を出力
する出力部と、赤外線による信号を検出する検出部とを
備えている。例えば図3に示すように、ロボット装置1
a(1b)は、出力部と検出部とが一体化された、赤外
線を利用した赤外線通信手段26を備えている。
As the communication means, there is a communication means using infrared rays. Specifically, the robot device includes, as communication means using infrared light, an output unit that outputs a signal using infrared light, and a detection unit that detects a signal using infrared light. For example, as shown in FIG.
a (1b) includes an infrared communication means 26 using infrared light, in which an output unit and a detection unit are integrated.

【0037】このような通信手段により、ロボット装置
1aは、この図3に示すように、他のロボット装置1b
との間で赤外線を利用したデータ通信を行うことができ
るようになされている。
As shown in FIG. 3, the robot device 1a is connected to another robot device 1b by such communication means.
It is possible to perform data communication using infrared rays between the device and the device.

【0038】また、通信手段としては、音階信号を利用
した通信手段が挙げられる。具体的には、ロボット装置
は、信号を音階により出力する出力部と、音階による信
号を検出する検出部とを備えている。例えば、ロボット
装置において、出力部は声等を発生させるために用意さ
れているスピーカであり、検出部は周囲の音を検出させ
るために用意されているマイクロホンである。具体的に
は、図4に示すように、ロボット装置1a(1b)にお
いて、マイクロホン21は耳に相当し、スピーカ23は
口に相当する。
As the communication means, there is a communication means using a scale signal. Specifically, the robot device includes an output unit that outputs a signal based on a musical scale, and a detection unit that detects a signal based on the musical scale. For example, in the robot device, the output unit is a speaker prepared for generating a voice or the like, and the detection unit is a microphone prepared for detecting surrounding sounds. Specifically, as shown in FIG. 4, in the robot apparatus 1a (1b), the microphone 21 corresponds to an ear, and the speaker 23 corresponds to a mouth.

【0039】このような通信手段により、ロボット装置
1aは、図4に示すように、他のロボット装置1bとの
間で音階信号を利用したデータ通信を行うことができる
ようになされている。
By means of such communication means, the robot device 1a can perform data communication using a musical scale signal with another robot device 1b as shown in FIG.

【0040】また、通信手段としては、電波を利用した
通信手段が挙げられる。例えば、図2に示すように、ロ
ボット装置1は、PCカードが装着自在とされるPCカ
ードスロット14を備えている。
As the communication means, there is a communication means using radio waves. For example, as shown in FIG. 2, the robot apparatus 1 includes a PC card slot 14 into which a PC card can be mounted.

【0041】ここで、PCカードとしては、メモリカー
ドや無線LANカード等が挙げられる。ロボット装置1
は、PCカードスロット14により、メモリカードに対
するデータの記録や再生を行うことができ、また、無線
LANカードを利用してローカルエリアネットワーク上
のパーソナルコンピュータ等とデータ通信を行うことが
できる。例えば、ロボット装置1は、図5に示すよう
に、PCカードスロット14とPCカード200との間
でデータの受渡しをするための構成として、内部バス1
8上でPCカードスロット(I/F)14と接続される
データ記憶部13やCPU(Central Processing Uni
t)15等を少なくとも有している。データ記憶部13
は、各種データが記憶される部分であり、CPU15は
ロボット装置の行動の制御等を行う部分である。
Here, examples of the PC card include a memory card and a wireless LAN card. Robot device 1
The PC card slot 14 can record and reproduce data on a memory card, and can perform data communication with a personal computer or the like on a local area network using a wireless LAN card. For example, as shown in FIG. 5, the robot apparatus 1 has an internal bus 1 as a configuration for transferring data between the PC card slot 14 and the PC card 200.
8 and a data storage unit 13 connected to a PC card slot (I / F) 14 and a CPU (Central Processing Uniform).
t) at least 15 and the like. Data storage unit 13
Is a portion in which various data are stored, and the CPU 15 is a portion for controlling the behavior of the robot apparatus and the like.

【0042】ロボット装置1は、このようなPCカード
スロット14及びPCカードスロット14に装着された
無線LANカード(PCカード200)により、電波に
よる通信手段を構成している。
The robot apparatus 1 constitutes communication means by radio waves using the PC card slot 14 and the wireless LAN card (PC card 200) mounted in the PC card slot 14.

【0043】これにより、ロボット装置1aは、図6に
示すように、他のロボット装置1bとの間で電波を利用
したデータ通信ができるようになされている。
Thus, as shown in FIG. 6, the robot apparatus 1a can perform data communication with another robot apparatus 1b using radio waves.

【0044】以上述べたような通信手段を備えることに
より、ロボット装置1は、他のロボット装置との間で情
報を交換できるようになされている。なお、通信手段は
これに限定されるものではないことはいうまでもない。
The provision of the communication means as described above allows the robot apparatus 1 to exchange information with another robot apparatus. It goes without saying that the communication means is not limited to this.

【0045】本発明が適用されているロボット装置1
は、このように他のロボット装置と情報の交換をするこ
とができることで、以下のようなことを実現している。
Robot device 1 to which the present invention is applied
Can exchange information with other robot apparatuses in this way, thereby realizing the following.

【0046】ロボット装置がそれぞれ向き合ったとき、
所定の処理を開始することを実現している。具体的に
は、ロボット装置が向き合ったときに、ロボット装置間
でデータの送受信をすることで、ロボット装置は所定の
処理を開始する。
When the robot devices face each other,
Starting predetermined processing is realized. Specifically, when the robot devices face each other, data is transmitted and received between the robot devices, so that the robot device starts a predetermined process.

【0047】このような処理は、具体的には、赤外線を
利用した通信手段により可能とされ、赤外線の出力部及
び赤外線の検出部をロボット装置の前方方向に向くよう
に備えることにより可能とされる。
Such processing is specifically enabled by a communication means using infrared rays, and is enabled by providing an infrared ray output section and an infrared ray detection section so as to face forward of the robot apparatus. You.

【0048】すなわち、出力部は、赤外線による信号を
前方方向に出力する信号出力部を構成し、検出部は、前
方方向から送信されてくる他のロボット装置からの赤外
線による信号を受信する信号受信部を構成する。そし
て、CPU等の制御手段は、検出部により検出された信
号に基づいて所定の処理を開始する。
That is, the output section constitutes a signal output section for outputting a signal based on infrared rays in the forward direction, and the detection section includes a signal receiving section for receiving a signal based on infrared rays from another robot apparatus transmitted from the forward direction. Make up the part. Then, the control means such as the CPU starts predetermined processing based on the signal detected by the detection unit.

【0049】赤外線による信号の伝搬方向には指向性が
あるといえるので、図3に示すように、出力部及び検出
部(通信手段26)を前方に向くように備えることで、
任意の方角に向いていたロボット装置が互いに正面に向
き合ったときに、出力部から出力されている赤外線が検
出部において検出される。これにより、ロボット装置間
で通信状態が接続状態となり、さらに情報交換が可能と
なり、結果として互いに相手のロボット装置の存在を確
認することができ、互いに向き合ったとして認識でき
る。例えば、後述するように、情報交換は赤外線通信ポ
ートを介して行われる。
Since it can be said that the propagation direction of the signal by infrared rays has directivity, as shown in FIG. 3, the output unit and the detection unit (communication means 26) are provided so as to face forward.
When the robot devices facing any directions face each other in front, infrared light output from the output unit is detected by the detection unit. As a result, the communication state becomes a connected state between the robot apparatuses, and further information exchange becomes possible. As a result, the existence of the other robot apparatuses can be confirmed, and the robot apparatuses can be recognized as facing each other. For example, as described later, information exchange is performed via an infrared communication port.

【0050】すなわち、図7中(A)及び(B)に示す
ように、2台のロボット装置1a,1bが向き合ってい
ないような場合には、ロボット装置1aは相手のロボッ
ト装置1bを認識していることにはならず、図7中
(C)に示すように、2台のロボット装置1a,1bが
向き合った場合にのみ、ロボット装置1aは相手のロボ
ット装置1bを認識することができるようになる。
That is, as shown in FIGS. 7A and 7B, when the two robot apparatuses 1a and 1b are not facing each other, the robot apparatus 1a recognizes the other robot apparatus 1b. This does not mean that the robot device 1a can recognize the other robot device 1b only when the two robot devices 1a and 1b face each other as shown in FIG. 7C. become.

【0051】このように、ロボット装置1aは、他のロ
ボット装置1bと向き合ったことを認識することがで
き、この時に所定の処理を実行する。
As described above, the robot device 1a can recognize that the robot device 1a has faced another robot device 1b, and at this time, executes a predetermined process.

【0052】所定の処理としては、例えば、所定の動作
(行動)や所定の情報の交換をすること等が挙げられ
る。
The predetermined processing includes, for example, performing a predetermined operation (action) and exchanging predetermined information.

【0053】所定の動作としては、例えば、向き合った
際にあいさつをすることや、吠えるといった犬等の動物
が一般的に相手の動物にする動作が挙げられる。これに
より、向き合ったロボット装置1の行動が多様化され、
ユーザの鑑賞する楽しさが増加される。
Examples of the predetermined operation include an operation in which an animal such as a dog generally makes a partner animal, such as greeting when facing each other or barking. This diversifies the actions of the robot device 1 facing each other,
The pleasure of viewing by the user is increased.

【0054】また、所定の情報としては、例えば、感情
の状態や本能の状態等が挙げられる。向き合ったロボッ
ト装置の感情の状態や本能の状態を交換することによ
り、ロボット装置は、相手のロボット装置の感情や本能
に応じた行動をとることができる。具体的には、ロボッ
ト装置は、上述したように、動作に感情を表出させるた
めの感情モデルや、動作に本能を表出させるための本能
モデルを備えているが、この感情モデルや本能モデルの
状態の情報を交換することで、相手のロボット装置の感
情や本能の状態を知り、それに応じた動作をとるように
する。また、後で詳述するが、成長の度合いを示す成長
レベルの情報を交換する情報とすることもできる。
The predetermined information includes, for example, the state of emotion and the state of instinct. By exchanging the emotional state and instinct state of the facing robotic device, the robotic device can take an action according to the emotion and instinct of the other robotic device. Specifically, as described above, the robot apparatus includes an emotion model for expressing an emotion in the motion and an instinct model for expressing an instinct in the motion. By exchanging the information on the state of the robot device, the emotion and instinct state of the partner robot device are known, and the operation corresponding to the state is performed. As will be described in detail later, information of a growth level indicating the degree of growth may be exchanged.

【0055】また、ロボット装置は、所定の処理を、相
手のロボット装置と所定の領域内に入ったときにするこ
ともできる。そのための構成として、ロボット装置は、
所定の領域内において受信可能な出力レベルの信号を出
力する信号出力部を備える。このような信号出力部をロ
ボット装置が備えることで、他のロボット装置は、当該
信号出力部を備えるロボット装置から所定の領域内に入
らない限り信号を受信することができない。換言すれ
ば、ロボット装置が他のロボット装置からの信号が受信
できた場合には、ロボット装置は、他のロボット装置か
ら所定の領域内に位置されていることになる。
Further, the robot apparatus can perform the predetermined processing when the robot apparatus enters a predetermined area with the other robot apparatus. As a configuration for that, the robot device
A signal output unit that outputs a signal having an output level that can be received in a predetermined area. By providing such a signal output unit in the robot device, another robot device cannot receive a signal from a robot device including the signal output unit unless the robot device enters a predetermined area. In other words, when the robot device can receive a signal from another robot device, the robot device is located within a predetermined area from the other robot device.

【0056】通信手段が赤外線を利用したものである場
合について具体的に説明すると、出力部からの赤外線の
出力レベルを所定のレベルにすることにより、すなわ
ち、所定の領域内においてのみ受信可能な出力レベルと
することにより、そのような赤外線による信号を受信し
た事実が、その信号を出力している他のロボット装置か
ら所定の領域内にその信号を受信したロボット装置が位
置されることを示すことになる。
The case where the communication means uses infrared rays will be specifically described. The output level of infrared rays from the output unit is set to a predetermined level, that is, an output which can be received only within a predetermined area. By setting the level, the fact that such an infrared signal is received indicates that the robot device that has received the signal is located within a predetermined area from another robot device that is outputting the signal. become.

【0057】これにより、図8中(A)に示すように、
ロボット装置1a,1bの間の距離がL1のときには認
識できないような場合であっても、図8中(B)に示す
ように、距離がL2となったときに、ロボット装置1a
が赤外線による信号を出力している相手のロボット装置
1bを認識できるようになる。これにより、例えば、ロ
ボット装置1a,1bの間の距離がL2になった時に、
ロボット装置が相手のロボット装置を認識し、所定の処
理としてのあいさつをするといったことができるように
なる。
As a result, as shown in FIG.
Robot apparatus 1a, also the distance between 1b is a case which can not be recognized at the time of L 1, as shown in FIG. 8 (B), when the distance becomes L 2, the robot apparatus 1a
Can recognize the partner robot device 1b that is outputting a signal by infrared rays. Thus, for example, when the distance between the robot apparatus 1a, 1b becomes L 2,
The robot device can recognize the other robot device and can greet the user as a predetermined process.

【0058】なお、赤外線を利用した通信手段の場合に
は、上述したように信号の伝搬方向に指向性があること
から、例えば図3に示すように、正面方向に向くように
通信手段26を取り付けてられているときには、向き合
っていることを前提として、ロボット装置が所定の領域
内にあるとして認識することが可能となっている。
In the case of the communication means using infrared rays, since the signal propagation direction has directivity as described above, the communication means 26 is directed to the front as shown in FIG. 3, for example. When the robot device is attached, it is possible to recognize that the robot device is within a predetermined area on the assumption that the robot device faces each other.

【0059】このようなことから、出力される信号に指
向性のない通信手段、例えば電波を利用した通信手段を
備えることとすれば、上述したように電波の出力を所定
のレベルとすることで、ロボット装置が向き合っている
か否かに左右されることなく、ロボット装置が所定の領
域内にあるとして認識できるようにもなる。
In view of the above, if communication means having no directivity in output signals, for example, communication means using radio waves, is provided, the output of radio waves is set to a predetermined level as described above. Also, the robot device can be recognized as being within a predetermined area without depending on whether the robot device is facing each other.

【0060】また、距離を検出することで、距離に応じ
た処理を行うようにすることもできる。例えば、ロボッ
ト装置間の距離に応じて異なる行動をとるといったよう
にである。
Further, by detecting the distance, a process corresponding to the distance can be performed. For example, different actions are taken according to the distance between the robot devices.

【0061】以上のように、ロボット装置は、他のロボ
ット装置との間で情報を交換できる通信手段を備えるこ
とで、向き合ったときや、所定の領域内に他のロボット
装置が入ったときに、所定の処理を行うようなことがで
きる。
As described above, the robot device is provided with the communication means capable of exchanging information with another robot device, so that the robot device can be used when facing each other or when another robot device enters a predetermined area. , Predetermined processing can be performed.

【0062】ロボット装置との間で交換する情報が成長
レベルの情報である場合についてさらに具体的に説明す
る。
The case where the information exchanged with the robot device is the growth level information will be described more specifically.

【0063】ロボット装置は、成長レベルに応じて行動
をさせることができるようになされている。成長レベル
に応じた行動とは、具体的には、成長レベルが低いと
き、すなわち「幼少期」には、おぼつかない足取りと
し、成長レベルが高いとき、すなわち「青年期」には、
さっそうと歩くといった行動である。このような成長レ
ベルに応じて行動を決定するようにすることで、ロボッ
ト装置は、同じ歩行動作であっても成長段階に応じて異
なる動作をとるようになる。なお、成長モデルについて
は、後で詳述する。
The robot device is designed to behave according to the growth level. The action according to the growth level is, specifically, when the growth level is low, that is, in the "childhood", it is a rough step, and when the growth level is high, that is, in the "adolescence",
It is an action of walking quickly. By deciding an action according to such a growth level, the robot apparatus takes different actions according to the growth stage even if the walking action is the same. The growth model will be described later in detail.

【0064】このような成長レベルの情報、どのような
成長段階にあるかを示す情報を、ロボット装置は他のロ
ボット装置と向かい合ったとき、或いは他のロボット装
置が所定の領域内に入ったとき(以下、このようなとき
を、出逢ったときという。)に次のような処理を行う。
The information on the growth level and the information indicating the stage of the growth, when the robot device faces another robot device, or when the other robot device enters a predetermined area. (Hereinafter, such a time is referred to as a time of encounter.) The following processing is performed.

【0065】ロボット装置は、他のロボット装置と出逢
ったとき、上述したような通信手段により成長レベルの
情報の交換をする。そして、相手のロボット装置の成長
レベルの情報を受け取ったロボット装置は、当該相手の
ロボット装置の成長レベルを知ることができ、その相手
の成長レベルに応じて自己の行動を決定する。
When the robot device encounters another robot device, it exchanges information on the growth level by the communication means as described above. Then, the robot device that has received the information on the growth level of the partner robot device can know the growth level of the partner robot device, and determines its own behavior according to the growth level of the partner device.

【0066】例えば、ロボット装置は、他のロボット装
置の成長レベルに応じて自己の成長レベルを変化させ
る。
For example, a robot device changes its own growth level according to the growth level of another robot device.

【0067】具体的には、ロボット装置は、相手のロボ
ット装置の成長レベルが高いときには、相手の成長レベ
ルに応じて自己の成長レベルを高くして、その成長レベ
ルに応じて行動を決定する。これにより、成長レベルが
高いロボット装置と出逢ったロボット装置は、自己の成
長レベルが高くなることで、自己も成長した行動をする
ようになる。また、ロボット装置は、相手のロボット装
置の成長レベルが低いときには、相手のロボット装置の
成長レベルに応じて自己の成長レベルを下げて、その成
長レベルに応じた行動を決定する。これにより、成長レ
ベルが低いロボット装置と出逢ったロボット装置は、自
己の成長レベルが低くなることで、その相手のロボット
装置に応じて自己の行動を幼い行動として決定すること
ができるようになる。
Specifically, when the growth level of the other robot apparatus is high, the robot apparatus raises its own growth level according to the growth level of the other party, and determines an action according to the growth level. As a result, a robot device that encounters a robot device having a high growth level has a self-grown behavior by increasing its own growth level. Further, when the growth level of the other robot apparatus is low, the robot apparatus lowers its own growth level according to the growth level of the other robot apparatus and determines an action according to the growth level. Thus, a robot device that encounters a robot device with a low growth level can determine its own behavior as a young behavior according to its partner robot device because its own growth level is low.

【0068】また、ロボット装置は、成長度合い検出手
段が検出した他のロボット装置の成長レベルと自己の成
長レベルとを比較する比較手段を備えることで、この比
較手段による比較結果が自己の成長レベルの方が低い場
合には、他のロボット装置に従う行動をして、比較手段
による比較結果が自己の成長レベルが高い場合には、他
のロボット装置に従わない行動をするといったようにす
ることもできる。なお、比較手段としては、CPU等に
より処理可能なソフトウェアとして構成されているもの
が挙げられる。
Also, the robot apparatus includes comparison means for comparing the growth level of another robot apparatus detected by the growth degree detection means with its own growth level, and the result of comparison by this comparison means is equal to its own growth level. If the value is lower, the robot may act according to another robot device, and if the comparison result obtained by the comparing means indicates that the self growth level is high, the robot may act not according to the other robot device. it can. In addition, as the comparison means, there is a means configured as software that can be processed by a CPU or the like.

【0069】このように相手のロボット装置の成長レベ
ルに応じて自己の行動を決定するといったものは、動物
界において一般的に観られるような、相手により、成長
が促進され、成長が抑制されるといったようなものであ
り、よって、ロボット装置はこのような動物界における
一般的な行動形態を取り入れられたものとなる。例え
ば、このような周囲の成長レベルに応じて、自己の成長
レベルを変化させることは、群衆心理等の結果として得
られるところでもある。
In the case of deciding one's own behavior in accordance with the growth level of the robot apparatus of the other party, the growth is promoted and the growth is suppressed by the other party as generally observed in the animal kingdom. Therefore, the robot apparatus adopts such a general behavior form in the animal kingdom. For example, changing the self growth level according to the surrounding growth level may be obtained as a result of crowd psychology or the like.

【0070】なお、交換する情報は成長レベルに限定さ
れるものではなく、他の情報、例えば肉体的な強弱の情
報であってもよい。例えば、肉体的な強弱の情報とし
て、足を駆動するモータのトルクの情報を送ることとす
れば、これにより、ロボット装置間の肉体的な強弱(ハ
ードウェアの強弱)の関係に応じて、ロボット装置は行
動を決定するようになる。
The information to be exchanged is not limited to the growth level, but may be other information, for example, physical strength information. For example, if information on the torque of the motor that drives the feet is sent as the information on the physical strength, this allows the robot to change its physical strength (hardware strength) according to the relationship between the robots. The device will determine the action.

【0071】また、ロボット装置は、地図情報を、交換
する情報とすることもできる。なお、地図情報は、記憶
手段に予め記憶されている情報であってもよく、ロボッ
ト装置自身が行動した結果として得た情報であってもよ
い。
Further, the robot apparatus can use the map information as information to be exchanged. The map information may be information stored in advance in the storage unit, or may be information obtained as a result of the robot apparatus acting itself.

【0072】ロボット装置自身による地図情報の取得に
ついては、具体的には以下のようにしてなされる。地図
情報として飼い主の部屋の情報を得る場合について説明
する。飼い主の部屋には、例えば図9に示すように、2
台のロボット装置1a,1bがいて、机、イス、クッシ
ョン、餌箱、ボール等が散在しているとする。
The acquisition of map information by the robot device itself is specifically performed as follows. A case where information on the owner's room is obtained as map information will be described. For example, as shown in FIG.
Assume that there are two robot apparatuses 1a and 1b, and desks, chairs, cushions, bait boxes, balls and the like are scattered.

【0073】このロボット装置1a,1bは、図10に
示すように、移動して得られる周囲の状況に基づいて地
図情報を作製する地図情報作製手段10と、地図情報作
製手段10が作製した地図情報が記憶される記憶手段8
と、記憶手段8に記憶されている地図情報を、他のロボ
ット装置に送信する送信手段6を備えている。このよう
な構成により、ロボット装置1a,1bは、地図情報を
作製して、この作製した地図情報を他のロボット装置に
送ることができる。すなわち、この構成は、他のロボッ
ト装置に地図情報を送るためにある。なお、上述の各部
は、バスにより接続されている。
As shown in FIG. 10, the robot apparatuses 1a and 1b are provided with a map information creating means 10 for creating map information based on a surrounding situation obtained by moving, and a map created by the map information creating means 10. Storage means 8 for storing information
And a transmission unit 6 for transmitting the map information stored in the storage unit 8 to another robot device. With such a configuration, the robot apparatuses 1a and 1b can create map information and send the created map information to another robot apparatus. That is, this configuration is for sending map information to another robot device. The above-described units are connected by a bus.

【0074】また、ロボット装置1a,1bは、図10
に示すように、他のロボット装置から送信されてくる地
図情報を受信する受信手段7と、現在位置を検出する位
置検出手段7と、位置検出手段7の検出により得た現在
位置情報と受信手段7が受信した地図情報とに基づいて
行動を制御する制御手段7とを備えている。このような
構成により、ロボット装置1a,1bは、他のロボット
装置から送られてくる地図情報を受信して、受信した地
図情報に基づいて、例えば所定の目的物まで移動するこ
とができる。すなわち、この構成は、他のロボット装置
から送られくる地図情報に基づいて行動するためにあ
る。以下に、第1のロボット装置1aが地図情報を作製
して、第2のロボット装置1bが第1のロボット装置1
aが作製した地図情報に基づいて行動を決定する場合に
ついて具体的に説明する。
Further, the robot apparatuses 1a and 1b
As shown in the figure, receiving means 7 for receiving map information transmitted from another robot device, position detecting means 7 for detecting a current position, current position information obtained by detection of the position detecting means 7, and receiving means And control means 7 for controlling an action based on the received map information. With such a configuration, the robot apparatuses 1a and 1b can receive map information sent from another robot apparatus and move to, for example, a predetermined target based on the received map information. That is, this configuration is for acting based on the map information sent from another robot device. Hereinafter, the first robot apparatus 1a creates map information, and the second robot apparatus 1b creates the first robot apparatus 1b.
A case where the action is determined based on the map information created by a will be specifically described.

【0075】位置検出手段9としては、例えば、GPS
(Global Positioning System)等に代表される現在位
置測位システムが挙げられる。
As the position detecting means 9, for example, a GPS
(Global Positioning System).

【0076】第1のロボット装置1aは、地図情報作製
手段10は、自己が移動している際に、例えばランダム
に移動している際に、位置検出手段9により得た位置情
報に基づいて地図情報を作製する。具体的には、検出し
た障害物の情報等からなる地図情報を作製する。例え
ば、図9に示すように、部屋内の机301、イス30
2、クッション303等を検出して、それらを障害物と
して地図情報を作製する。例えば、ここでいう障害物
は、一般的な地図では建物に相当するものとなる。ま
た、部屋にあるボール304については、第1及び第2
のロボット装置1a,1bは、自己の玩具として把握す
る。
In the first robot apparatus 1 a, the map information producing means 10 uses the map information based on the position information obtained by the position detecting means 9 while moving, for example, at random. Create information. Specifically, map information including information on detected obstacles and the like is created. For example, as shown in FIG.
2. Detect the cushion 303 and the like and create map information using them as obstacles. For example, the obstacle referred to here corresponds to a building on a general map. Also, the first and second balls 304 in the room
Robot devices 1a and 1b grasp as their own toys.

【0077】第1のロボット装置1aは、地図情報作成
手段10により作製された地図情報を、送信手段6によ
り第2のロボット装置1bに送出する。そして、第2の
ロボット装置1bは、第1のロボット装置1aから送信
されてきた地図情報を受信手段7により受信する。な
お、送信手段6及び受信手段7としては、上述した無線
LANカードを利用した通信手段等が挙げられる。
The first robot device 1a sends out the map information created by the map information creating means 10 to the second robot device 1b by the transmission means 6. Then, the second robot device 1b receives the map information transmitted from the first robot device 1a by the receiving means 7. The transmitting means 6 and the receiving means 7 include the above-mentioned communication means using a wireless LAN card.

【0078】地図情報を受け取った第2のロボット装置
1bは、制御手段5により、自己の移動動作が制御され
て、受け取った地図情報に基づいて目標物まで移動す
る。具体的には、第2のロボット装置1bは、位置検出
手段9により検出される現在位置の情報と地図情報に基
づいて、障害物となる机301、クッション303等を
避けながら、或いはそれらの位置を基準としながら、目
標物まで移動する。
The second robot device 1b having received the map information controls its own movement operation by the control means 5, and moves to the target based on the received map information. More specifically, the second robot device 1b, based on the information on the current position detected by the position detecting means 9 and the map information, avoids the desk 301, the cushion 303, etc., which are obstacles, Move to the target while referring to.

【0079】ここで、部屋内にある餌箱305を目標物
とすることにより、第2のロボット装置は、地図情報と
現在位置情報とに基づいて、餌箱305まで移動するこ
とができるようになる。すなわち、第1及び第2のロボ
ット装置1a,1bの間で餌箱305の位置を教え合
い、餌箱305の設置位置情報を共有して、第1及び第
2のロボット装置1a,1bは、それに応じた動作をす
るようになる。
Here, by using the bait box 305 in the room as the target, the second robot apparatus can move to the bait box 305 based on the map information and the current position information. Become. That is, the first and second robot apparatuses 1a and 1b teach the position of the bait box 305, share the installation position information of the bait box 305, and the first and second robot apparatuses 1a and 1b The operation will be performed accordingly.

【0080】以上のように、ロボット装置1a,1b
は、地図情報を交換する情報とすることもでき、これに
より、送られてきた地図情報に基づいて、目標物(例え
ば餌箱305)まで移動する行動を起こすようになる。
As described above, the robot apparatuses 1a and 1b
Can be used as information for exchanging map information, whereby an action of moving to a target (for example, the bait box 305) is caused based on the sent map information.

【0081】なお、地図を自己生成する場合、各ロボッ
ト装置1a,1bが持つ地図が同じである保証はないの
で、各ロボット装置1a,1bは、両者の地図を照らし
合わせて、整合をとる手段を備えることもできる。例え
ば、自己の位置も地図情報に含めて他のロボット装置に
送る。
When the maps are self-generated, there is no guarantee that the maps possessed by the respective robot apparatuses 1a and 1b are the same. Therefore, the respective robot apparatuses 1a and 1b compare the two maps with each other to perform matching. Can also be provided. For example, the own position is included in the map information and sent to another robot device.

【0082】例えば、図11中(A)に示すような地図
情報mp1をもつ第1のロボット装置1aに、第2のロ
ボット装置1bが図11中(B)に示すような自己がも
つ地図情報mp2を送信した場合には、第1のロボット
装置1aは、図11中(C)に示すように各ロボット装
置の位置情報が含まれている両者の地図情報mp1,m
p2から整合をとり、移動をする。
For example, the first robot device 1a having the map information mp1 as shown in FIG. 11A and the second robot device 1b having its own map information as shown in FIG. When the mp2 is transmitted, the first robot device 1a transmits the map information mp1 and the map information mp1 of the both robots including the position information of each robot device as shown in FIG.
Match and move from p2.

【0083】これにより、第1のロボット装置1aは、
送信されてきた第2のロボット装置1bが作製した地図
情報に基づいて、当該第2のロボット装置1bの位置を
把握しながら移動することができるようになる。また、
このような情報を使用して、挨拶可能な距離(位置関
係)であるか否かを判断することができる。
As a result, the first robot device 1a
Based on the transmitted map information created by the second robot device 1b, the user can move while grasping the position of the second robot device 1b. Also,
Using such information, it is possible to determine whether or not the distance (positional relationship) allows greeting.

【0084】また、このような検出は、上述したような
自己が相手のロボット装置から所定の領域にいるか否か
を検出する際にも役立つ。
Such detection is also useful when detecting whether or not the user is in a predetermined area from the partner robot apparatus as described above.

【0085】また、地図を自己生成と異なり、複数のロ
ボット装置の間で同じ情報を共有させて予め地図データ
を与えておく場合には、障害物等との位置関係から地図
上での自己の位置を類推して、お互いに位置情報を送信
することで、上述のように、相手のロボット装置と所定
の距離或いは所定の領域内にいるか否かを検出すること
ができる。
Also, unlike the self-generation of a map, when the same information is shared between a plurality of robot apparatuses and map data is given in advance, the position of the self on the map is determined based on the positional relationship with obstacles and the like. By estimating the position and transmitting the position information to each other, it is possible to detect whether or not the robot device is within a predetermined distance or within a predetermined area with respect to the other robot device, as described above.

【0086】また、ロボット装置は、上述のような通信
手段により、複数のロボット装置との間で情報を交換す
ることもできる。ロボット装置は、複数のロボット装置
との情報交換により複数のロボット装置が周囲にいるこ
とを認識することができるようになる。
[0086] The robot device can also exchange information with a plurality of robot devices by the above-mentioned communication means. The robot device can recognize that a plurality of robot devices are around by exchanging information with the plurality of robot devices.

【0087】例えば、ロボット装置には、対複数台用の
行動モデルといった行動モデルを予め記憶しておく(用
意しておく)。例えば、対複数台用の行動モデルとは、
ダンス等の通常大勢で行うような行動からなる行動モデ
ルである。
For example, a behavior model such as a behavior model for a plurality of units is previously stored (prepared) in the robot apparatus. For example, the behavior model for multiple units is
This is an action model including actions such as dance performed by a large number of people.

【0088】このような行動モデルを記憶させておくこ
とで、ロボット装置は、複数のロボット装置の存在を認
識した場合、この行動モデルによる行動を実行する。
By storing such an action model, the robot apparatus executes an action based on the action model when recognizing the existence of a plurality of robot apparatuses.

【0089】これにより、複数のロボット装置は、他の
ロボット装置の存在を認識することでダンス等の対複数
台用の行動を発現するので、ユーザは、1台又は2台で
は通常観ることができない行動を観ることができるよう
になる。換言すれば、複数台のロボット装置を有するユ
ーザのみがそのような対複数台用の行動をみられること
になる。
Thus, the plurality of robot devices express the action for the plurality of devices such as dance by recognizing the existence of the other robot device, so that the user can normally watch one or two devices. You will be able to see what you cannot do. In other words, only a user having a plurality of robot apparatuses can perform such an action for a plurality of robot apparatuses.

【0090】また、認識した台数に応じてダンス等の複
数台数用の行動モデルを起動することもできる。以下に
具体的として、複数のロボット装置が、行動の同期がと
られて、全体として協調行動を行う場合について説明す
る。
Further, an action model for a plurality of dances or the like can be activated according to the recognized number. Hereinafter, as a specific example, a case will be described in which a plurality of robot apparatuses perform a cooperative action as a whole with synchronized actions.

【0091】例えば、図12に示すように、第4のロボ
ット装置1dは、第1及び第3のロボット装置1a,1
b,1cに同期してコマンドを送信し、その同期されて
送信されてくるコマンドに応じて第1及び第3のロボッ
ト装置1a,1b,1cが協調行動をするようになされ
ている。この例では、第4のロボット装置1dと第1乃
至第3のロボット装置1a,1b,1cとの間の通信が
無線LANカードに行われている。
For example, as shown in FIG. 12, the fourth robot device 1d includes first and third robot devices 1a and 1a.
Commands are transmitted in synchronization with b and 1c, and the first and third robot apparatuses 1a, 1b and 1c cooperate according to the commands transmitted in synchronization with each other. In this example, communication between the fourth robot device 1d and the first to third robot devices 1a, 1b, 1c is performed by a wireless LAN card.

【0092】具体的には、そのような協調動作は、第4
のロボット装置1dが備えるロボット制御スクリプト
(台本)RS内に各ロボット装置に対応されて書き込ま
れているコマンドにより行われる。具体的には、所定の
規定により作製されたロボット制御スクリプトRSによ
りコマンドを対応されるロボット装置に送っている。ロ
ボット制御スクリプトRSは、第1及び第3のロボット
装置1a,1b,1cへのコマンドの送出タイミングの
制御や、各ロボット装置の行動の終了タイミングを検出
可能とするような情報から構成されている。
[0092] Specifically, such a cooperative operation is described in the fourth section.
This is performed by a command written in the robot control script (script) RS included in the robot device 1d corresponding to each robot device. Specifically, a command is sent to a corresponding robot device by a robot control script RS created according to a predetermined rule. The robot control script RS is configured from information that can control the timing of sending commands to the first and third robot devices 1a, 1b, and 1c and detect the end timing of the action of each robot device. .

【0093】ロボット制御スクリプトRSの形態につい
ては、例えば、図13に示すように、コマンド情報等か
ら構成された複数のデータ列D1,D2,D3からなる。
第1のデータ列D1は第1のロボット装置1aに対応さ
れ、第2のデータ列D2は第2のロボット装置1bに対
応され、第3のデータ列D1は、第3のロボット装置1
cに対応されている。本実施の形態では、ロボット装置
が3台であることから、このデータ列もそれに応じて3
列とされ、行動管理システムにおいて行動を管理するロ
ボット装置に応じてロボット制御スクリプトRSのデー
タ列が用意される。
The form of the robot control script RS is composed of a plurality of data strings D 1 , D 2 and D 3 composed of command information and the like, for example, as shown in FIG.
The first data sequence D 1 corresponds to the first robot device 1a, the second data sequence D 2 corresponds to the second robot device 1b, and the third data sequence D 1 corresponds to the third robot device 1a. 1
c. In the present embodiment, since there are three robot devices, this data sequence
The data sequence of the robot control script RS is prepared according to the robot device that manages the behavior in the behavior management system.

【0094】具体的には、ロボット制御スクリプトRS
内には、制御したいネットワーク上のロボット装置の数
が記述されている。そして、各データ列D1,D2,D3
毎に、個々のIPアドレスやそのサーバのポート番号の
情報、ロボット装置に送信する抽象コマンド、ロボット
装置1a,1b,1cの間で同期タイミングをとるため
のコマンド等が記述されている。
Specifically, the robot control script RS
In the figure, the number of robot devices on the network to be controlled is described. Then, each data string D 1 , D 2 , D 3
In each case, information on individual IP addresses and port numbers of the servers, abstract commands to be transmitted to the robot devices, commands for obtaining synchronization timing among the robot devices 1a, 1b, and 1c are described.

【0095】これらコマンドは、例えば、各データ列D
1,D2,D3において実行順に上から下に並んで記述さ
れている。
These commands are, for example, data strings D
1 , D 2 , and D 3 are described in the order of execution from top to bottom.

【0096】このようなロボット制御スクリプトRSに
基づいて、第4のロボット装置1dは、次のように第1
乃至第3のロボット装置1a,1b,1cにコマンドを
送出してその行動を制御している。
Based on such a robot control script RS, the fourth robot device 1d operates as follows:
In addition, commands are sent to the third to third robot devices 1a, 1b, 1c to control their actions.

【0097】第4のロボット装置1dは、ロボット装置
1a,1b,1cとの間で通信を開始するのに先立ち、
メインプログラムPG1によりロボット装置の数だけ通
信用のスレッド28a,28b,28cを生成する。第
1乃至第3の通信用スレッド28a,28b,28c
は、行動を管理する第1乃至第3のロボット装置1a,
1b,1cと対応づけされて、対応されるロボット装置
1a,1b,1cとの間でデータ通信を行うためのもの
である。
Before starting communication with the robot devices 1a, 1b, 1c, the fourth robot device 1d
The main program PG 1 by a thread 28a for communicating the number of robotic devices, 28b, generates the 28c. First to third communication threads 28a, 28b, 28c
Are first to third robot apparatuses 1a, 1a,
1b and 1c, for performing data communication with the corresponding robot devices 1a, 1b and 1c.

【0098】そして、第4のロボット装置1dは、この
ようにデータ通信の開始に先立ち生成した第1乃至第3
の各通信用スレッド28a,28b,28cに、対応さ
れるロボット制御スクリプトRS上の第1乃至第3のデ
ータ列D1,D2,D3をそれぞれ渡す。各通信用スレッ
ド28a,28b,28cでは、渡された情報(データ
列)からIPアドレスとポート番号を取り出して、クラ
イアントとして各ロボット装置に接続し、これにより、
通信用スレッド28a,28b,28cと各ロボット装
置1a,1b,1cとのデータ通信経路が確立される。
Then, the fourth robot device 1d generates the first to third robots thus generated prior to the start of the data communication.
The first to third data strings D 1 , D 2 , and D 3 on the corresponding robot control script RS are passed to the respective communication threads 28a, 28b, and 28c. Each of the communication threads 28a, 28b, and 28c extracts the IP address and the port number from the passed information (data string) and connects to each robot device as a client.
A data communication path is established between the communication threads 28a, 28b, 28c and the robot devices 1a, 1b, 1c.

【0099】それから、各通信用スレッド28a,28
b,28cは、引き渡されたデータ列D1,D2,D3
記述されているコマンドを、各通信用スレッド28a,
28b,28cの間で同期して発信する。
Then, each communication thread 28a, 28
b and 28c transmit the commands described in the delivered data strings D 1 , D 2 and D 3 to the respective communication threads 28a and 28c.
The transmission is performed synchronously between 28b and 28c.

【0100】ロボット装置1a,1b,1cは、対応さ
れる通信用スレッド28a,28b,28cから発信さ
れたコマンドをそれぞれ受信する。各ロボット装置1
a,1b,1cは、受信したコマンドを実行する。
The robot devices 1a, 1b, 1c receive commands transmitted from the corresponding communication threads 28a, 28b, 28c, respectively. Each robot device 1
a, 1b, and 1c execute the received command.

【0101】これにより、各通信用スレッド28a,2
8b,28cによるコマンドの送出タイミングについて
は同期がとられていることから、各ロボット装置1a,
1b,1cの行動は、全体として協調行動によるものと
なる。
Thus, each communication thread 28a, 2
8b and 28c, the timing of sending commands is synchronized.
The actions 1b and 1c are based on cooperative actions as a whole.

【0102】次に、図14に示すように記述されている
ロボット制御スクリプトRSを用いて具体的に説明す
る。この図14に示すロボット制御スクリプトは、複数
のロボット装置1a,1b,1cにより、いわゆる「ウ
エイブ」の行動をさせるためのものである。複数のロボ
ット装置1a,1b,1cによる「ウエイブ」の行動と
は、経時変化を示す図15中(A)から(C)への変化
のように、整列している複数のロボット装置1a,1
b,1cが、「お座り」の姿勢において、「ばんざい」
の行動をそれぞれが順番にしていくことにより発現され
る協調行動である。
Next, a specific description will be given using a robot control script RS described as shown in FIG. The robot control script shown in FIG. 14 is for causing a plurality of robot devices 1a, 1b, 1c to perform a so-called "wave" action. The behavior of “wave” by the plurality of robot apparatuses 1a, 1b, 1c means that the plurality of robot apparatuses 1a, 1 arranged in a line as shown in FIG.
b, 1c are in the “sitting” posture and “Banzai”
Is a cooperative action that is expressed by each of the actions in turn.

【0103】図14に示すロボット制御スクリプトRS
は、1行目に、行動管理システムに接続されるロボット
装置の台数が記述されている。具体的には、1列目にメ
ニューとして「NUMBER」と記述して、2列目に接続する
ロボット装置の台数が記述されている。本実施の形態の
ように、3台のロボット装置1a,1b,1cにより協
調行動を行う場合には、台数の欄は「3」となる。
The robot control script RS shown in FIG.
In the first line, the number of robot devices connected to the behavior management system is described. Specifically, the first column describes “NUMBER” as a menu, and the second column describes the number of connected robot apparatuses. In the case where the three robot apparatuses 1a, 1b, and 1c perform a cooperative action as in the present embodiment, the number column is "3".

【0104】そして、2行目以降に、各通信用スレッド
28a,28b,28cと各ロボット装置1a,1b,
1cとの間で通信を行うための情報や、コマンド等が記
述されている。具体的には、1列目にはメニューが書き
込まれ、2列目、3列目、4列目に、各通信用スレッド
28a,28b,28cが、対応されるロボット装置1
a,1b,1cの行動を制御するための情報が記述され
ている。
In the second and subsequent lines, each communication thread 28a, 28b, 28c and each robot device 1a, 1b,
Information, commands, etc., for communicating with the device 1c are described. Specifically, the menu is written in the first column, and the communication threads 28a, 28b, and 28c correspond to the corresponding robot devices 1 in the second, third, and fourth columns.
Information for controlling the actions of a, 1b, and 1c is described.

【0105】2行目において、1列目に「IP_ADDRESS」
と書いて、各列に対応されるサーバーのIPアドレスを
記述する。或いは、1列目に「HOSTNAME」と書いて、各
ロボット装置のサーバのネットワークホスト名を記述す
るようにしてもよい。
In the second row, in the first column, “IP_ADDRESS”
And write the IP address of the server corresponding to each column. Alternatively, "HOSTNAME" may be written in the first column to describe the network host name of the server of each robot device.

【0106】3行目において、各ホストのポート番号を
記述する。本実施の形態では、デフォルトとして「1000
0」を記述する。
On the third line, the port number of each host is described. In the present embodiment, “1000
Write "0".

【0107】4行目以降において、各ロボット装置に対
応される各列に、コマンド等のロボット装置の行動を制
御するための情報が記述されている。
In the fourth and subsequent rows, information for controlling the behavior of the robot device such as commands is described in each column corresponding to each robot device.

【0108】コマンドは、具体的には、大別して同期コ
マンドと抽象コマンドとがある。通信用スレッドがこれ
ら同期コマンド、抽象コマンドの順序で送出するように
記述されている。ここで、抽象コマンドは、ロボット装
置に送信されて、実際の行動をさせるためのコマンドで
あり、同期コマンドは、そのような抽象コマンドによる
各ロボット装置の行動が、ロボット装置全体として協調
行動となるようにするものである。具体的には、同期コ
マンドは、コマンド送出タイミングについて同期をとる
ためのSYNC命令、各ロボット装置の行動始期について同
期をとるためのWAIT命令の二つがある。
The commands are roughly classified into synchronous commands and abstract commands. It is described that the communication thread sends out the synchronous command and the abstract command in this order. Here, the abstract command is a command transmitted to the robot apparatus to cause the robot apparatus to perform an actual action, and the synchronous command is a cooperative action in which the action of each robot apparatus by such an abstract command is performed as a whole of the robot apparatus. Is to do so. Specifically, there are two synchronization commands, a SYNC instruction for synchronizing the command transmission timing and a WAIT instruction for synchronizing the beginning of the action of each robot device.

【0109】SYNC命令は引数としてID番号と指数(以
下、同期達成指数という。)が与えられている。ID番
号は、SYNC命令についての識別情報となるものであり、
他のSYNC命令との識別情報となる。このID番号により
SYNC命令を識別することにより、他のSYNC命令と混同す
ることなく、適切な処理を行うことができるようにな
る。また、同期達成指数は、各ロボット装置1a,1
b,1cにそれぞれある値が与えられており、それらの
合計が所定の値になるように設定されている。本実施の
形態では、合計が「100」になるように設定されてい
る。なお、同期達成指数については、「100」に設定
することに限定されるものではない。
The SYNC instruction is provided with an ID number and an exponent (hereinafter referred to as a synchronization achievement exponent) as arguments. The ID number serves as identification information for the SYNC instruction.
It becomes identification information with other SYNC instructions. By this ID number
By identifying a SYNC instruction, appropriate processing can be performed without being confused with another SYNC instruction. The synchronization achievement index is calculated for each robot device 1a, 1
A certain value is given to each of b and 1c, and the sum thereof is set to a predetermined value. In the present embodiment, the total is set to “100”. Note that the synchronization achievement index is not limited to being set to “100”.

【0110】そして、この同期達成指数は、ロボット装
置1a,1b,1cが次の行動に移れる状態にあるとき
加算される。換言すれば、ある行動をしていたロボット
装置が当該行動を終了したときに加算される。具体的に
は、次のような手順により同期達成指数の加算がなされ
る。
Then, this synchronization achievement index is added when the robot devices 1a, 1b, 1c are in a state where they can move to the next action. In other words, it is added when the robot device that has performed a certain action ends the action. Specifically, the synchronization achievement index is added by the following procedure.

【0111】例えば、第1のロボット装置1aは、対応
される第1の通信用スレッド28aから送られてきたコ
マンドに応じた行動を終了したとき、或いは次の行動に
移れる状態であるとき、その旨の情報(以下、待機情報
という。)を発信する。対応される第1の通信用スレッ
ド28aでは、第1のロボット装置1aが発信した待機
情報を受信すると、例えば同期制御用グローバルメモリ
GM上のID番号が一致する領域に同期達成指数を加え
る(足し込む)。このとき、他の通信用スレッドは、こ
の領域にアクセスできないよう排他制御を行う。すなわ
ち、他のロボット装置(ここでは、第2のロボット装置
1b或いは第3のロボット装置1cの一方若しくは両
方)が既にID番号に対応されるSYNC命令の実行が可能
な状態になった場合には、ID番号が一致する当該他の
ロボット装置の同期達成指数に、いま送られてきた同期
達成指数を同期制御用グローバルメモリGMにて加算す
る。そして、全てのロボット装置1a,1b,1cの次
の行動に移れる状態になると、同期達成指数の合計値が
所定の値、本例では「100」になる。
For example, when the first robot device 1a completes the action corresponding to the command sent from the corresponding first communication thread 28a, or when the first robot apparatus 1a is ready for the next action, Information (hereinafter referred to as standby information). When the corresponding first communication thread 28a receives the standby information transmitted by the first robot device 1a, the first communication thread 28a adds the synchronization achievement index to, for example, an area of the synchronization control global memory GM where the ID number matches (addition). In). At this time, the other communication threads perform exclusive control so as not to access this area. That is, when another robot device (here, one or both of the second robot device 1b and the third robot device 1c) is already in a state where the SYNC command corresponding to the ID number can be executed. Then, the synchronization achievement index that has just been sent is added to the synchronization achievement index of the other robot apparatus having the same ID number in the synchronization control global memory GM. Then, when it becomes possible to move to the next action of all the robot devices 1a, 1b, 1c, the total value of the synchronization achievement index becomes a predetermined value, in this example, "100".

【0112】このような処理により、各通信用スレッド
28a,28b,28cは、同期制御用グローバルメモ
リGMを監視し、同期達成指数の合計値が所定の値
(「100」)に達しない限り次のコマンドの読み出し
を行わないことになる。よって、次の行動に移れるロボ
ット装置であっても、次の行動を起こすことなく待機状
態が維持される。
By such processing, each communication thread 28a, 28b, 28c monitors the synchronization control global memory GM, and unless the total value of the synchronization achievement index reaches a predetermined value ("100"), Will not be read. Therefore, even if the robot apparatus can move to the next action, the standby state is maintained without causing the next action.

【0113】そして、複数のロボット装置1a,1b,
1cの行動を管理するパーソナルコンピュータ33は、
このような同期達成指数の合計値が所定の値になったこ
とを確認することにより、ID番号に対応されるSYNC命
令を全てのロボット装置1a,1b,1cにおいて終了
し、ロボット装置1a,1b,1cが次の行動に移れる
状態であることを知ることができる。これにより、パー
ソナルコンピュータ33は、同期達成指数の合計値が所
定の値になったときには、各通信用スレッド28a,2
8b,28cにより次のコマンドを発信する。
A plurality of robot devices 1a, 1b,
The personal computer 33 that manages the behavior of 1c is
By confirming that the total value of the synchronization achievement index has reached a predetermined value, the SYNC instruction corresponding to the ID number is completed in all the robot apparatuses 1a, 1b, 1c, and the robot apparatuses 1a, 1b. , 1c are ready for the next action. Thus, when the total value of the synchronization achievement index reaches a predetermined value, the personal computer 33 sets each communication thread 28a, 2
The next command is transmitted by 8b and 28c.

【0114】次にコマンドは、図14に示すロボット制
御スクリプトRSでは、WAIT命令が発信される。
Next, as for the command, in the robot control script RS shown in FIG. 14, a WAIT command is transmitted.

【0115】このWAIT命令は、時間(ms)を引数に取
っており、WAIT命令を受け取ったロボット装置は指定さ
れた時間だけ待ってから次のコマンドヘ移行するような
情報をなす。
The WAIT command takes time (ms) as an argument, and the robot apparatus that has received the WAIT command forms information that waits for a specified time and then proceeds to the next command.

【0116】WAIT命令の引数がそれぞれ「0」、「100
0」、「2000」となっている実施の形態では、引数が
「0」のWAIT命令を受信した第1のロボット装置1a
は、続いて送られてきているコマンドを直ちに実行し
て、引数が「1000」のWAIT命令を受信した第2のロボッ
ト装置1bは、続いて送られてきているコマンドを1秒
待って実行して、引数が「2000」のWAIT命令を受信した
第3のロボット装置1cは、続いて送られてきているコ
マンドを2秒待って実行する。すなわち、例えば第1乃
至第3のロボット装置1a,1b,1cの受け取ったWA
IT命令の引数が全て「0」である場合には、第1乃至第
3のロボット装置1a,1b,1cは次に送られてきて
いるコマンド内容を同時に実行する。
The arguments of the WAIT instruction are “0” and “100”, respectively.
In the embodiment having “0” and “2000”, the first robot device 1a that has received the WAIT command whose argument is “0”
Immediately executes the subsequently sent command, and upon receiving the WAIT command with the argument “1000”, the second robotic device 1b waits for one second for the subsequently sent command and executes it. Then, the third robot apparatus 1c that has received the WAIT command whose argument is “2000” waits for 2 seconds for the subsequently transmitted command and executes it. That is, for example, the WA received by the first to third robot devices 1a, 1b, 1c.
If the arguments of the IT command are all "0", the first to third robot apparatuses 1a, 1b, 1c simultaneously execute the contents of the command sent next.

【0117】そして、本実施の形態では、このWAIT命令
の次に送出されるコマンドは、「BANZAI_SIT」のコマン
ドとなっている。「BANZAI_SIT」コマンドは、ロボット
装置に「お座り」の姿勢において、「ばんざい」の動作
をさせるためのコマンドである。
In the present embodiment, the command sent after the WAIT instruction is a “BANZAI_SIT” command. The “BANZAI_SIT” command is a command for causing the robot apparatus to perform the “Banzai” operation in the “sitting” posture.

【0118】このようなWAIT命令が送出され、続いて
「BANZAI_SIT」コマンドが送出されてくることにより、
第1のロボット装置1aは、上述のように同期達成指数
の合計値が所定の値になった直後に「BANZAI_SIT」のコ
マンドを開始し、第2のロボット装置1bは、それから
1秒後に「BANZAI_SIT」のコマンドを開始し、第3のロ
ボット装置1cは、それから2秒後に「BANZAI_SIT」の
コマンドを開始する。
When such a WAIT instruction is transmitted, and subsequently, a “BANZAI_SIT” command is transmitted,
The first robot device 1a starts the command of "BANZAI_SIT" immediately after the total value of the synchronization achievement index reaches the predetermined value as described above, and the second robot device 1b starts the command of "BANZAI_SIT" one second after that. ", And the third robot apparatus 1c starts the command of" BANZAI_SIT "two seconds after that.

【0119】以上のようにSYNC命令やWAIT命令等が規定
された図6に示すロボット制御スクリプトRSにより概
略として以下のような処理がなされる。
As described above, the following processing is roughly performed by the robot control script RS shown in FIG. 6 in which the SYNC command, the WAIT command, and the like are specified.

【0120】1番最初(5行目)のSYNC命令により、各
ロボット装置1a,1b,1cが次の状態に移れる状態
になると、ID=1で同期達成指数が発効される。ID
=1の同期達成指数の合計が「100」になることによ
り、各通信用スレッド28a,28b,28cからWAIT
命令及び「BANZAI_SIT」のコマンドが発信される。
When the robot apparatus 1a, 1b, 1c is ready to move to the next state by the first (5th line) SYNC instruction, the synchronization achievement index is issued with ID = 1. ID
When the sum of the synchronization achievement indexes of “= 1” becomes “100”, the communication threads 28 a, 28 b, and 28 c
A command and a command of “BANZAI_SIT” are transmitted.

【0121】第1のデータ列(第1のロボット装置1a
(IPアドレスが11.22.33.44)に対応されるデータ
列)D1のWAIT命令には0秒(「0」)が入っているの
で、第1のロボット装置1aはすぐに「BANZAI_SIT」コ
マンドを実行し、図15中(A)に示すように、「座
り」姿勢において「バンザイ」動作をする。
First data string (first robot apparatus 1a)
Since the WAIT instruction data string) D 1, which is corresponding to the (IP address 11.22.33.44) containing the 0 second ( "0"), the first robot apparatus 1a immediately "BANZAI_SIT And executes the “Banzai” operation in the “sitting” posture, as shown in FIG.

【0122】また、第2のデータ列(第2のロボット装
置1b(IPアドレスが11.22.33.45)に対応される
データ列)D2のWAIT命令には1秒(「1000」)が入っ
ているので、第2のロボット装置1bは、第1のロボッ
ト装置1aがコマンドを実行してから1秒後に「BANZAI
_SIT」コマンドを実行し、図15中(B)に示すよう
に、「座り」姿勢において「バンザイ」動作をする。同
様に第3のデータ列(第3のロボット装置1c(IPア
ドレスが11.22.33.46)に対応されるデータ列)D3
のWAIT命令には2秒(「2000」)が入っているので、第
3のロボット装置1cは、第1のロボット装置1aがコ
マンドを実行してから2秒後に「BANZAI_SIT」コマンド
を実行し、図15中(C)に示すように、「座り」姿勢
において「バンザイ」動作をする。
[0122] Further, the WAIT instruction D 2 (data string is corresponding to the second robotic device 1b (IP address 11.22.33.45)) to the second data string second ( "1000") , The second robotic device 1b executes the command “BANZAI” one second after the first robotic device 1a executes the command.
The “_SIT” command is executed, and the “Banzai” operation is performed in the “sitting” posture, as shown in FIG. Similarly, a third data string (a data string corresponding to the third robot apparatus 1c (the IP address is 11.23.33.46)) D 3
2 seconds (“2000”) is included in the WAIT instruction, the third robot apparatus 1c executes the “BANZAI_SIT” command two seconds after the first robot apparatus 1a executes the command, As shown in FIG. 15 (C), the “banzai” operation is performed in the “sitting” posture.

【0123】「BANZAI_SIT」のコマンドの実行が終了す
ると、またSYNC命令があり、再び各ロボット装置1a,
1b,1cが次の行動に移れる状態であることの検出が
なされる。これにより、先に実行を開始した第1のロボ
ット装置1aから待ち状態に入り、行動達成指数の合計
が「100」になることにより、各ロボット装置1a,
1b,1cは、再び各通信用スレッド28a,28b,
28cから同期した発信されるWAIT命令及び2回目の
「BANZAI_SIT」のコマンドにより上述したような行動を
再び実行する。
When the execution of the command of “BANZAI_SIT” is completed, there is another SYNC instruction, and each robot device 1a,
It is detected that 1b and 1c are ready for the next action. As a result, the first robot apparatus 1a that has started executing first enters a waiting state, and the total of the action achievement indexes becomes “100”, so that each robot apparatus 1a,
1b and 1c are again the communication threads 28a, 28b,
The action as described above is executed again by the WAIT command and the second "BANZAI_SIT" command transmitted synchronously from 28c.

【0124】図14に示すロボット制御スクリプトRS
による以上のような処理により、行動管理システムは、
図15中(A)から(C)に変化するように、3台のロ
ボット装置1a,1b,1cを1秒ずつ時間をずらし
て、バンザイを実行させ、2度の「ウェイブ」の協調行
動が発現させる。
The robot control script RS shown in FIG.
With the above processing, the behavior management system
As shown in FIG. 15, the three robots 1 a, 1 b, and 1 c are shifted by one second to execute banzai, and the cooperative action of the two “waves” is changed from (A) to (C) in FIG. To be expressed.

【0125】以上のように、第4のロボット装置1dが
同期してコマンドを送出することにより、複数のロボッ
ト装置1a,1b,1cによる協調行動を容易に実現す
ることができる。このような複数のロボット装置1a,
1b,1cによる協調行動は、ユーザの鑑賞の楽しさ
を、ロボット装置の自立的に起こした行動による楽しさ
に加え、さらに広げるものとなる。
As described above, since the fourth robot device 1d synchronously sends out commands, a plurality of robot devices 1a, 1b, 1c can easily realize a cooperative action. Such a plurality of robot apparatuses 1a,
The cooperative action by 1b and 1c further expands the enjoyment of the appreciation of the user in addition to the enjoyment by the action of the robot apparatus that has been autonomously caused.

【0126】なお、個々のロボット装置は、記憶装置に
識別情報としてID情報を保持している。例えば、ロボ
ット装置が他のロボット装置と情報を交換する際に、I
D情報も添付して交換することにより、当該他のロボッ
ト装置は、受信したID情報に基づいて個々のロボット
装置を識別することができるようになり、これにより、
個々のロボット装置との間で交換する情報が同一の情報
であっても、添付されるID情報の確認により、複数の
ロボット装置が存在することを認識できるようになる。
Each robot device has ID information as identification information in a storage device. For example, when a robot exchanges information with another robot,
By exchanging the D information with the attached information, the other robot device can identify each robot device based on the received ID information.
Even if the information exchanged with each robot device is the same information, it is possible to recognize that a plurality of robot devices exist by checking the attached ID information.

【0127】(1)ロボット装置の構成の具体例 ロボット装置の構成等の具体例について説明する。ロボ
ット装置1は、具体的には図16に示すように構成され
ている。
(1) Specific Example of Configuration of Robot Device A specific example of the configuration of the robot device will be described. The robot device 1 is specifically configured as shown in FIG.

【0128】CCDビデオカメラ11で撮像された画像
データは、信号処理部12に供給される。信号処理部1
2は、CCDビデオカメラ11より供給された画像デー
タに所定の処理を施し、その画像データを内部バス18
を介して、記憶手段であるDRAM(Dynamic Random A
ccess Memory)16に記憶させる。
The image data picked up by the CCD video camera 11 is supplied to a signal processing unit 12. Signal processing unit 1
2 performs predetermined processing on the image data supplied from the CCD video camera 11 and transfers the image data to the internal bus 18.
Through a DRAM (Dynamic Random A)
ccess Memory) 16.

【0129】また、ロボット装置1は、ROMインター
フェース30に接続されたメモリースティックインター
フェース29を備えており、これによりいわゆるメモリ
ースティック(ソニー株式会社が提供する商品(メモリ
ーカード)の商品名、)210に対するデータの記録及
び再生をすることができる。
The robot apparatus 1 also has a memory stick interface 29 connected to a ROM interface 30, so that data for a so-called memory stick (a product name of a product (memory card) provided by Sony Corporation) 210 can be stored. Recording and reproduction can be performed.

【0130】さらに、ロボット装置1は、PCカードス
ロット(PCカードI/F)14を備えている。これに
より、PCカード200が無線LANカードである場合
には、ローカルエリアネットワーク上のパーソナルコン
ピュータ等の外部機器や他のロボット装置との間でのデ
ータ通信が可能となり、PCカードがメモリカードであ
る場合には、当該メモリカードに対するデータの記録や
再生が可能になる。
Further, the robot device 1 has a PC card slot (PC card I / F) 14. Thus, when the PC card 200 is a wireless LAN card, data communication with external devices such as a personal computer on a local area network and other robot devices becomes possible, and the PC card is a memory card. In this case, recording and reproduction of data with respect to the memory card become possible.

【0131】CPU15は、フラッシュROM(Read O
nly Memory)17に記憶されている動作プログラムを、
ROMインターフェース30及び内部バス18を介して
読み出し、システム全体の制御を行う。また、フラッシ
ュROM17に記憶されているCPU11の動作プログ
ラムは、信号処理部12に接続される外部のパーソナル
コンピュータ(Personal Computer、PC)31によっ
て作成及び変更が可能とされている。
The CPU 15 has a flash ROM (Read O
nly Memory) 17
The data is read out through the ROM interface 30 and the internal bus 18 to control the entire system. The operation program of the CPU 11 stored in the flash ROM 17 can be created and changed by an external personal computer (PC) 31 connected to the signal processing unit 12.

【0132】外部の状態を検出する検出手段を構成する
ポテンショメータ19a,19b,19c、タッチセン
サ20及びマイクロホン21が検出した信号は、分岐部
24a,24b,24c,24d,24eを介して信号
処理部12に供給される。信号処理部12は、分岐部2
4a〜24eから供給された信号を、内部バス18を介
してCPU15に供給する。CPU15は、供給された
信号に基づいてアクチュエータ22a,22b,22
c,22d(例えば、それによって駆動される図1の脚
部2a〜2dや頭部3)の動作を制御する。また、CP
U15は、スピーカ23から出力される音声を制御す
る。
Signals detected by the potentiometers 19a, 19b and 19c, the touch sensor 20 and the microphone 21 constituting detecting means for detecting an external state are transmitted to signal processing units via branching units 24a, 24b, 24c, 24d and 24e. 12 is supplied. The signal processing unit 12 includes the branch unit 2
The signals supplied from 4a to 24e are supplied to CPU 15 via internal bus 18. The CPU 15 controls the actuators 22a, 22b, 22 based on the supplied signals.
c, 22d (for example, the operation of the legs 2a to 2d and the head 3 of FIG. 1 driven thereby). Also, CP
U15 controls the sound output from the speaker 23.

【0133】また、ロボット装置1は、赤外線により他
のロボット装置等の外部機器との間でデータの通信を可
能とする赤外線出力部26a及び赤外線検出部(IrD
A)26bを備えている。
The robot apparatus 1 has an infrared output section 26a and an infrared detection section (IrD) for enabling data communication with external equipment such as another robot apparatus by infrared rays.
A) It has 26b.

【0134】赤外線出力部26aは、赤外線により他の
ロボット装置等の外部機器に信号を出力する。そして、
赤外線検出部(IrDA)26bは、ユーザの操作によ
り図示しないリモートコントローラから出力された命令
情報や他のロボット装置から送られてきた情報を、分岐
部24eを介して信号処理部12に供給する。
The infrared output section 26a outputs a signal to an external device such as another robot device by infrared rays. And
The infrared detector (IrDA) 26b supplies command information output from a remote controller (not shown) or information sent from another robot device by a user operation to the signal processing unit 12 via the branching unit 24e.

【0135】信号処理部12は、供給される各種情報を
内部バス18を介してCPU15に供給し、CPU15
では、供給された情報に基づいてアクチュエータ22
a,22b,22c,22dの動作を制御する。すなわ
ち、CPU15は、リモートコントローラからの命令情
報や他のロボット装置から送られてきた情報に基づいて
アクチュエータ22a,22b,22c,22dの動作
を制御する。これにより、ロボット装置1は、ユーザの
命令に応じた行動を出力し、又は他のロボット装置と出
逢った際の所定の行動(処理結果)を出力する。
The signal processing section 12 supplies the supplied various information to the CPU 15 via the internal bus 18 and
Then, based on the supplied information, the actuator 22
a, 22b, 22c, and 22d are controlled. That is, the CPU 15 controls the operations of the actuators 22a, 22b, 22c, and 22d based on command information from a remote controller and information sent from another robot device. Thereby, the robot device 1 outputs an action according to the user's command, or outputs a predetermined action (processing result) when it encounters another robot device.

【0136】ここで、ポテンショメータ19a〜19
c、タッチセンサ20、マイクロホン21、アクチュエ
ータ22a〜22d、スピーカ23、赤外線出力部26
a及び赤外線検出部26b等は、ロボット装置1の足や
耳、口等を構成するものであり、これらをまとめてCP
C(Configurable Physical Component)デバイスと呼
ぶ。CPCデバイスは、これに限定されるものではな
く、例えば、距離センサ、加速度センサ、或いはジャイ
ロ等の計測手段であってもよい。
Here, the potentiometers 19a to 19
c, touch sensor 20, microphone 21, actuators 22a to 22d, speaker 23, infrared output unit 26
a and the infrared detecting unit 26b constitute the feet, ears, mouth, etc. of the robot apparatus 1, and collectively form a CP.
It is called a C (Configurable Physical Component) device. The CPC device is not limited to this, and may be, for example, a measuring unit such as a distance sensor, an acceleration sensor, or a gyro.

【0137】図17には、信号処理部12の構成例を示
している。DRAMインターフェース41、ホストイン
ターフェース42は、それぞれDRAM16、CPU1
5に接続されるとともに、外部バス44にも接続されて
いる。バスコントローラ45は、外部バス44の制御を
行う。バスアービタ46は、外部バス44と内部バス4
7のアービトレーションを行う。
FIG. 17 shows a configuration example of the signal processing section 12. The DRAM interface 41 and the host interface 42 correspond to the DRAM 16 and the CPU 1 respectively.
5 and to the external bus 44. The bus controller 45 controls the external bus 44. The bus arbiter 46 includes the external bus 44 and the internal bus 4
7 is arbitrated.

【0138】パラレルポート48及びシリアルポート5
0には、例えば、外部の開発環境としてのパーソナルコ
ンピュータ(PC)31が接続されている。バッテリマ
ネージャ49は、バッテリ27の残量の管理等を行う。
パラレルポート48、バッテリマネージャ49及びシリ
アルポート50は、それぞれペリフェラルインターフェ
ース53を介して内部バス47に接続されている。
Parallel port 48 and serial port 5
0 is connected to a personal computer (PC) 31 as an external development environment, for example. The battery manager 49 manages the remaining amount of the battery 27 and the like.
The parallel port 48, the battery manager 49, and the serial port 50 are connected to the internal bus 47 via the peripheral interface 53, respectively.

【0139】CCDビデオカメラ11は、撮像した画像
データをFBK(Filter Bank)56に供給する。FB
K56は、供給された画像データに対して間引き処理を
行い、種々の解像度の画像データを作成する。その画像
データは、内部バス47を介してDMA(Direct Memor
y Access)コントローラ51に供給される。DMAコン
トローラ51は、供給された画像データをDRAM16
に転送し、DRAM16ではこの画像データを記憶す
る。
[0139] The CCD video camera 11 supplies the captured image data to an FBK (Filter Bank) 56. FB
K56 performs a thinning process on the supplied image data to create image data of various resolutions. The image data is transferred via a DMA (Direct Memory
y Access) is supplied to the controller 51. The DMA controller 51 stores the supplied image data in the DRAM 16
And the DRAM 16 stores the image data.

【0140】また、DMAコントローラ51は、DRA
M16に記憶されている画像データを適宜読み出し、I
PE(Inner Product Engine)55に供給する。IPE
55は、供給された画像データを使用して所定の演算を
行う。この演算結果は、DMAコントローラ51の指示
に従って、DRAM16に転送され、記憶される。
Also, the DMA controller 51
The image data stored in M16 is read out as appropriate,
It is supplied to a PE (Inner Product Engine) 55. IPE
Reference numeral 55 performs a predetermined operation using the supplied image data. The calculation result is transferred to the DRAM 16 and stored in accordance with an instruction from the DMA controller 51.

【0141】シリアルバスホストコントローラ57に
は、CPCデバイス25が接続される。CPCデバイス
25は、例えば、上述したポテンショメータ19a〜1
9c、タッチセンサ20、マイクロホン21、アクチュ
エータ22a〜22d、スピーカ23、赤外線出力部2
6a及び赤外線検出部26b等から構成されている。C
PCデバイス25から供給された音声データは、シリア
ルバスホストコントローラ57を介してDSP(Digita
l Signal Processor)52に供給される。DSP52
は、供給された音声データに対して所定の処理を行う。
USBインターフェース58には、外部の開発環境とし
てのパーソナルコンピュータ(PC)32等が接続され
る。タイマ54は、時間情報を内部バス47を介して各
部に供給する。
The CPC device 25 is connected to the serial bus host controller 57. The CPC device 25 includes, for example, the potentiometers 19a to 1 described above.
9c, touch sensor 20, microphone 21, actuators 22a to 22d, speaker 23, infrared output unit 2
6a and an infrared detector 26b. C
The audio data supplied from the PC device 25 is supplied to the DSP (Digita
l Signal Processor) 52. DSP52
Performs a predetermined process on the supplied audio data.
The USB interface 58 is connected to a personal computer (PC) 32 or the like as an external development environment. The timer 54 supplies time information to each unit via the internal bus 47.

【0142】以上述べたようにロボット装置1は構成さ
れており、ロボット装置1は、他のロボット装置に出逢
った際には通信手段により当該他のロボット装置との情
報の交換を行うことができるようにされている。なお、
ここでいう、「他のロボット装置」も同様に構成されて
いる。
As described above, the robot apparatus 1 is configured, and when encountering another robot apparatus, the robot apparatus 1 can exchange information with the other robot apparatus by communication means. It has been like that. In addition,
The “other robot device” here has the same configuration.

【0143】このロボット装置1aは、赤外線出力部2
6aを出力部として、赤外線検出部26を検出部26b
として構成される赤外線を利用した通信手段により、図
3に示すように、他のロボット装置1bとの間で情報の
交換をすることができる。
The robot device 1a has an infrared output unit 2
6a as an output unit and an infrared detection unit 26 as a detection unit 26b
As shown in FIG. 3, information can be exchanged with another robot apparatus 1b by the communication means using infrared rays configured as above.

【0144】また、スピーカ23を出力部として、マイ
クロホン21を検出部として構成される音階を利用した
通信手段により、ロボット装置1aは、図4に示したよ
うに他のロボット装置1bとの間で情報の交換をするこ
とができる。
The communication between the robot apparatus 1a and another robot apparatus 1b as shown in FIG. 4 is achieved by communication means using a musical scale composed of the speaker 23 as an output section and the microphone 21 as a detection section. Can exchange information.

【0145】さらに、PCカードスロット14に装着さ
れた無線LANカードを入出力部として構成される電波
を利用した通信手段により、ロボット装置1aは、図6
に示したように、他のロボット装置1bとの間で情報の
交換をすることができる。
Further, the robot apparatus 1a uses the wireless LAN card inserted into the PC card slot 14 as a communication unit using radio waves as an input / output unit.
As described above, information can be exchanged with another robot device 1b.

【0146】このように挙げられる通信手段により他の
ロボット装置との間で情報の交換をすることができるこ
とで、ロボット装置は、当該他のロボット装置と出逢っ
た際に、上述したように、あいさつやダンス等の等の所
定の処理を実行することができる。
[0146] Since the information can be exchanged with another robot device by the communication means described above, when the robot device encounters the other robot device, as described above, the greeting is given. And a predetermined process such as a dance or the like.

【0147】次に、ロボット装置1における赤外線によ
り通信を行う部分についてさらに詳しく説明する。
Next, a portion of the robot apparatus 1 for performing communication by infrared rays will be described in more detail.

【0148】ロボット装置1は、図18に示すように、
ミドルウェア層80、バーチャルロボット110、デバ
イスドライバ層150、バスコントローラ79及び赤外
線通信ポート78により、赤外線による通信を可能とし
ている。
As shown in FIG. 18, the robot device 1
The middleware layer 80, the virtual robot 110, the device driver layer 150, the bus controller 79, and the infrared communication port 78 enable infrared communication.

【0149】例えば、ミドルウェア層80、バーチャル
ロボット(層)110及びデバイスドライバ層150は
ロボット装置1のソフトウェア層として構成され、バス
コントローラ79はロボット装置1のハードウェア層に
おいて構成されている。
For example, the middleware layer 80, the virtual robot (layer) 110, and the device driver layer 150 are configured as software layers of the robot device 1, and the bus controller 79 is configured as a hardware layer of the robot device 1.

【0150】また、赤外線通信ポート400は、他のロ
ボット装置との間で通信状態が接続された際の情報伝送
のための通信ポートをなす。ここで、他のロボット装置
との間で通信状態が接続されるときとは、例えば、ロボ
ット装置が互いに向き合ったときである。
The infrared communication port 400 is a communication port for transmitting information when a communication state is established with another robot device. Here, the time when the communication state is connected with another robot device is, for example, when the robot devices face each other.

【0151】ミドルウェア層80は、ロボット装置1の
動作等を制御するための情報の生成等をするソフトウェ
アを構成している。このミドルウェア層80とのデバイ
スドライバ層150との情報の授受については、バーチ
ャルロボット(層)110を介してなされる。
The middleware layer 80 constitutes software for generating information for controlling the operation of the robot device 1 and the like. The exchange of information between the middleware layer 80 and the device driver layer 150 is performed via the virtual robot (layer) 110.

【0152】バーチャルロボット110は、デバイスド
ライバ層150と所定の規約により処理を実行するミド
ルウェア層との間での情報の橋渡しを行う部分である。
すなわち、バーチャルロボット110は、デバイスドラ
イバ層150で取り扱う情報とミドルウェア層80にお
いて取り扱う情報とが円滑に処理されるように機能する
部分である。
The virtual robot 110 is a part that bridges information between the device driver layer 150 and a middleware layer that executes processing according to a predetermined rule.
That is, the virtual robot 110 is a part that functions so that information handled by the device driver layer 150 and information handled by the middleware layer 80 are processed smoothly.

【0153】デバイスドライバ層150は、上述したC
PCデバイス25等の各種デバイスを制御する部分であ
る。具体的には、デバイスドライバ層150は、バーチ
ャルロボット110を介して得たミドルウェア層80か
ら情報を赤外線出力部26aから出力する処理を行う。
また、デバイスドライバ層150は、赤外線検出部26
bにより他のロボット装置からの情報の検出処理を行
う。
The device driver layer 150 corresponds to the C
This is a part for controlling various devices such as the PC device 25. Specifically, the device driver layer 150 performs a process of outputting information from the middleware layer 80 obtained via the virtual robot 110 from the infrared output unit 26a.
In addition, the device driver layer 150 includes the infrared detector 26.
The process of detecting information from another robot device is performed by b.

【0154】このような構成により、ロボット装置が通
信可能状態になったときには、すなわち、ロボット装置
が向かい合ったときには、赤外線通信ポート400を介
してロボット装置間でのデータの交換がなされるように
なる。
With such a configuration, when the robot devices are ready for communication, that is, when the robot devices face each other, data is exchanged between the robot devices via the infrared communication port 400. .

【0155】例えば、情報を送信するロボット装置は、
シリアルバスを制御するバスコントローラ79により図
示しない記憶手段(メインメモリ)から情報を取り出
し、当該情報を赤外線通信ポートを介して受信側のロボ
ット装置に転送し、情報を受信するロボット装置側で
は、バスコントローラ79により、このように赤外線通
信ポートを介して転送されてくる情報を、図示しない記
憶手段(メインメモリ)に記憶する。このような処理に
よりロボット装置間での情報の交換(コミュニケーショ
ン)がなされる。なお、ここで、バスコントローラ79
は、例えば、上述の図17に示したシリアルバスコント
ローラ57である。
For example, a robot device for transmitting information
A bus controller 79 for controlling a serial bus retrieves information from a storage unit (main memory) (not shown), transfers the information to a receiving-side robot device via an infrared communication port, and receives the information on the bus device. The information thus transferred via the infrared communication port by the controller 79 is stored in storage means (main memory) not shown. Through such processing, information exchange (communication) between the robot apparatuses is performed. Here, the bus controller 79
Is, for example, the serial bus controller 57 shown in FIG.

【0156】赤外線通信ポート400を利用したロボッ
ト装置間のコミュニケーションは以下のようにして実現
される。
Communication between robot apparatuses using the infrared communication port 400 is realized as follows.

【0157】赤外線通信ポート400上を出入りするデ
ータは、シリアルバスを管理するデバイスドライバ層1
50を介してロボット装置の全体を管理するバーチャル
ロボット110に渡される。そして、ミドルウェア層8
0のソフトウェアモジュールがバーチャルロボット11
0に接続を設定することで、ミドルウェア層80による
赤外線通信ポート400を介したデータの受信や送信が
可能になる。
Data that enters and exits the infrared communication port 400 is transmitted to the device driver layer 1 that manages the serial bus.
It is passed to a virtual robot 110 that manages the entire robot apparatus via 50. And middleware layer 8
0 software modules are virtual robots 11
By setting the connection to 0, the middleware layer 80 can receive and transmit data via the infrared communication port 400.

【0158】ミドルウェア層80の図示しない赤外線通
信ミドルウェア層では、所定の処理を実行するアプリケ
ーション層に他のロボット装置に遭遇したことを通知す
る。
The infrared communication middleware layer (not shown) of the middleware layer 80 notifies an application layer that executes a predetermined process that it has encountered another robot device.

【0159】例えば、アプリケーション層は、行動モデ
ルにロボット装置の社会的な(対ロボット装置)行動が
記述されており、赤外線通信用ミドルウェア層からの入
力によってあいさつをしたりする行動が記述されてい
る。
For example, the application layer describes a social (anti-robot device) behavior of the robot device in the behavior model, and describes an activity of giving a greeting by input from the middleware layer for infrared communication. .

【0160】このようなアプリケーション層により、こ
の通知に基づいて、他のロボット装置のさらに接近した
通信を可能とする行動が実行されたり、他のロボット装
置にあいさつの言葉を送る行動が実行されたり、或いは
自身の属性、成長のレベル等の情報を送信する処理が実
行されたりする。
Based on this notification, such an application layer executes an action that enables another robot apparatus to make a closer communication, or executes an action of sending a greeting to another robot apparatus. Alternatively, a process of transmitting information such as its own attribute and the level of growth is executed.

【0161】以上述べたような構成により、ロボット装
置1は、赤外線出力部26aにより赤外線による信号を
出力し、また、赤外線検出部26bにより他のロボット
装置からの赤外線による信号を受信することができ、受
信した情報に基づいて所定の行動の決定等をすることが
できる。
With the configuration described above, the robot apparatus 1 can output a signal based on infrared rays by the infrared output section 26a and receive a signal based on infrared rays from another robot apparatus via the infrared detection section 26b. It is possible to determine a predetermined action based on the received information.

【0162】なお、ミドルウェア層80及びバーチャル
ロボット110の機能の具体例を以下に説明する。
A specific example of the functions of the middleware layer 80 and the virtual robot 110 will be described below.

【0163】ミドルウェア層80は、ロボット装置1の
基本的な機能を提供するソフトウェア郡からなり、その
構成はロボット装置1のデバイスや形状が考慮されて設
定されている。ミドルウェア層80は、具体的には、図
19に示すように構成されており、認識系(入力系)の
ミドルウェア層90と出力系のミドルウェア層100と
に大別され、例えば、オブジェクト群により構成されて
いる。
The middleware layer 80 is made up of a software group that provides basic functions of the robot device 1, and its configuration is set in consideration of the device and shape of the robot device 1. The middleware layer 80 is specifically configured as shown in FIG. 19, and is roughly divided into a middleware layer 90 of a recognition system (input system) and a middleware layer 100 of an output system. Have been.

【0164】認識系のミドルウェア層90では、外部か
ら入力された情報をバーチャルロボット110を介して
認識する。これによりロボット装置1は、外部から入力
された情報に応じて自主的に行動を決定すること等がで
きるようになる。例えば、認識系のミドルウェア層90
は、画像データやセンサーデータ、音データなどのデバ
イスの生データを処理し、認識結果を出力するオブジェ
クト群により構成されている。
The middleware layer 90 of the recognition system recognizes information input from outside via the virtual robot 110. As a result, the robot apparatus 1 can voluntarily determine an action according to information input from the outside. For example, the middleware layer 90 of the recognition system
Is composed of an object group that processes raw data of a device such as image data, sensor data, and sound data and outputs a recognition result.

【0165】デバイスのデータを処理するオブジェクト
としては、例えば、距離検出部92、タッチセンサー部
93、色認識部94、音階認識部95、姿勢検出部9
6、動き検出部97等が挙げられる。ここで、例えば、
距離検出部92により「障害物がある」が認識され、タ
ッチセンサー部93により「なでられた」及び「叩かれ
た」が認識され、色認識部94により「ボールが赤い」
が認識され、姿勢検出部96により「転倒した」が認識
され、動き検出部97により「ボールが動いている」が
認識される。
As objects for processing device data, for example, a distance detecting unit 92, a touch sensor unit 93, a color recognizing unit 94, a scale recognizing unit 95, and a posture detecting unit 9 are used.
6, a motion detection unit 97, and the like. Where, for example,
The distance detector 92 recognizes “there is an obstacle”, the touch sensor 93 recognizes “stroke” and “hit”, and the color recognizer 94 recognizes “the ball is red”.
Is recognized by the posture detecting unit 96, and “the ball is moving” is recognized by the motion detecting unit 97.

【0166】このような各オブジェクトによる外部から
の情報の認識はバーチャルロボット110によりなされ
ている。
Recognition of information from outside by each object is performed by the virtual robot 110.

【0167】バーチャルロボット110は、ミドルウェ
ア層80と外部に対しての入出力系を構成するデバイス
ドライバ層150とのデータの受渡しをするものであ
り、各種デバイスドライバとオブジェクト間通信規約に
基づいて動作するオブジェクトとの橋渡しをするオブジ
ェクトとして機能する。このバーチャルロボット110
により、認識系のミドルウェア層90及び出力系のミド
ルウェア層100と各種デバイスドライバとの間での情
報の受渡しが各オブジェクト間の通信規約の下でなされ
ることになる。ここで、デバイスドライバ層150は、
各種デバイス等のハードウェア層に直接アクセスを許さ
れたオブジェクトとされ、ハードウェアの割り込みを受
けて処理を行うようになされている。
The virtual robot 110 exchanges data between the middleware layer 80 and a device driver layer 150 constituting an input / output system to the outside. The virtual robot 110 operates based on various device drivers and an inter-object communication protocol. It acts as an object that bridges the objects that do. This virtual robot 110
As a result, information is exchanged between the middleware layer 90 of the recognition system and the middleware layer 100 of the output system and the various device drivers under the communication protocol between the objects. Here, the device driver layer 150
It is an object that is directly allowed to access a hardware layer of various devices and the like, and performs processing in response to a hardware interrupt.

【0168】このようなバーチャルロボット110を介
して各オブジェクトが得た認識情報は、入力センティク
スコンバータ91に入力される。
[0168] The recognition information obtained by each object via such a virtual robot 110 is input to the input sentiment converter 91.

【0169】入力セマンティクスコンバータ91では、
認識情報を意味のある文字列に変換する。ロボット装置
1の行動を制御するコマンドは、文字列からなり、自由
に編集可能な形とされて記憶部に記憶されており、上述
したように、例えば、入力セマンティクスコンバータ9
1により認識情報を文字列に変換することにより、ユー
ザは、認識情報を意味のある情報として知ることができ
る。
In the input semantics converter 91,
Convert recognition information to a meaningful character string. The command for controlling the behavior of the robot device 1 is composed of a character string and is stored in the storage unit in a freely editable form. As described above, for example, the input semantics converter 9
By converting the recognition information into a character string according to 1, the user can know the recognition information as meaningful information.

【0170】このように構成されている認識系のミドル
ウェア層90により他のロボット装置に出逢った際にお
ける処理は例えば次のようになされる。
The processing when the other middleware apparatus is encountered by the middleware layer 90 of the recognition system configured as described above is performed, for example, as follows.

【0171】他のロボット装置との情報の交換を音階を
利用した通信により行う場合には、マイクロホン21に
入力された音階が音階認識部95により認識される。
When exchanging information with another robot device by communication using a musical scale, the musical scale inputted to the microphone 21 is recognized by the musical scale recognition section 95.

【0172】また、他のロボット装置との情報の交換を
赤外線を利用した通信により行う場合には、赤外線検出
部26bに入力された赤外線が図示しない赤外線信号認
識部により認識される。
When information is exchanged with another robot apparatus by communication using infrared rays, the infrared rays inputted to the infrared ray detecting section 26b are recognized by an infrared signal recognizing section (not shown).

【0173】認識系のミドルウェア層90では、赤外線
信号認識部のオブジェクトにより得られた認識情報が入
力センティクスコンバータ91に入力される。
In the middleware layer 90 of the recognition system, the recognition information obtained by the object of the infrared signal recognition unit is input to the input sentence converter 91.

【0174】入力セマンティクスコンバータ91では、
上述した認識情報を意味のある文字列に変換し、上位の
制御部に変換後の認識情報を出力する。そして、この認
識情報により、ロボット装置に遭遇したことを知り、所
定の処理が開始される。
In the input semantics converter 91,
The recognition information described above is converted into a meaningful character string, and the converted recognition information is output to a higher-level control unit. Then, based on this recognition information, it is known that the robot apparatus has been encountered, and a predetermined process is started.

【0175】一方、出力系のミドルウェア層100で
は、このような認識情報等に基づいてロボット装置に所
定の行動を行わせるためのデバイスの制御が行われる。
例えば、バーチャルロボット110からの情報(コマン
ド)は、図示しないコマンドサーバを介して出力系のミ
ドルウェア層100に送られてくる。
On the other hand, the output middleware layer 100 controls a device for causing the robot apparatus to perform a predetermined action based on such recognition information and the like.
For example, information (command) from the virtual robot 110 is sent to the output middleware layer 100 via a command server (not shown).

【0176】出力系のミドルウェア層100では、先ず
出力セマンティクスコンバータ101にそのような情報
(コマンド)が入力される。
In the output middleware layer 100, such information (command) is first input to the output semantics converter 101.

【0177】入力セマンティクスコンバータ101は、
意味のある文字列として入力されてくるコマンドの内容
が解釈されて、所望の各オブジェクトにその内容が引き
渡される。
The input semantics converter 101
The content of the command input as a meaningful character string is interpreted, and the content is delivered to each desired object.

【0178】出力系のミドルウェア層100を構成する
オブジェクト群は、例えばロボット装置の動作機能毎に
構成されている。
The object group constituting the output middleware layer 100 is constituted, for example, for each operation function of the robot apparatus.

【0179】具体的には、出力系のミドルウェア層10
0を構成するオブジェクトとしては、姿勢制御部10
2、モーション再生部105、転倒復帰部106、トラ
ッキング部107、歩行モジュール部108、LED点
灯部103、音再生部104等が挙げられる。ここで、
例えば、モーション再生部105により「動き再生」に
関する制御がなされ、転倒復帰106により「転倒復
帰」に関する制御がなされ、トラッキング101により
「対象物の追従動作」に関する制御がなされ、歩行モジ
ュール部108により「歩行」に関する制御がなされ
る。なお、「トラッキング」とは、動く対象物を見続け
るような動作、具体的には、動く対象物に頭を向け続け
るような動作である。例えば、このような動作を行う場
合、色認識部94及び動き検出部97の認識情報がその
「トラッキング」の際の情報として直接使用される。ま
た、これらの制御は、ロボット装置1の姿勢の変化を伴
うことから姿勢管理102により姿勢の情報についての
管理がなされる。また、音出力部104により「音」に
関する制御がなされ、LED点灯部103により「目
(LED)の点灯」に関する制御がなされる。
More specifically, the output middleware layer 10
0, the posture control unit 10
2, a motion reproducing unit 105, a fall return unit 106, a tracking unit 107, a walking module unit 108, an LED lighting unit 103, a sound reproducing unit 104, and the like. here,
For example, control relating to “motion reproduction” is performed by the motion reproducing unit 105, control relating to “return to fall” is performed by the fall return 106, control relating to “target following operation” is performed by the tracking 101, and “ The control relating to “walking” is performed. Note that “tracking” is an operation in which the user keeps looking at the moving object, specifically, an operation in which the user keeps turning his / her head toward the moving object. For example, when performing such an operation, the recognition information of the color recognition unit 94 and the motion detection unit 97 is directly used as information at the time of “tracking”. In addition, since these controls involve a change in the posture of the robot apparatus 1, the posture information is managed by the posture management 102. The sound output unit 104 controls the sound, and the LED lighting unit 103 controls the lighting of the eyes (LED).

【0180】このような出力系のミドルウェア層100
により、出力セマンティクスコンバータ101により情
報(コマンド)の内容が解釈されて、その内容に応じて
上述したようなモーション再生部105等のオブジェク
トが各種デバイスの制御を行う。
The middleware layer 100 of such an output system
As a result, the content of the information (command) is interpreted by the output semantics converter 101, and the object such as the motion reproduction unit 105 controls various devices according to the content.

【0181】具体的には、機能毎にロボット装置1の各
ジョイントのサーボ指令値や出力音、出力光(目のLE
D)を生成して出力する。
More specifically, the servo command value, output sound, and output light (LE of the eye) of each joint of the robot device 1 for each function
D) is generated and output.

【0182】このような出力系のミドルウェア層100
により、他のロボット装置に出逢った際には次のような
所定の処理が実行される。
The middleware layer 100 of such an output system
Accordingly, when encountering another robot device, the following predetermined processing is executed.

【0183】例えば、他のロボット装置に出逢った際、
所定の行動を発現する処理が実行される。具体的には、
出力系のミドルウェア層100により、「あいさつをす
る」の動作に関連するデバイスが制御される。
For example, when encountering another robot device,
Processing for expressing a predetermined action is executed. In particular,
The output-related middleware layer 100 controls devices related to the operation of “greeting”.

【0184】また、他のロボット装置に出逢った際、情
報の交換をする処理が実行される。具体的には、情報の
交換を赤外線を利用した通信により行う場合には、赤外
線出力部26aが制御されて信号が出力され、また、情
報の交換を音階を利用した通信により行う場合には、音
再生部104によりスピーカ23の制御がなされる。
When another robot device is encountered, a process for exchanging information is executed. Specifically, when information exchange is performed by communication using infrared light, the infrared output unit 26a is controlled to output a signal, and when information exchange is performed by communication using a musical scale, The speaker 23 is controlled by the sound reproducing unit 104.

【0185】なお、出力系のミドルウェア層100に入
力されるコマンドは、上述のコマンドに限定されるもの
ではなく、例えば、「前進」、「後退」、「喜ぶ」、
「吼える」、「寝る」、「体操する」、「驚く」、「ト
ラッキング」等の動物が発現する行動のコマンドも挙げ
られる。
The commands input to the output middleware layer 100 are not limited to the above-mentioned commands. For example, "forward", "backward", "pleasure",
Commands such as “roaring”, “sleeping”, “exercising”, “surprising”, and “tracking” are also included in the action commands of the animals.

【0186】さらに、この出力系のミドルウェア層10
0では、行動によるデバイスの動作状況(例えばデバイ
スの動作終了結果)を検出することも行う。
The output middleware layer 10
In the case of 0, the operation state of the device due to the action (for example, the operation end result of the device) is detected.

【0187】このような出力系のミドルウェア層100
によりコマンドに基づいて各デバイスの制御がなされる
ことで、ロボット装置1がコマンドに応じた行動を発現
することができるようになる。
The middleware layer 100 of such an output system
By controlling each device based on the command, the robot apparatus 1 can express an action according to the command.

【0188】また、そのような対応関係の情報を上述し
たように文字列として編集可能な情報として記憶部に記
憶しておくことにより、ユーザが好みにあわせてコマン
ドにより実行される各部の動作を変更することもできる
になされている。
Also, by storing such correspondence information in the storage section as information that can be edited as a character string as described above, the operation of each section executed by a command according to the user's preference can be performed. Changes have also been made that can be made.

【0189】以上述べたように、ミドルウェア層80と
バーチャルロボット110とが構成されている。
[0189] As described above, the middleware layer 80 and the virtual robot 110 are configured.

【0190】次に、ロボット装置1のソフトウェア層の
具体例を説明する。ソフトウェア層は、例えば図20に
示すように構成されている。
Next, a specific example of the software layer of the robot device 1 will be described. The software layer is configured, for example, as shown in FIG.

【0191】ソフトウェア層は、大別して、アプリケー
ション層120、ミドルウェア層80、マネージャオブ
ジェクト層130、ロボットサーバオブジェクト層14
0及びデバイスドライバ層150から構成されている。
さらに、マネージャオブジェクト130については、オ
ブジェクトマネージャ131及びサービスマネージャ1
32を有している。また、ロボットサーバオブジェクト
については、デザインロボット141、パワーマネージ
ャ142、バーチャルロボット143及びデバイスドラ
イバマネージャ143を有している。これらは、概略以
下のように機能する。
The software layers are roughly divided into an application layer 120, a middleware layer 80, a manager object layer 130, and a robot server object layer 14.
0 and a device driver layer 150.
Further, regarding the manager object 130, the object manager 131 and the service manager 1
32. The robot server object has a design robot 141, a power manager 142, a virtual robot 143, and a device driver manager 143. These function roughly as follows.

【0192】アプリケーション層120は、所定の行動
等をロボット装置に起こさせるプログラムにより記述さ
れており、上述したように、他のロボット装置に出逢っ
た際にあいさつをするような行動により記述されてい
る。
The application layer 120 is described by a program that causes the robot device to perform a predetermined action or the like. As described above, the application layer 120 is described by an action that greets another robot device. .

【0193】ミドルウェア層80は、アプリケーション
層120と他の層との接続するように機能する。例え
ば、ミドルウェア層80は、上述したように、赤外線検
出部26bによる検出結果を、他のロボット装置との遭
遇としてアプリケーション層120に通知する機能を有
する。
The middleware layer 80 functions to connect the application layer 120 to another layer. For example, as described above, the middleware layer 80 has a function of notifying the application layer 120 of the detection result of the infrared detection unit 26b as encountering another robot device.

【0194】マネージャオブジェクト層130におい
て、オブジェクトマネージャ131は、アプリケーショ
ン層120及びミドルウェア層80の起動、消滅を管理
し、サービスマネージャ132は、コネクションファイ
ルに記述されたオブジェクト間の接続情報を元に各オブ
ジェクトに接続を促すシステムオブジェクトとして機能
する。
In the manager object layer 130, the object manager 131 manages activation and destruction of the application layer 120 and the middleware layer 80. The service manager 132 manages each object based on connection information between objects described in the connection file. Functions as a system object that prompts a connection.

【0195】また、デバイスドライバ層150は、デバ
イスドライバセット151(例えば上述したCPCデバ
イス25等のハードウェア層)に直接アクセスすること
を許されたオブジェクトである。すなわち、ハードウェ
ア層のデバイスを制御する直上の制御部を構成してい
る。このデバイスドライバ層150はハードウェアの割
り込みを受けて処理を行う。
The device driver layer 150 is an object that is allowed to directly access the device driver set 151 (for example, a hardware layer such as the above-described CPC device 25). That is, it constitutes a control unit immediately above which controls devices in the hardware layer. The device driver layer 150 performs processing in response to a hardware interrupt.

【0196】また、ロボットサーバオブジェクト層14
0において、デザインドロボット141は、ロボット装
置1の構成等を管理し、パワーマネージャ142は、電
源管理をし、デバイスドライバマネージャ143は、外
部接続等されている機器、例えば、パーソナルコンピュ
ータやPCカードのアクセスを管理している。
Also, the robot server object layer 14
0, the designed robot 141 manages the configuration and the like of the robot apparatus 1, the power manager 142 manages the power supply, and the device driver manager 143 manages externally connected devices such as a personal computer and a PC card. Manage access to.

【0197】そして、ロボットサーバオブジェクト層1
40においてバーチャルロボット110は、ミドルウェ
ア層80と各種デバイスドライバとの間での情報の受渡
しを各オブジェクト間の通信規約の下で行う部分をな
す。
Then, the robot server object layer 1
At 40, the virtual robot 110 forms a part that performs information transfer between the middleware layer 80 and various device drivers under the communication protocol between the objects.

【0198】(2)ロボット装置の感情モデル及び本能
モデル 次に、ロボット装置1が自主的に行動を決定するための
感情モデルや本能モデル等について説明する。
(2) Emotion Model and Instinct Model of Robot Apparatus Next, an emotion model, an instinct model, and the like for the robot apparatus 1 to independently determine an action will be described.

【0199】感情モデルや本能モデルは外的要因又は内
的要因に基づいて変化し、これにより、ロボット装置
は、変化した感情モデルや本能モデルの状態に応じて動
作し、自律型のロボット装置として行動を決定する。
The emotion model and the instinct model change based on external factors or internal factors, whereby the robot device operates in accordance with the changed state of the emotion model and the instinct model. Determine action.

【0200】例えば、外的要因及び内的要因は、感情モ
デル及び本能モデルの状態(パラメータ)を変化させる
情報とされる、特定の認識結果、特定の行動結果或いは
時間経過を示すものとなる。ここで、特定の認識結果と
は、主に入力による変動要因であり、特定の行動結果と
は、ストレスが解消された等の主に行動の変動要因であ
る。
For example, the external factor and the internal factor indicate a specific recognition result, a specific action result, or the passage of time, which is information that changes the state (parameter) of the emotion model and the instinct model. Here, the specific recognition result is mainly a variation factor due to the input, and the specific behavior result is mainly a variation factor of the behavior such as the release of stress.

【0201】また、感情モデル及び本能モデルは、例え
ば図20に示したソフトウェア層におけるアプリケーシ
ョン層120において構築されている。
The emotion model and the instinct model are constructed in, for example, the application layer 120 in the software layer shown in FIG.

【0202】(2−1)ロボット装置の感情モデル 図21に示すように、感情モデル64は構築されてい
る。
(2-1) Emotion Model of Robot Device As shown in FIG. 21, the emotion model 64 is constructed.

【0203】第1乃至第3のセンサ61,62,63
は、ユーザ、さらには環境などの外部から与えられる刺
激を検知し、電気信号に変換して出力する。第1乃至第
3のセンサ61,62,63は、ポテンショメータ19
a〜19c、タッチセンサ20、マイクロホン21など
の他、図示しない音声認識センサや画像色認識センサ等
であり、ユーザがロボット装置1の世話をするために行
った操作や、発した音声を、電気信号に変換して出力す
る。この電気信号は、第1及び第2の入力評価部71,
72に供給される。
The first to third sensors 61, 62, 63
Detects a stimulus given from the outside of the user or the environment, converts the stimulus into an electric signal, and outputs the electric signal. The first to third sensors 61, 62, 63 are provided with the potentiometer 19.
a to 19c, a touch sensor 20, a microphone 21, and the like, a voice recognition sensor, an image color recognition sensor, and the like (not shown), which perform operations performed by the user to take care of the robot apparatus 1 and voices generated by the user. Convert to a signal and output. This electric signal is supplied to the first and second input evaluators 71,
72.

【0204】第1の入力評価部71は、第1乃至第3の
センサ61,62,63から供給される電気信号を評価
し、所定の感情を検出する。ここでいう所定の感情と
は、例えば「喜び」の感情である。第1の入力評価部7
1は、検出した感情の評価値を第1の感情モジュール7
3に供給する。
The first input evaluation section 71 evaluates the electric signals supplied from the first to third sensors 61, 62, 63 and detects a predetermined emotion. The predetermined emotion here is, for example, an emotion of “joy”. First input evaluation unit 7
1 indicates that the evaluation value of the detected emotion is stored in the first emotion module 7
Supply 3

【0205】第1の感情モジュール73には、所定の感
情が割り当てられており、第1の入力評価部71から供
給される感情の評価値に基づいて、感情のパラメータが
増減する。例えば、感情として「喜び」が割り当てられ
ている場合には、第1の入力評価部71から供給される
「喜び」の評価値に基づいて、「喜び」の感情のパラメ
ータが増減することになる。第1の感情モジュール73
は、感情パラメータを出力選択部75に供給する。
A predetermined emotion is assigned to the first emotion module 73, and the emotion parameters are increased or decreased based on the emotion evaluation value supplied from the first input evaluator 71. For example, when “joy” is assigned as the emotion, the parameter of the emotion of “joy” increases or decreases based on the evaluation value of “joy” supplied from the first input evaluation unit 71. . First emotion module 73
Supplies the emotion parameter to the output selection unit 75.

【0206】同様に、第2の入力評価部72も、第1乃
至第3のセンサ61,62,63から供給される電気信
号を評価し、所定の感情を検出する。ここでいう所定の
感情とは、例えば怒りの感情である。第2の入力評価部
72は、検出した感情の評価値を第2の感情モジュール
74に供給する。
Similarly, the second input evaluator 72 evaluates the electric signals supplied from the first to third sensors 61, 62, 63 and detects a predetermined emotion. The predetermined emotion here is, for example, an angry emotion. The second input evaluation section 72 supplies the detected emotion evaluation value to the second emotion module 74.

【0207】第2の感情モジュール74には、所定の感
情が割り当てられており、第2の入力評価部72から供
給される感情の評価値に基づいて、感情のパラメータが
増減する。例えば、感情として「怒り」が割り当てられ
ている場合には、第2の入力評価部72から供給される
「怒り」の評価値に基づいて、「怒り」感情のパラメー
タが増減することになる。第2の感情モジュール74
は、感情パラメータを出力選択部75に供給する。
A predetermined emotion is assigned to the second emotion module 74, and the emotion parameter is increased or decreased based on the evaluation value of the emotion supplied from the second input evaluator 72. For example, when “anger” is assigned as the emotion, the parameter of the “anger” emotion increases or decreases based on the evaluation value of “anger” supplied from the second input evaluation unit 72. Second emotion module 74
Supplies the emotion parameter to the output selection unit 75.

【0208】なお、本実施の形態では、所定の感情とし
て「喜び」や「怒り」を例に挙げているがこれに限定さ
れるものではない。すなわち例えば、「悲しさ」、「驚
き」、「恐れ」或いは「嫌悪」等が所定の感情とされて
もよい。
[0208] In the present embodiment, "joy" and "anger" are given as examples of the predetermined emotion, but the present invention is not limited to this. That is, for example, “sadness”, “surprise”, “fear”, or “disgust” may be the predetermined emotion.

【0209】出力選択部75は、第1及び第2の感情モ
ジュール73,74から供給される感情パラメータが所
定の閾値を越えているか否かを判定し、閾値を越えてい
る感情パラメータを出力する。また、出力選択部75
は、第1及び第2の感情モジュール73,74からの2
つの感情パラメータがいずれも閾値を越えている場合に
は、感情パラメータが大きい方を選択し、出力する。
[0209] The output selection unit 75 determines whether the emotion parameter supplied from the first and second emotion modules 73 and 74 exceeds a predetermined threshold, and outputs the emotion parameter exceeding the threshold. . Also, the output selection unit 75
Are the two from the first and second emotion modules 73 and 74.
If any one of the emotion parameters exceeds the threshold value, the one with the larger emotion parameter is selected and output.

【0210】行動生成部65は、出力評価部75から供
給される感情の状態に基づいて次の行動を決定する。す
なわち、行動生成部65は、出力選択部75から供給さ
れる感情を、具体的な行動を指示する命令に変換する。
そして、行動生成部65は、行動を指示する命令の情報
を出力部66に供給するとともに、出力評価部76にフ
ィードバックさせる。出力評価部76では、行動生成部
65から供給される行動の指示命令の情報を評価し、そ
の行動に対応する感情パラメータを変化させるように制
御する。すなわち、出力評価部76は、次に実行される
行動に応じて感情の状態を変化させる。
The action generation section 65 determines the next action based on the emotional state supplied from the output evaluation section 75. That is, the action generation unit 65 converts the emotion supplied from the output selection unit 75 into a command for instructing a specific action.
Then, the action generation unit 65 supplies information of a command instructing an action to the output unit 66 and feeds it back to the output evaluation unit 76. The output evaluation unit 76 evaluates information of the instruction command of the behavior supplied from the behavior generation unit 65, and controls to change the emotion parameter corresponding to the behavior. That is, the output evaluation unit 76 changes the state of the emotion according to the action to be executed next.

【0211】この出力評価部76は、具体的には、行動
モデルにより行動を決定するようになされており、具体
的には、後述する。
[0211] The output evaluator 76 is specifically designed to determine an action based on an action model, which will be specifically described later.

【0212】出力部66は、行動生成部65からの行動
命令(決定された行動)に従って実際に出力を行う。具
体的には、出力部66は、脚部2a〜2d、頭部3、胴
体4などに相当する部材を駆動するアクチュエータ22
a〜22dや、スピーカ23などでなり、例えば、所定
のアクチュエータを駆動して頭部3を回転させたり、鳴
き声等を出力したりする。
The output section 66 actually outputs according to the action command (determined action) from the action generation section 65. Specifically, the output unit 66 includes an actuator 22 that drives members corresponding to the legs 2a to 2d, the head 3, the body 4, and the like.
a to 22d, a speaker 23, and the like. For example, a predetermined actuator is driven to rotate the head 3 or output a cry.

【0213】このような感情モデル64により、ロボッ
ト装置1は、感情モデル64の感情パラメータ(感情の
状態)に応じて感情に起因したを行動をする。具体的
に、第1の感情モジュール73に「喜び」、第2の感情
モジュール74に「怒り」が割り当てられている場合の
処理について説明する。なお、ここで、第1のセンサ6
1を画像色認識センサとし、第2のセンサ62を音声認
識センサとし、第3のセンサ63をタッチセンサ20と
して以下を説明する。
With such an emotion model 64, the robot apparatus 1 performs an action caused by the emotion in accordance with the emotion parameter (emotion state) of the emotion model 64. Specifically, a process when “joy” is assigned to the first emotion module 73 and “anger” is assigned to the second emotion module 74 will be described. Here, the first sensor 6
1 will be described below as an image color recognition sensor, the second sensor 62 as a voice recognition sensor, and the third sensor 63 as a touch sensor 20.

【0214】第1の入力評価部71は、画像色認識セン
サ(第1のセンサ)61から「黄色」に対応する電気信
号、音声認識センサ(第2のセンサ)62から所定の周
波数(例えば、「レ」)に対応する電気信号、また、タ
ッチセンサ(第3のセンサ)63から「なでている状
態」に対応する電気信号が供給されると、それぞれの信
号を評価し、「喜び」の評価値を決定する。第1の入力
評価部71は、「喜び」の評価値を第1の感情モジュー
ル73に供給する。感情モジュール73は、「喜び」の
評価値に基づいて、「喜び」の感情のパラメータを増加
させる。感情のパラメータは、出力選択部75に供給さ
れる。
The first input evaluator 71 receives an electric signal corresponding to "yellow" from the image color recognition sensor (first sensor) 61 and a predetermined frequency (for example, from the voice recognition sensor (second sensor) 62). When an electric signal corresponding to “レ”) and an electric signal corresponding to “stroking state” are supplied from the touch sensor (third sensor) 63, the respective signals are evaluated and “joy” is provided. Is determined. The first input evaluation unit 71 supplies the evaluation value of “joy” to the first emotion module 73. The emotion module 73 increases the parameter of the emotion of “joy” based on the evaluation value of “joy”. The emotion parameters are supplied to the output selection unit 75.

【0215】一方、第2の入力評価部72は、画像色認
識センサ61から「赤色」に対応する電気信号、音声認
識センサ62から所定の周波数(例えば、「ファ」)に
対応する電気信号、また、タッチセンサ63から「たた
いている状態」に対応する電気信号が供給されると、そ
れぞれの信号を評価し、「怒り」の評価値を決定する。
第2の入力評価部72は、「怒り」の評価値を第2の感
情モジュール74に供給する。第2の感情モジュール7
4は、「怒り」の評価値に基づいて、「怒り」の感情の
パラメータを増加させる。感情のパラメータは、出力選
択部75に供給される。
On the other hand, the second input evaluator 72 outputs an electric signal corresponding to “red” from the image color recognition sensor 61, an electric signal corresponding to a predetermined frequency (for example, “F”) from the voice recognition sensor 62, When an electric signal corresponding to the “hitting state” is supplied from the touch sensor 63, each signal is evaluated, and an evaluation value of “anger” is determined.
The second input evaluation unit 72 supplies the evaluation value of “anger” to the second emotion module 74. Second emotion module 7
No. 4 increases the parameter of the emotion of “anger” based on the evaluation value of “anger”. The emotion parameters are supplied to the output selection unit 75.

【0216】出力選択部75は、第1及び第2の感情モ
ジュール73,74から供給される感情パラメータが所
定の閾値を越えているか否かを判定する。ここでは、
「怒り」の感情パラメータが閾値を越えているものとす
る。
The output selection section 75 determines whether or not the emotion parameters supplied from the first and second emotion modules 73 and 74 exceed a predetermined threshold. here,
It is assumed that the emotion parameter of “anger” exceeds the threshold.

【0217】行動生成部65は、出力選択部75から供
給される「怒り」の感情パラメータを具体的な行動(吠
える)を指示する命令に変換し、出力部66に供給する
とともに、出力評価部76にフィードバックさせる。
The action generating section 65 converts the emotion parameter of “anger” supplied from the output selecting section 75 into a command for instructing a specific action (barking), supplies the command to the output section 66, and outputs the command to the output evaluating section. 76 is fed back.

【0218】出力部66は、行動生成部65からの行動
命令(吠える)に従った出力を行う。すなわち、スピー
カ23から、対応する音声が出力される。そして、その
ような行動結果が出力評価部76にフィードバックされ
て、第2の感情モジュール74の「怒り」の感情パラメ
ータが減少されることで、ロボット装置1が吠えること
により、その「怒り」が発散され、「怒り」の感情が抑
制されるといった状態になる。
The output unit 66 outputs according to the action command (barking) from the action generation unit 65. That is, the corresponding sound is output from the speaker 23. Then, such an action result is fed back to the output evaluation unit 76, and the emotion parameter of “anger” of the second emotion module 74 is reduced, so that the robot apparatus 1 barks, and the “anger” is reduced. It is diverged and the state of "anger" feeling is suppressed.

【0219】(2−2)ロボット装置の本能モデル 図22に示すように、本能モデル164は構築されてい
る。
(2-2) Instinct Model of Robot Device As shown in FIG. 22, an instinct model 164 is constructed.

【0220】図22における第1乃至第3のセンサ6
1,62,63は、感情モデル64における場合と同様
に、ユーザ、さらには環境などの外部から与えられる刺
激を検知し、電気信号に変換して出力する。この電気信
号は、第1及び第2の入力評価部171,172に供給
される。
The first to third sensors 6 in FIG.
As in the case of the emotion model 64, 1, 62 and 63 detect a stimulus given from the outside, such as the user and the environment, convert the stimulus into an electric signal, and output it. This electric signal is supplied to the first and second input evaluation units 171 and 172.

【0221】第1の入力評価部171は、第1乃至第3
のセンサ61,62,63から供給される電気信号を評
価し、所定の本能を検出する。ここでいう所定の本能と
は、例えば「愛情欲」の本能である。第1の入力評価部
171は、検出した本能の評価値を第1の本能モジュー
ル173に供給する。
The first input evaluator 171 includes first to third
The electrical signals supplied from the sensors 61, 62, and 63 are evaluated to detect a predetermined instinct. Here, the predetermined instinct is, for example, an instinct of “loving desire”. The first input evaluator 171 supplies the detected instinct evaluation value to the first instinct module 173.

【0222】第1の本能モジュール173には、所定の
本能が割り当てられており、第1の入力評価部171か
ら供給される本能の評価値に基づいて、本能のパラメー
タが増減する。例えば、本能として「愛情欲」が割り当
てられている場合には、第1の入力評価部171から供
給される「愛情欲」の評価値に基づいて、「愛情欲」の
本能のパラメータが増減することになる。第1の本能モ
ジュール173は、本能パラメータを出力選択部175
に供給する。
A predetermined instinct is allocated to the first instinct module 173, and the parameters of the instinct increase or decrease based on the instinct evaluation value supplied from the first input evaluator 171. For example, when “love lust” is assigned as the instinct, the parameter of the “love lust” instinct increases or decreases based on the evaluation value of “love lust” supplied from the first input evaluation unit 171. Will be. The first instinct module 173 outputs the instinct parameter to the output selection unit 175.
To supply.

【0223】同様に、第2の入力評価部172も、第1
乃至第3のセンサ61,62,63から供給される電気
信号を評価し、所定の本能を検出する。ここでいう所定
の本能とは、例えば「食欲」の本能である。第2の入力
評価部172は、検出した本能の評価値を第2の本能モ
ジュール174に供給する。具体的には、第1のセンサ
61からバッテリの残量の情報が入力された場合、第2
の入力評価部172は、食欲の情報としてこれを評価
し、この評価値を第2の本能モジュール174に供給す
る。
Similarly, the second input evaluation section 172 also
To evaluate the electric signal supplied from the third sensor 61, 62, 63 to detect a predetermined instinct. Here, the predetermined instinct is, for example, an instinct of “appetite”. The second input evaluator 172 supplies the detected instinct evaluation value to the second instinct module 174. Specifically, when information on the remaining battery level is input from the first sensor 61, the second
The input evaluation unit 172 evaluates this as information on appetite and supplies the evaluation value to the second instinct module 174.

【0224】第2の本能モジュール174には、所定の
本能が割り当てられており、第2の入力評価部172か
ら供給される本能の評価値に基づいて、本能のパラメー
タが増減する。例えば、本能として「食欲」が割り当て
られている場合には、第2の入力評価部172から供給
される「食欲」の評価値に基づいて、「食欲」の本能の
パラメータが増減することになる。第2の本能モジュー
ル174は、本能パラメータを出力選択部175に供給
する。
A predetermined instinct is assigned to the second instinct module 174, and the parameters of the instinct increase or decrease based on the instinct evaluation value supplied from the second input evaluator 172. For example, when “appetite” is assigned as the instinct, the parameter of the instinct of “appetite” increases or decreases based on the evaluation value of “appetite” supplied from the second input evaluation unit 172. . The second instinct module 174 supplies the instinct parameters to the output selection unit 175.

【0225】なお、本実施の形態では、所定の本能とし
て「愛情欲」や「食欲」を例として挙げているがこれに
限定されるものではない。すなわち例えば、「運動
欲」、「好奇心」等が所定の本能とされてもよい。
[0225] In the present embodiment, "loving desire" and "appetite" are given as examples of the predetermined instinct, but the present invention is not limited to this. In other words, for example, “greed for exercise”, “curiosity” and the like may be the predetermined instinct.

【0226】出力選択部175は、第1及び第2の本能
モジュール173,174から供給される本能パラメー
タが所定の閾値を越えているか否かを判定し、閾値を越
えている本能パラメータを出力する。また、出力選択部
175は、第1及び第2の本能モジュール173,17
4からの2つの本能パラメータがいずれも閾値を越えて
いる場合には、本能パラメータが大きい方を選択し、出
力する。
The output selection section 175 determines whether the instinct parameters supplied from the first and second instinct modules 173 and 174 exceed a predetermined threshold, and outputs the instinct parameters exceeding the threshold. . Further, the output selection unit 175 includes the first and second instinct modules 173, 17
If both of the instinct parameters from 4 exceed the threshold value, the one with the larger instinct parameter is selected and output.

【0227】行動生成部65は、上述した感情モデル6
4における場合と同様に、出力評価部175から供給さ
れる本能の状態に基づいて次の行動を決定する。すなわ
ち、行動生成部65は、出力選択部175から供給され
る本能を、具体的な行動を指示する命令に変換する。そ
して、行動生成部65は、行動を指示する命令の情報を
出力部66に供給するとともに、出力評価部176にフ
ィードバックさせる。出力評価部176では、行動生成
部65から供給される行動の指示命令の情報を評価し、
その行動に対応する本能パラメータを変化させるように
制御する。すなわち、出力評価部176は、次に実行さ
れる行動に応じて本能の状態を変化させる。
The action generation unit 65 is provided with the emotion model 6 described above.
4, the next action is determined based on the state of the instinct supplied from the output evaluator 175. That is, the action generation unit 65 converts the instinct supplied from the output selection unit 175 into a command for instructing a specific action. Then, the action generation unit 65 supplies the information of the command instructing the action to the output unit 66 and feeds it back to the output evaluation unit 176. The output evaluation unit 176 evaluates information of the instruction command of the behavior supplied from the behavior generation unit 65,
Control is performed so as to change the instinct parameter corresponding to the action. That is, the output evaluation unit 176 changes the state of the instinct according to the action to be executed next.

【0228】出力部66では、上述したように行動生成
部65からの行動命令に従った出力を行う。
The output section 66 performs output according to the action command from the action generation section 65 as described above.

【0229】このような本能モデル164により、ロボ
ット装置1は、本能モデル164の本能パラメータ(本
能の状態)に応じて本能に起因したを行動をする。具体
的に、第1の本能モジュール173に「愛情欲」、第2
の本能モジュール174に「食欲」が割り当てられてい
る場合の処理について説明する。なお、ここで、第1の
センサ61をタッチセンサ20とし、第2のセンサ62
をバッテリセンサ(バッテリマネージャ)として以下を
説明する。
With such an instinct model 164, the robot apparatus 1 behaves due to the instinct according to the instinct parameter (state of the instinct) of the instinct model 164. Specifically, the first instinct module 173 includes “
The process when “appetite” is assigned to the instinct module 174 will be described. Here, the first sensor 61 is the touch sensor 20 and the second sensor 62
Will be described as a battery sensor (battery manager).

【0230】第1の入力評価部171は、タッチセンサ
20(第1のセンサ61)から「なでられている状態」
に対応する電気信号が供給されると、その信号を評価
し、「愛情欲」の評価値を決定する。第1の入力評価部
171は、「愛情欲」の評価値を第1の本能モジュール
173に供給する。本能モジュール173は、「愛情
欲」の評価値に基づいて、本能のパラメータを変化させ
る。本能のパラメータは、出力選択部175に供給され
る。
[0230] The first input evaluator 171 outputs a "patched state" from the touch sensor 20 (first sensor 61).
Is supplied, the signal is evaluated, and the evaluation value of “loving desire” is determined. The first input evaluation unit 171 supplies the evaluation value of “loving desire” to the first instinct module 173. The instinct module 173 changes the parameters of the instinct based on the evaluation value of “loving desire”. The parameters of the instinct are supplied to the output selection unit 175.

【0231】一方、第2の入力評価部172は、バッテ
リセンサ(第2のセンサ62)から「おなかがすいた状
態(バッテリ残量が少ない状態)」に対応する電気信号
が供給されると、その信号を評価し、「食欲」の評価値
を決定する。第2の入力評価部172は、「食欲」の評
価値を第2の本能モジュール174に供給する。第2の
本能モジュール174は、「食欲」の評価値に基づい
て、「食欲」の本能のパラメータを増加させる。「食
欲」の本能のパラメータは、出力選択部75に供給され
る。
On the other hand, when the second input evaluator 172 receives an electric signal corresponding to the “hungry state (state where the remaining battery power is low)” from the battery sensor (second sensor 62), The signal is evaluated, and an evaluation value of “appetite” is determined. The second input evaluator 172 supplies the evaluation value of “appetite” to the second instinct module 174. The second instinct module 174 increases the parameter of the “appetite” instinct based on the evaluation value of “appetite”. The parameter of the instinct of “appetite” is supplied to the output selection unit 75.

【0232】出力選択部75は、第1及び第2の本能モ
ジュール173,174から供給される本能パラメータ
が所定の閾値を越えているか否かを判定する。ここで
は、「食欲」の本能パラメータが閾値を越えているもの
とする。
The output selector 75 determines whether or not the instinct parameters supplied from the first and second instinct modules 173 and 174 exceed a predetermined threshold. Here, it is assumed that the instinct parameter of “appetite” exceeds the threshold.

【0233】行動生成部65は、出力選択部175から
供給される「食欲」の本能パラメータを具体的な行動
(例えば、伏せる)を指示する命令に変換し、出力部6
6に供給するとともに、出力評価部176にフィードバ
ックさせる。
The action generation section 65 converts the instinct parameter of “appetite” supplied from the output selection section 175 into a command for instructing a specific action (for example, lying down).
6 and fed back to the output evaluator 176.

【0234】出力部66は、行動生成部65からの行動
命令に従った出力を行う。すなわち、アクチュエータ2
2a〜22dにより脚部2a〜2dを駆動して、伏せる
姿勢に遷移する。
The output unit 66 performs an output according to the action command from the action generation unit 65. That is, the actuator 2
The legs 2a to 2d are driven by the 2a to 22d to make a transition to the prone position.

【0235】以上がロボット装置1の有する感情モデル
及び本能モデルについての説明である。このような感情
モデル及び本能モデルにより、ロボット装置は、認識結
果等からなる外的要因又は内的要因に基づいて感情及び
本能の状態を変化させて、感情及び本能を表出させた行
動を起こすようになる。これにより、ユーザは、外的要
因及び内的要因により変化される感情や本能をロボット
装置の行動として鑑賞することができるようになる。
The above is the description of the emotion model and the instinct model of the robot apparatus 1. With such an emotion model and an instinct model, the robot apparatus changes the state of the emotion and the instinct based on an external factor or an internal factor including a recognition result or the like, and causes the behavior that expresses the emotion and the instinct. Become like Thereby, the user can appreciate the emotion and instinct changed by the external factor and the internal factor as the behavior of the robot device.

【0236】そして、ロボット装置1は、他のロボット
装置に出逢った際、このような感情や本能の状態(パラ
メータ)を当該他のロボット装置に送る。これにより、
このような感情や本能が送られてきた他のロボット装置
は、そのような情報に対応した所定の処理を開始する。
例えば、他のロボット装置は、送られてきた感情や本能
の状態(パラメータ)に対応して自己の感情や本能の状
態(パラメータ)を変化させる。このような処理によ
り、他のロボット装置は、周囲のロボット装置の感情や
本能の状態に左右された感情や本能を行動を表出するよ
うになる。
When the robot apparatus 1 encounters another robot apparatus, it sends such emotions and instinct states (parameters) to the other robot apparatus. This allows
The other robot device to which such an emotion or instinct has been sent starts a predetermined process corresponding to such information.
For example, the other robot device changes its own emotion or instinct state (parameter) according to the sent emotion or instinct state (parameter). By such a process, the other robot device expresses an emotion or instinct depending on the emotion or instinct state of the surrounding robot device.

【0237】(3)ロボット装置の行動モデル 上述したような感情モデル及び本能モデルの状態により
決定される行動については、具体的には、行動モデルに
基づいた行動となる。次に、行動生成部65における行
動モデルについて説明する。
(3) Behavior Model of Robot Apparatus The behavior determined by the state of the emotion model and the instinct model as described above is specifically based on the behavior model. Next, a behavior model in the behavior generation unit 65 will be described.

【0238】行動モデルは、図23に示すように、セン
サ入力によりロボット装置1に動作させるための行動出
力を決定している。ここで、センサ入力は、CPCデバ
イス25のうちのポテンショメータ19a〜19c等の
外部情報を取得するためのセンサからの入力である。具
体的には、CPCデバイス25から認識情報を得た入力
セマンティクスコンバータ91からの情報とされる。
As shown in FIG. 23, the behavior model determines a behavior output for causing the robot apparatus 1 to operate based on a sensor input. Here, the sensor input is an input from a sensor for acquiring external information such as the potentiometers 19a to 19c in the CPC device 25. Specifically, the information is information from the input semantics converter 91 that has obtained recognition information from the CPC device 25.

【0239】行動モデルM3は、異なる行動目的をもっ
た複数の遷移状態表をサブシステムとして有している。
具体的には、サブシステムは、図24に示すように、シ
ステム管理を行動目的とするシステム管理F1、姿勢を
管理することを行動目的とする姿勢管理F2、障害物を
回避することを行動目的とする障害物回避F3、反射動
作を行動目的とする反射F4、感情表現を行動目的とす
る感情表現F5、自律行動一般の動作を行動目的とする
自律行動一般F6、ゲームの実行を行動目的とするゲー
ムF7、本能表現を行動目的とする本能表現F8、サッカ
ーの動作を行動目的とするサッカーF9、データの保存
を行動目的とする記録F10等の状態遷移表を有してお
り、行動モデルM3は、このような状態遷移表に基づい
て現在の状態から目的とする状態に遷移するような行動
出力を決定している。
The behavior model M 3 has, as a subsystem, a plurality of transition state tables having different behavior purposes.
More specifically, as shown in FIG. 24, the subsystems include a system management F 1 for the purpose of system management, a posture management F 2 for the purpose of managing the posture, and avoiding obstacles. Obstacle avoidance F 3 for action purpose, reflex F 4 for reflex action, emotion expression F 5 for emotion purpose, autonomous action general F 6 for autonomous action in general, game game F 7 for the execution and action objects, soccer F 9 to instinct expressed F 8 and the instinctive expression behavior object, the operation of the football and action objects, state transition, such as a recording F 10 for storage of data and behavior object has a table, the behavior model M 3, and determines the action output with the transition from the current state on the basis of such a state transition table to the state of interest.

【0240】例えば、状態遷移表には、それぞれに優先
度が付してあり、重要度の高い行動が優先的に実行され
るように関係づけられている。本例では、記録F10、サ
ッカーF9、本能表現F8、ゲームF7、自律行動一般
6、感情表現F5、反射F4、障害物回避F3、姿勢管理
2及びシステム管理F1の順序で優先度が高くなってお
り、これにより、CPCデバイス25からのセンサ入力
に対して、システム管理F1、姿勢管理F2、障害物回避
3、反射F4、感情表現F5、自律行動一般F6、ゲーム
7、本能表現F8、サッカーF9及び記録F10の順序で
優先的に実行されるようになる。具体的には、このよう
に優先度を付すことにより、複数の出力(行動)がぶつ
かるようなときには、優先度の高い行動が選択されるよ
うになる。
For example, priorities are assigned to the state transition tables, and the status transition tables are associated with each other so that actions having high importance are executed with priority. In this example, the record F 10 , the soccer F 9 , the instinct expression F 8 , the game F 7 , the general autonomous behavior F 6 , the emotion expression F 5 , the reflection F 4 , the obstacle avoidance F 3 , the posture management F 2, and the system management F The priority is higher in the order of 1 , so that the system management F 1 , the attitude management F 2 , the obstacle avoidance F 3 , the reflection F 4 , and the emotional expression F 5 are given to the sensor input from the CPC device 25. , The general autonomous action F 6 , the game F 7 , the instinct expression F 8 , the soccer F 9, and the record F 10 in that order. Specifically, by assigning a priority in this way, when a plurality of outputs (actions) collide, an action with a higher priority is selected.

【0241】また、例えば、状態遷移表については、遷
移確率に基づいて確率的に遷移する状態を決定する確率
有限オートマトンと呼ばれるアルゴリズムの原理を用い
ている。
For example, for the state transition table, the principle of an algorithm called a stochastic finite state automaton that determines a state to transition stochastically based on the transition probability is used.

【0242】確率有限オートマトンは、図25に示すよ
うに、n(nは整数。)個の状態をノードNODE0
NODEnとして表現した場合、1つのノードNODE0
から他のノードNODE1〜NODEnに遷移するかを、
各ノードNODE0〜NODEnの間を接続するアークA
RC1〜ARCnに対してそれぞれ設定された遷移確率P
1乃至Pnに基づいて確率的により決定するアルゴリズム
である。ここで、アークとは、装置(ロボット装置1)
に実現される状態を予め定義し、装置の動作を、定義し
た各状態間で遷移させるために、各状態間を遷移する際
の装置の動作を示すものである。
As shown in FIG. 25, the stochastic finite state automaton represents n (n is an integer) states in the nodes NODE 0 to NODE 0 .
When expressed as NODE n , one node NODE 0
To transition to other nodes NODE 1 to NODE n from
Arc A connecting nodes NODE 0 to NODE n
Transition probabilities P respectively set for RC 1 to ARC n
This is an algorithm that determines stochastically based on 1 to Pn . Here, the arc is a device (robot device 1).
Are defined in advance, and the operation of the device when transitioning between the states is shown in order to transition the operation of the device between the defined states.

【0243】このような確率有限オートマトンのアルゴ
リズムを状態遷移表に適用することにより、現在が第1
のノードNODE0にある場合において、現在の状態や
CPCデバイス25のセンサ入力等の状態遷移のための
情報に基づいて次のノードが決定される。
By applying such a stochastic finite state automaton algorithm to the state transition table, the current
In certain cases of the node NODE 0, the next node is determined based on the information for the state transition of the sensor input or the like of the present state and CPC device 25.

【0244】なお、行動モデルについては、上述したよ
うに、状態遷移表に基づいて行動出力を行うことに限定
されるものでなく、これ以外の手段をとることもでき
る。例えば、神経回路網における情報処理メカニズムを
参照してなるニューラルネットワークを用いて行動モデ
ルを構築することもできる。
As described above, the action model is not limited to outputting the action based on the state transition table, and other means may be used. For example, a behavior model can be constructed using a neural network that refers to an information processing mechanism in a neural network.

【0245】また、行動モデルを構成するサブシステム
は、以上のようなものに限定されないことはいうまでも
ない。
It is needless to say that the subsystems constituting the behavior model are not limited to those described above.

【0246】そして、行動モデルM3は、行動出力に際
し、図23に示すように、感情モデルの出力信号である
感情値(感情パラメータ)及び本能モデルの出力信号で
ある本能値(本能パラメータ)を参照している。
When the behavior model M 3 outputs behavior, as shown in FIG. 23, an emotion value (emotional parameter) which is an output signal of an emotion model and an instinct value (instinct parameter) which is an output signal of an instinct model are output. Is referring.

【0247】感情モデルM1では、感情パラメータが、
上述したようにCPCデバイス25からのセンサ入力に
基づく入力評価値に応じて増減するとともに、行動を起
こした場合に得られる出力評価値に応じて増減する。す
なわち、感情モデルM1は、入力評価及び出力評価によ
り感情パラメータが更新される。なお、感情モデルM1
は、外界からの入力に反応によるもの、内部状態による
もの、又は時間の経過により変化するものなどで、上述
した怒りや喜び(うれしさ)の他に、悲しさ、恐れ、驚
き、嫌悪等に基づくものである。
In emotion model M 1 , the emotion parameter is
As described above, the value increases and decreases according to the input evaluation value based on the sensor input from the CPC device 25, and increases and decreases according to the output evaluation value obtained when an action is taken. In other words, the emotion model M 1 is emotion parameters are updated by the input evaluation and output evaluation. The emotion model M 1
Is caused by reactions to the input from the outside world, by internal conditions, or by changes over time. In addition to the above-mentioned anger and joy (joy), sadness, fear, surprise, disgust, etc. It is based on

【0248】同様に、本能モデルM2では、本能パラメ
ータが、CPCデバイス25からのセンサ入力に基づく
入力評価値に応じて増減するとともに、行動を起こした
場合に得られる出力評価値に応じて増減する。すなわ
ち、本能モデルM2についても、入力評価及び出力評価
により本能パラメータが更新される。なお、本能モデル
2とは、主に内部状態を要因とし、徐々に変化してい
くもので、例えば、食欲、運動欲、愛情欲、好奇心等の
主に欲求に基づくモデルである。
Similarly, in the instinct model M 2 , the instinct parameter increases and decreases according to an input evaluation value based on a sensor input from the CPC device 25 and increases and decreases according to an output evaluation value obtained when an action is taken. I do. That is, for even instinct model M 2, instinct parameters are updated by the input evaluation and output evaluation. Note that the instinct model M 2, mainly the internal state a factor, as it gradually changes, for example, appetite, movement desire, affection desire, a model based mainly on the desire, such as a curiosity.

【0249】行動モデルM3は、このような感情モデル
の出力信号である感情値(感情パラメータ)及び本能モ
デルの出力信号である本能値(本能パラメータ)を行動
の決定の際に参照している。
The behavior model M 3 refers to the emotion value (emotional parameter), which is the output signal of such an emotion model, and the instinct value (instinct parameter), which is the output signal of the instinct model, when determining the behavior. .

【0250】さらに、行動モデルM3は、図23に示す
ように、学習モジュールM4により行動選択確率更新が
なされるようになっている。
Further, as shown in FIG. 23, the behavior selection probability of the behavior model M 3 is updated by the learning module M 4 .

【0251】学習モジュールM4は、過去の情報を将来
の行動等に反映させるためのモジュールであって、例え
ば過去の行動を学習するものである。例えば、学習モジ
ュールM4は、学習結果に基づいて、行動モデルM3を構
成するサブシステム(状態遷移表)の行動選択確率を変
化させる。これにより、過去の情報が反映されたサブシ
ステムの選択がなされるようになる。
The learning module M 4 is a module for reflecting past information in future actions and the like, and learns past actions, for example. For example, the learning module M 4 based on the learning result, changing the behavior selection probability of subsystems (state transition table) constituting the behavioral model M 3. As a result, a subsystem in which past information is reflected is selected.

【0252】具体的には、学習モジュールM4は、教示
信号を受け取り、学習状態を変化させる。教示信号と
は、例えば、上述の入力セマンティクスコンバータ91
が得る認識結果のうちの学習の教示と関連のある情報、
例えば「叩かれた」や「なでられた」といった情報であ
る。
[0252] Specifically, the learning module M 4 receives the instruction signal, changes the learning condition. The teaching signal is, for example, the input semantics converter 91 described above.
Information related to the teaching of learning among the recognition results obtained by
For example, it is information such as "hit" or "stroke".

【0253】学習モジュールM4は、このような教示信
号を受け取ったとき、過去数回に渡る行動に関連した行
動選択確率を変更する。例えば、学習モジュールM
4は、教示信号が「叩かれた」の情報である場合には、
その直前にとったいくつかの行動の行動選択確率を低く
して、また、教示信号が「なでられた」の情報である場
合には、その直前にとったいくつかの行動の行動選択確
率を高くする。このような操作により、ロボット装置
は、例えば叩かれた直前にした行動を発現しないように
なり、撫でられた直前にした行動を頻繁に発現するよう
になる。
When receiving such a teaching signal, the learning module M 4 changes the action selection probability associated with the actions performed several times in the past. For example, learning module M
4 is when the teaching signal is the information of "hit".
The action selection probabilities of some actions taken immediately before are lowered, and if the instruction signal is information on “stroke”, the action selection probabilities of some actions taken immediately before are reduced. Higher. By such an operation, for example, the robot apparatus does not express the action immediately before being struck, and frequently expresses the action immediately before being stroked.

【0254】以上のような行動モデルM3は、入力評価
値及び出力評価値により変化する感情パラメータを示す
感情値や本能パラメータを示す本能値を参照して、さら
には学習モジュールM4により優先度等が変化されるサ
ブシステムにより、最終的な行動を決定する。
The behavior model M 3 as described above refers to the emotion value indicating the emotion parameter and the instinct value indicating the instinct parameter which change according to the input evaluation value and the output evaluation value, and furthermore, the learning module M 4 sets the priority. The final behavior is determined by the subsystems that are changed.

【0255】行動選択モジュール180では、行動モデ
ルM3内の所定のサブシステム(行動)を選択して、そ
の選択した行動を図22に示した出力部66に出力す
る。出力部66では、行動選択モジュール180により
選択された行動となるように、CPCデバイス25を制
御して、例えば手足、頭、尻尾等を動作させ、当該行動
を完了させる。そして、この動作が上述した出力評価値
とされて上述した感情モデルM1及び本能モデルM2にフ
ィードバックされる。
[0255] In action selection module 180 selects a predetermined subsystem in behavioral model M 3 (action), and outputs the selected action to the output unit 66 shown in FIG. 22. The output unit 66 controls the CPC device 25 so that the action selected by the action selection module 180 is performed, for example, operates a limb, a head, a tail, and the like to complete the action. Then, this operation is set as the output evaluation value described above and fed back to the emotion model M 1 and the instinct model M 2 described above.

【0256】なお、行動選択モジュール180とCPC
デバイス25との間の情報の受渡しについては、具体的
には、上述の出力セマンティクスコンバータ101を介
して行われる。
It should be noted that the action selection module 180 and the CPC
The transfer of information to and from the device 25 is specifically performed via the output semantics converter 101 described above.

【0257】(4)ロボット装置の成長モデル ロボット装置1は、さらに成長段階に応じた行動を決定
するための成長モデルを有している。成長モデルは、ロ
ボット装置1があたかも本物の動物が「成長」するかの
ごとく行動或いは動作を変化させるようなモデルであ
る。
(4) Growth Model of Robot Apparatus The robot apparatus 1 further has a growth model for determining an action according to a growth stage. The growth model is a model in which the robot apparatus 1 changes its behavior or action as if a real animal “grows”.

【0258】ロボット装置は、この成長モデルにより、
成長レベル(成長度合い)に応じた行動を発現するよう
になされている。具体的には、ロボット装置1は、成長
モデルにより、「幼年期」、「少年期」、「青年期」及
び「成人期」の4つの「成長段階」に応じた行動をする
ようになされている。
According to the growth model, the robot device
An action corresponding to the growth level (growth degree) is developed. Specifically, the robot device 1 is adapted to perform an action according to four “growth stages” of “childhood”, “childhood”, “adolescence” and “adult” by the growth model. I have.

【0259】成長モデルは、具体的には、「幼年期」、
「少年期」、「青年期」及び「成人期」の成長段階毎に
上述したような行動モデルを備えるものであって、各成
長段階に応じた行動モデルが選択されることにより成長
に応じた行動を行うようになされている。例えば、行動
モデルの「成長段階」による違いは、行動や動作の難易
度や煩雑さなどによって表現している。具体的には以下
のようになる。
Specifically, the growth model includes “childhood”,
A behavior model as described above is provided for each of the growth stages of "childhood", "adolescence", and "adult", and the behavior model according to each growth stage is selected, so Action has been taken. For example, the difference between the behavior models depending on the “growth stage” is expressed by the difficulty or complexity of the behavior or the motion. Specifically, it is as follows.

【0260】「幼年期」の行動モデルは、例えば「歩行
状態」については歩幅を小さくするなどして「よちよち
歩き」となるように、「モーション」については単に
「歩く」、「立つ」、「寝る」程度の「単純」な動きと
なるように、また、「行動」については同じ行動を繰り
返し行うようにするなどして「単調」な行動となるよう
に、さらに、「サウンド」については音声信号の増幅率
を低下させるなどして「小さく短い」鳴き声となるよう
になされている。
The behavior model of “childhood” is, for example, “walking”, “standing”, “standing”, and “moving” so that the “walking state” becomes “toddling” by reducing the stride. For "simple" movements such as "sleeping" and "monotonous" actions such as repeating the same actions for "actions" It is designed to produce a "small and short" cry by lowering the amplification factor of the signal.

【0261】そして、このような成長段階の遷移につい
ては、所定の行動及び動作などの予め決められた「成
長」に関与する複数の要素(以下、これらを成長要素と
いう。)について、その発生を常時監視してカウントす
ることにより行っている。
For such a transition of the growth stage, generation of a plurality of elements (hereinafter, referred to as growth elements) involved in predetermined “growth” such as predetermined actions and actions is performed. This is done by constantly monitoring and counting.

【0262】具体的には、この成長要素の累積度数(カ
ウント値)を成長度合いを示す情報として、各成長要素
の累積度数の合計値(以下、成長要素の総合経験値とい
う。)が予め設定された閾値を越えたときに、使用する
行動モデルを変更して、すなわち例えば、「幼年期」の
行動モデルよりも成長レベル(行動や動作の難易度や煩
雑さなどのレベル)が高い「少年期」の行動モデルに変
更して、成長段階を遷移させている。
Specifically, using the cumulative frequency (count value) of this growth element as information indicating the degree of growth, the total value of the cumulative frequency of each growth element (hereinafter referred to as the total experience value of the growth element) is set in advance. When the threshold value is exceeded, the behavior model to be used is changed, that is, for example, “boy” whose growth level (the level of difficulty or complexity of behavior or movement) is higher than the behavior model of “childhood” Period, and change the growth stage.

【0263】ここで、成長要素とは、例えば、サウンド
コマンダ(リモートコントローラ)を用いた指令入力
や、「なでる」及び「たたく」に該当するタッチセンサ
20を介してのセンサ入力及び決められた行動及び動作
の成功回数などでなる強化学習や、「なでる」及び「た
たく」に該当しないタッチセンサ20を介してのセンサ
入力や、「ボールで遊ぶ」等の所定の行動や動作であ
る。
Here, the growth factor is, for example, a command input using a sound commander (remote controller), a sensor input via the touch sensor 20 corresponding to “stroke” and “slap”, and a predetermined action. And a predetermined action or action such as sensor input via the touch sensor 20 that does not correspond to “stroke” or “slap”, or “playing with a ball”.

【0264】そして、このように成長段階を遷移させた
後、遷移された成長モデルである「少年期」の行動モデ
ルに従って、例えば「歩行状態」については各アクチュ
エータ22の回転速度を速くするなどして「少しはしっ
かり」と歩くように、「モーション」については動きの
数を増加させるなどして「少しは高度かつ複雑」な動き
となるように、「行動」については前の行動を参照して
次の行動を決定するようにするなどして「少しは目的」
をもった行動となるように、また「サウンド」について
は音声信号S6の長さを延ばしかつ増幅率を上げるなど
して「少しは長く大きい」鳴き声となるように、各アク
チュエータ22やスピーカ23からの音声出力を制御す
る。
After the transition of the growth stage in this way, the rotation speed of each actuator 22 is increased for, for example, the “walking state” in accordance with the behavior model of the transitioned growth model “childhood”. Refer to the previous action for the "action" so that the "motion is a bit more advanced and complex" by increasing the number of motions, such as walking a little firmly. "A little purpose" by determining the next action
From each of the actuators 22 and the speakers 23 so that the sound becomes a little longer and longer by making the sound signal S6 longer and increasing the amplification factor. Control the audio output of

【0265】これと同様にして、この後、成長要素の総
合経験値が「青年期」や「成人期」にそれぞれ対応させ
て予め設定された各閾値を越えるごとに、行動モデルを
より「成長段階」の高い「青年期」又は「成人期」の行
動モデルに順次変更し、当該行動モデルに従って各アク
チュエータ22の回転速度やスピーカ23に与える音声
信号の長さや増幅率を徐々に上げたりする。
[0265] Similarly, thereafter, the behavior model is further increased each time the total experience value of the growth element exceeds each threshold value set in advance corresponding to "adolescence" or "adult life", respectively. The behavior model is sequentially changed to the "adolescent" or "adult" behavior model having a higher "stage", and the rotation speed of each actuator 22, the length of the audio signal given to the speaker 23, and the amplification factor are gradually increased according to the behavior model.

【0266】以上述べたような成長モデルにより、ロボ
ット装置1は、「成長段階」が上がる(すなわち「幼年
期」から「少年期」、「少年期」から「青年期」、「青
年期」から「成人期」に変化する。)に従って、「歩行
状態」が「よちよち歩き」から「しっかりした歩き」
に、「モーション」が「単純」から「高度・複雑」に、
「行動」が「単調」から「目的をもって行動」に、かつ
「サウンド」が「小さく短い」から「長く大きい」に段
階的に変化するように行動を表出させるようになる。
According to the growth model described above, the robot apparatus 1 has an increased “growth stage” (ie, from “childhood” to “childhood”, from “childhood” to “adolescence”, and from “adolescence”. "Change to" adult ".)" Walking state "changes from" toddling "to" steady walking "
In addition, "motion" changed from "simple" to "advanced / complex"
The action is expressed so that the "action" changes from "monotone" to "action with purpose" and the "sound" changes stepwise from "small and short" to "long and large".

【0267】そして、ロボット装置1は、このような自
己の成長モデルにより規定される自己の成長段階の情報
を、成長レベルの情報として、上述したように他のロボ
ット装置との間で交換している。これにより、ロボット
装置1は、上述したように、出逢った相手のロボット装
置の成長レベルに応じて行動を決定するようになされて
いる。
The robot apparatus 1 exchanges information of its own growth stage defined by such a growth model of itself as growth level information with another robot apparatus as described above. I have. As a result, the robot apparatus 1 determines an action according to the growth level of the robot apparatus with which the robot apparatus 1 has encountered, as described above.

【0268】なお、本発明は上述の実施の形態に限定さ
れるものではない。
Note that the present invention is not limited to the above embodiment.

【0269】例えば、複数のロボット装置が、他のロボ
ット装置の存在を認識することでダンス等の対複数台用
の行動を発現するようになされているが、認識した台数
に応じて遷移状態確率を変更することもできる。例え
ば、走るとか、バンザイするといった行動の遷移確率を
上げる。具体的には、遷移確率は、群衆心理等を考慮し
て決定する。
For example, a plurality of robot devices are designed to recognize the presence of another robot device and to perform an action for a plurality of devices such as a dance. Can also be changed. For example, the transition probability of actions such as running or banzai is increased. Specifically, the transition probability is determined in consideration of crowd psychology and the like.

【0270】また、ロボット装置との間で、IDと一緒
に、「ロボット装置の交配」により得られる家系情報を
一緒に送り、家系、兄弟、親子といった情報に基づい
て、行動モデルや遷移確率等を変更することもできる。
これにより、兄弟の場合は、感情パラメータの喜びの値
を上げたり、怒らないように感情パラメータ変更手段を
調整して怒りの感情値をあまり増やさないようにしても
よい。
Also, family information obtained by “crossing of robot devices” is sent together with the ID to the robot device, and the behavior model, transition probability, etc. are determined based on the information such as family, sibling, parent and child. Can also be changed.
Thus, in the case of siblings, the value of the joy of the emotion parameter may be increased, or the emotion parameter changing means may be adjusted so as not to get angry, so that the emotion value of the anger is not increased so much.

【0271】また、ロボット装置1の間の距離情報の一
緒に送って、距離によって影響の度合いを変えることも
できる。
Also, the degree of influence can be changed depending on the distance by transmitting the distance information between the robot devices 1 together.

【0272】また、指向性センサについては、指向性の
ある赤外線等を用い、挨拶をするようにしているが、こ
れに限定されるものではない。例えば、一方のロボット
装置の所定の位置にマークを付しておいて、それを他方
のロボット装置が撮像手段であるカメラで認識した際に
挨拶をするようにすることもできる。
[0272] The directional sensor uses a directional infrared ray or the like to give a greeting, but is not limited to this. For example, a mark may be attached to a predetermined position of one of the robot devices, and a greeting may be given when the other robot device recognizes the mark with a camera serving as an imaging unit.

【0273】[0273]

【発明の効果】本発明に係るロボット装置は、他のロボ
ット装置に所定の向きで対面した際に、所定の処理を開
始する制御手段を備えることで、他のロボット装置と所
定の向きで対面した際に、情報交換行動等の所定の処理
を発現することができる。
The robot apparatus according to the present invention has a control means for starting a predetermined process when facing another robot apparatus in a predetermined direction, so that the robot apparatus can face another robot apparatus in a predetermined direction. At this time, a predetermined process such as an information exchange action can be realized.

【0274】また、本発明に係るロボット装置の制御方
法は、他のロボット装置に所定の向きで対面した際に、
所定の処理を開始することで、ロボット装置に、他のロ
ボット装置と所定の向きで対面した際に、情報交換行動
等の所定の処理を発現させることがきる。
Further, the control method of the robot apparatus according to the present invention is such that when the robot apparatus faces another robot apparatus in a predetermined direction,
By starting the predetermined process, when the robot device confronts another robot device in a predetermined direction, it is possible to express a predetermined process such as an information exchange action.

【0275】また、本発明に係るロボット装置は、他の
ロボット装置から所定の領域内に入ったときに、所定の
処理を開始する制御手段を備えることで、他のロボット
装置から所定の領域内に入ったときに、情報交換行動等
の所定の発現させることができる。
Further, the robot apparatus according to the present invention includes a control means for starting a predetermined process when the robot apparatus enters a predetermined area from another robot apparatus. When entering, a predetermined expression such as an information exchange action can be made.

【0276】また、本発明に係るロボット装置の制御方
法は、他のロボット装置から所定の領域内に入ったとき
に、所定の処理を開始することで、ロボット装置に、他
のロボット装置から所定の領域内に入ったときに、情報
交換行動等の所定の処理を開始させることができる。
[0276] Further, in the control method for a robot device according to the present invention, when a predetermined process is started when the robot device enters a predetermined area from another robot device, the robot device can control the robot device to perform a predetermined process. , A predetermined process such as an information exchange action can be started.

【0277】また、本発明に係るロボット装置は、自己
の周囲にいる他のロボット装置の成長の度合いを検出す
る成長度合い検出手段と、成長度合い検出手段が検出し
た他のロボット装置の成長の度合いに応じて所定の処理
を開始する制御手段とを備えることで、自己の周囲にい
る他のロボット装置の成長の度合いを成長度合い検出手
段により検出し、成長度合い検出手段が検出した他のロ
ボット装置の成長の度合いに応じて制御手段により所定
の処理を開始することができる。
Further, the robot apparatus according to the present invention has a growth degree detecting means for detecting the growth degree of another robot apparatus around itself, and a growth degree of another robot apparatus detected by the growth degree detecting means. Control means for initiating a predetermined process in response to the other robot apparatus detected by the growth degree detecting means by detecting the degree of growth of another robot apparatus around itself. Predetermined processing can be started by the control means according to the degree of growth of.

【0278】これにより、ロボット装置は、自己の周囲
にいる他のロボット装置の成長の度合いに応じて所定の
処理を開始することができる。
Thus, the robot device can start a predetermined process according to the degree of growth of another robot device around itself.

【0279】また、本発明に係るロボット装置の制御方
法は、自己の周囲にいる他のロボット装置の成長の度合
いを検出する成長度合い検出工程と、成長度合い検出工
程にて検出した他のロボット装置の成長の度合いに応じ
て所定の処理を開始する処理工程とを有することで、ロ
ボット装置に、自己の周囲にいる他のロボット装置の成
長の度合いに応じて所定の処理を開始させることができ
る。
[0279] Further, in the control method of the robot apparatus according to the present invention, the growth degree detecting step for detecting the growth degree of the other robot apparatus around itself, and the other robot apparatus detected in the growth degree detecting step. And a processing step of starting a predetermined process in accordance with the degree of growth of the robot device, whereby the robot device can start the predetermined process in accordance with the degree of growth of another robot device around itself. .

【0280】また、本発明に係るロボット装置は、他の
ロボット装置から送信されてくる地図情報を受信する受
信手段と、現在位置を検出する位置検出手段と、位置検
出手段の検出により得た現在位置情報と受信手段が受信
した地図情報とに基づいて行動を制御する制御手段とを
備えることで、他のロボット装置から送信されてくる地
図情報を受信手段により受信して、位置検出手段の検出
により得た現在位置情報と受信手段が受信した地図情報
とに基づいて行動を制御手段により制御することがき
る。
[0280] Further, the robot apparatus according to the present invention comprises: a receiving means for receiving map information transmitted from another robot apparatus; a position detecting means for detecting a current position; By providing control means for controlling the behavior based on the position information and the map information received by the receiving means, the receiving means receives the map information transmitted from another robot device and detects the position detecting means. The action can be controlled by the control means based on the current position information obtained by the above and the map information received by the receiving means.

【0281】これにより、ロボット装置は、他のロボッ
ト装置から取得した地図情報に基づいて、例えば所定の
目的物まで移動することができる。
Thus, the robot device can move to, for example, a predetermined target based on the map information obtained from another robot device.

【0282】また、本発明に係るロボット装置の制御方
法は、他のロボット装置から送信されてくる地図情報を
ロボット装置が受信する受信工程と、現在位置の情報と
受信工程にて受信した地図情報とに基づいて、ロボット
装置が所定の目的物まで移動する移動工程とを有するこ
とで、ロボット装置に、他のロボット装置から取得した
地図情報に基づいて、例えば所定の目的物まで移動させ
ることができる。
[0282] Further, the control method of the robot apparatus according to the present invention includes a receiving step in which the robot apparatus receives map information transmitted from another robot apparatus, a current position information and a map information received in the receiving step. And moving the robot apparatus to a predetermined target based on the map information acquired from another robot apparatus. it can.

【0283】また、本発明に係るロボット装置は、移動
して得られる周囲の状況に基づいて地図情報を作製する
地図情報作製手段と、地図作製手段が作製した地図情報
が記憶される地図情報記憶手段とを備えることで、移動
して得られる周囲の状況に基づいて地図情報を地図情報
作製手段により作製し、地図作製手段が作製した地図情
報が地図情報記憶手段に記憶されることができる。
Further, the robot apparatus according to the present invention has a map information creating means for creating map information based on a surrounding situation obtained by moving, and a map information storage for storing the map information created by the map creating means. With this configuration, the map information can be created by the map information creation unit based on the surrounding situation obtained by moving, and the map information created by the map creation unit can be stored in the map information storage unit.

【0284】これにより、ロボット装置は、地図情報を
作製して、この地図情報を、例えば他のロボット装置に
提供するために保持することができる。
[0284] Thus, the robot device can generate map information and hold the map information to provide it to, for example, another robot device.

【0285】また、本発明に係るロボット装置の制御方
法は、ロボット装置が移動して得られる周囲の状況に基
づいて地図情報を作製する地図情報作成工程と、地図作
製工程にて作製した地図情報を地図情報記憶手段に記憶
する記憶工程とを有することで、ロボット装置に、地図
情報を作製させ、この地図情報を、例えば他のロボット
装置に提供するために保持させることができる。
[0285] Further, the method for controlling a robot apparatus according to the present invention includes a map information creating step for creating map information based on a surrounding situation obtained by moving the robot apparatus, and a map information created in the map creating step. And a storage step of storing the map information in the map information storage means, so that the robot apparatus can generate the map information and hold the map information to provide it to, for example, another robot apparatus.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態のロボット装置の外観を示
す斜視図である。
FIG. 1 is a perspective view illustrating an appearance of a robot device according to an embodiment of the present invention.

【図2】ロボット装置が自律的におてをしている様子を
示す斜視図である。
FIG. 2 is a perspective view showing a state where the robot apparatus is autonomously pushing.

【図3】赤外線を利用した通信手段により情報を交換し
ているロボット装置を示す斜視図である。
FIG. 3 is a perspective view showing a robot device exchanging information by communication means using infrared rays.

【図4】音階を利用した通信手段により情報を交換して
いるロボット装置を示す斜視図である。
FIG. 4 is a perspective view showing a robot device exchanging information by communication means using a musical scale.

【図5】電波を利用した通信手段を備えるロボット装置
を示すブロック図である。
FIG. 5 is a block diagram illustrating a robot apparatus including a communication unit using radio waves.

【図6】電波を利用した通信手段により情報を交換して
いるロボット装置を示すブロック図である。
FIG. 6 is a block diagram showing a robot device exchanging information by communication means using radio waves.

【図7】他のロボット装置と向き合った際にあいさつを
するロボット装置を説明するために使用した図である。
FIG. 7 is a view used to explain a robot apparatus that greets when facing another robot apparatus.

【図8】他のロボット装置と所定の距離内に入ったと
き、所定の処理をするロボット装置を説明するために使
用した図である。
FIG. 8 is a diagram used to describe a robot device that performs a predetermined process when entering a predetermined distance from another robot device.

【図9】部屋の地図情報を作製するロボット装置を説明
するために使用した図である。
FIG. 9 is a diagram used to describe a robot device that creates room map information.

【図10】本発明に係る他の実施の形態のロボット装置
の構成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of a robot device according to another embodiment of the present invention.

【図11】地図情報の整合をとって移動する場合を説明
するために使用した図である。
FIG. 11 is a diagram used to explain a case of moving with matching of map information.

【図12】複数のロボット装置による協調動作を行う場
合を説明するために使用した図である。
FIG. 12 is a diagram used to explain a case where a cooperative operation is performed by a plurality of robot devices.

【図13】複数のロボット装置の行動を管理するロボッ
ト装置内のソフトウェア等の構成を示す図である。
FIG. 13 is a diagram illustrating a configuration of software and the like in a robot device that manages actions of a plurality of robot devices.

【図14】複数のロボット装置の行動を制御するための
ロボット制御スクリプトの具体例を示す図である。
FIG. 14 is a diagram showing a specific example of a robot control script for controlling actions of a plurality of robot devices.

【図15】複数のロボット装置の協調行動による「ウェ
イブ」動作を示す図である。
FIG. 15 is a diagram illustrating a “wave” operation by a cooperative action of a plurality of robot devices.

【図16】ロボット装置の回路構成を示すブロック図で
ある。
FIG. 16 is a block diagram illustrating a circuit configuration of the robot device.

【図17】ロボット装置の信号処理部を示すブロック図
である。
FIG. 17 is a block diagram illustrating a signal processing unit of the robot device.

【図18】赤外線を利用して通信をするためのロボット
装置における構成を示すブロック図である。
FIG. 18 is a block diagram showing a configuration of a robot device for performing communication using infrared rays.

【図19】ロボット装置のソフトウェア層において構成
されているミドルウェア層80及びバーチャルロボット
110を示すブロック図である。
FIG. 19 is a block diagram showing a middleware layer 80 and a virtual robot 110 configured in a software layer of the robot apparatus.

【図20】ロボット装置のソフトウェア層の具体例を示
すブロック図である。
FIG. 20 is a block diagram illustrating a specific example of a software layer of the robot device.

【図21】ロボット装置の感情モデルを示すブロック図
である。
FIG. 21 is a block diagram illustrating an emotion model of the robot device.

【図22】ロボット装置の本能モデルを示すブロック図
である。
FIG. 22 is a block diagram showing an instinct model of the robot device.

【図23】ロボット装置の行動モデルを示すブロック図
である。
FIG. 23 is a block diagram showing a behavior model of the robot device.

【図24】上述の行動モデルのサブシステムを示すブロ
ック図である。
FIG. 24 is a block diagram showing a subsystem of the behavior model described above.

【図25】確率オートマトンを説明するために使用した
図である。
FIG. 25 is a diagram used to explain a stochastic automaton.

【符号の説明】[Explanation of symbols]

1 ロボット装置、5 制御手段、6 送信手段、7
受信手段、8 記憶手段、9 位置検出手段、10 地
図作製手段、21 マイクロホン、23 スピーカ、2
6 通信手段、14 PCカードI/F
1 robot device, 5 control means, 6 transmission means, 7
Receiving means, 8 storage means, 9 position detecting means, 10 map making means, 21 microphones, 23 speakers, 2
6 Communication means, 14 PC card I / F

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) 9A001 Fターム(参考) 2C150 BA06 CA01 CA02 DA05 DA24 DA27 DA28 DF03 DF04 DF33 ED10 ED21 ED37 ED38 ED39 ED52 EF03 EF09 EF11 EF13 EF16 EF29 EF34 EF36 2F029 AB07 AC02 AC14 3F059 AA00 BA00 BB06 CA05 DA05 DB04 DC00 DC01 DC08 FC01 FC08 3F060 AA00 BA10 CA14 HA00 5H301 AA01 AA10 BB14 DD08 DD16 FF08 FF11 9A001 HH05 HH19 KK32 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification code FI Theme coat ゛ (Reference) 9A001 F term (Reference) 2C150 BA06 CA01 CA02 DA05 DA24 DA27 DA28 DF03 DF04 DF33 ED10 ED21 ED37 ED38 ED39 ED52 EF03 EF09 EF11 EF13 EF16 EF29 EF34 EF36 2F029 AB07 AC02 AC14 3F059 AA00 BA00 BB06 CA05 DA05 DB04 DC00 DC01 DC08 FC01 FC08 3F060 AA00 BA10 CA14 HA00 5H301 AA01 AA10 BB14 DD08 DD16 FF08 FF11 9A001 HH05 HH19 KK32

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 自主的に行動を決定する自律型のロボッ
ト装置であって、 他のロボット装置に所定の向きで対面した際に、所定の
処理を開始する制御手段を備えたことを特徴とするロボ
ット装置。
1. An autonomous robot device for autonomously determining an action, comprising control means for starting a predetermined process when facing another robot device in a predetermined direction. Robotic device to do.
【請求項2】 指向性を有する信号を前方方向に出力す
る信号出力部と、 前方方向から送信されてくる他のロボット装置からの信
号を受信する信号受信部とを備え、 上記制御手段は、上記信号受信部により受信された信号
に基づいて所定の処理を開始することを特徴とする請求
項1記載のロボット装置。
2. A signal output unit for outputting a signal having directivity in a forward direction, and a signal receiving unit for receiving a signal from another robot apparatus transmitted from the forward direction, wherein the control unit includes: The robot apparatus according to claim 1, wherein a predetermined process is started based on a signal received by the signal receiving unit.
【請求項3】 上記信号出力部は、赤外線により信号を
出力し、 上記信号受信部は、赤外線による信号を受信することを
特徴とする請求項2記載のロボット装置。
3. The robot apparatus according to claim 2, wherein the signal output section outputs a signal by infrared rays, and the signal receiving section receives a signal by infrared rays.
【請求項4】 上記制御手段は、所定の処理として、あ
いさつの行動の実行をすることを特徴とする請求項1記
載のロボット装置。
4. The robot apparatus according to claim 1, wherein the control means executes a greeting action as the predetermined processing.
【請求項5】 自主的に行動を決定する自律型のロボッ
ト装置の制御をするロボット装置の制御方法であって、 他のロボット装置に所定の向きで対面した際に、所定の
処理を開始することを特徴とするロボット装置の制御方
法。
5. A method of controlling a robot apparatus for controlling an autonomous robot apparatus that independently determines an action, wherein a predetermined process is started when the robot apparatus faces another robot apparatus in a predetermined direction. A method for controlling a robot device, comprising:
【請求項6】 自主的に行動を決定する自律型のロボッ
ト装置であって、 他のロボット装置から所定の領域内に入ったときに、所
定の処理を開始する制御手段を備えたことを特徴とする
ロボット装置。
6. An autonomous robot device for autonomously determining an action, comprising control means for starting a predetermined process when entering a predetermined area from another robot device. Robot device.
【請求項7】 上記制御手段は、上記他のロボット装置
からの距離に応じた処理を開始することを特徴とする請
求項6記載のロボット装置。
7. The robot apparatus according to claim 6, wherein said control means starts processing according to a distance from said another robot apparatus.
【請求項8】 上記制御手段は、上記所定の領域内にあ
る上記他のロボット装置の数に応じた処理を開始するこ
とを特徴とする請求項6記載のロボット装置。
8. The robot apparatus according to claim 6, wherein said control means starts processing according to the number of said other robot apparatuses in said predetermined area.
【請求項9】 所定の領域内において受信可能な出力レ
ベルの信号を出力する信号出力部と、 上記他のロボット装置からの信号を受信する信号受信部
とを備え、 上記制御手段は、上記信号受信部により受信された信号
に基づいて所定の処理を開始することを特徴とする請求
項6記載のロボット装置。
9. A signal output unit for outputting a signal of an output level receivable in a predetermined area, and a signal receiving unit for receiving a signal from the other robot device, wherein the control unit is configured to control the signal 7. The robot apparatus according to claim 6, wherein a predetermined process is started based on a signal received by the receiving unit.
【請求項10】 自主的に行動を決定する自律型のロボ
ット装置の制御をするロボット装置の制御方法であっ
て、 他のロボット装置から所定の領域内に入ったときに、所
定の処理を開始することを特徴とするロボット装置の制
御方法。
10. A control method of a robot apparatus for controlling an autonomous robot apparatus which independently determines an action, wherein a predetermined process is started when entering a predetermined area from another robot apparatus. A method for controlling a robot device, comprising:
【請求項11】 自主的に行動を決定する自律型のロボ
ット装置であって、 自己の周囲にいる他のロボット装置の成長の度合いを検
出する成長度合い検出手段と、 上記成長度合い検出手段が検出した上記他のロボット装
置の成長の度合いに応じて所定の処理を開始する制御手
段とを備えたことを特徴とするロボット装置。
11. An autonomous robot apparatus for independently determining an action, wherein the growth degree detecting means for detecting a growth degree of another robot apparatus around the self, and the growth degree detecting means detecting the growth degree. And a control means for starting a predetermined process in accordance with the degree of growth of the other robot device.
【請求項12】 上記制御手段は、上記所定の処理とし
て、上記他のロボット装置の成長の度合いに応じて自己
の成長の度合いを変化させることを特徴とする請求項1
1記載のロボット装置。
12. The method according to claim 1, wherein the control unit changes the degree of growth of the other robot apparatus according to the degree of growth of the other robot apparatus as the predetermined processing.
The robot device according to 1.
【請求項13】 上記成長度合い検出手段が検出した上
記他のロボット装置の成長の度合いと自己の成長の度合
いとを比較する比較手段を備え、 上記制御手段は、上記比較手段による比較結果が自己の
成長の度合いの方が低い場合には、上記所定の処理とし
て、上記他のロボット装置に従う行動を実行し、上記比
較手段による比較結果が自己の成長の度合いの方が高い
場合には、上記所定の処理として、上記他のロボット装
置に従わない行動を実行することを特徴とする請求項1
1記載のロボット装置。
13. A comparison means for comparing the degree of growth of the other robot apparatus detected by the degree of growth detection means with the degree of growth of the robot apparatus, wherein the control means determines that the comparison result by the comparison means is If the degree of growth is lower, the action according to the other robot device is executed as the predetermined processing, and if the result of comparison by the comparing means indicates that the degree of self growth is higher, 2. The method according to claim 1, wherein the predetermined processing includes performing an action that does not follow the other robot device.
The robot device according to 1.
【請求項14】 自主的に行動を決定する自律型のロボ
ット装置の制御をするロボット装置の制御方法であっ
て、 自己の周囲にいる他のロボット装置の成長の度合いを検
出する成長度合い検出工程と、 上記成長度合い検出工程にて検出した上記他のロボット
装置の成長の度合いに応じて所定の処理を開始する処理
工程とを有したことを特徴とするロボット装置の制御方
法。
14. A control method for a robot apparatus for controlling an autonomous robot apparatus which independently determines an action, comprising: a growth degree detecting step for detecting a growth degree of another robot apparatus around the robot apparatus. And a processing step of starting a predetermined process in accordance with the degree of growth of the other robot apparatus detected in the growth degree detecting step.
【請求項15】 自主的に行動を決定する自律型のロボ
ット装置であって、 他のロボット装置から送信されてくる地図情報を受信す
る受信手段と、 現在位置を検出する位置検出手段と、 上記位置検出手段の検出により得た現在位置情報と上記
受信手段が受信した上記地図情報とに基づいて行動を制
御する制御手段とを備えたことを特徴とするロボット装
置。
15. An autonomous robot device for autonomously determining an action, a receiving device for receiving map information transmitted from another robot device, a position detecting device for detecting a current position, A robot device comprising: control means for controlling an action based on current position information obtained by detection of a position detection means and the map information received by the reception means.
【請求項16】 自主的に行動を決定する自律型のロボ
ット装置の制御をするロボット装置の制御方法であっ
て、 他のロボット装置から送信されてくる地図情報をロボッ
ト装置が受信する受信工程と、 現在位置の情報と上記受信工程にて受信した上記地図情
報とに基づいてロボット装置の行動を制御する制御工程
とを有することを特徴とするロボット装置の制御方法。
16. A method for controlling a robot apparatus for controlling an autonomous robot apparatus for autonomously determining an action, comprising: a receiving step in which the robot apparatus receives map information transmitted from another robot apparatus. A control step of controlling an action of the robot apparatus based on information on a current position and the map information received in the receiving step.
【請求項17】 自主的に行動を決定する自律型のロボ
ット装置であって、 移動して得られる周囲の状況に基づいて地図情報を作製
する地図情報作製手段と、 上記地図作製手段が作製した地図情報が記憶される地図
情報記憶手段とを備えたことを特徴とするロボット装
置。
17. An autonomous robot apparatus for autonomously determining an action, wherein the map information creating means creates map information based on a surrounding situation obtained by moving, and the map creating means creates the map information. A robot apparatus comprising: map information storage means for storing map information.
【請求項18】 上記地図情報記憶手段に記憶されてい
る地図情報を、他のロボット装置に送信する送信手段を
備えたことを特徴とする請求項17記載のロボット装
置。
18. The robot device according to claim 17, further comprising a transmission unit that transmits the map information stored in the map information storage unit to another robot device.
【請求項19】 自主的に行動を決定する自律型のロボ
ット装置の制御をするロボット装置の制御方法であっ
て、 ロボット装置が移動して得られる周囲の状況に基づいて
地図情報を作製する地図情報作成工程と、 上記地図作製工程にて作製した地図情報を地図情報記憶
手段に記憶する記憶工程とを有することを特徴とするロ
ボット装置の制御方法。
19. A method for controlling a robot apparatus for controlling an autonomous robot apparatus for independently determining an action, the map generating map information based on a surrounding situation obtained by moving the robot apparatus. A method for controlling a robot apparatus, comprising: an information creation step; and a storage step of storing map information created in the map creation step in a map information storage unit.
JP2000027415A 2000-01-31 2000-01-31 Robot device and control method for robot device Withdrawn JP2001212782A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000027415A JP2001212782A (en) 2000-01-31 2000-01-31 Robot device and control method for robot device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000027415A JP2001212782A (en) 2000-01-31 2000-01-31 Robot device and control method for robot device

Publications (1)

Publication Number Publication Date
JP2001212782A true JP2001212782A (en) 2001-08-07

Family

ID=18552987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000027415A Withdrawn JP2001212782A (en) 2000-01-31 2000-01-31 Robot device and control method for robot device

Country Status (1)

Country Link
JP (1) JP2001212782A (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002178283A (en) * 2000-12-12 2002-06-25 Honda Motor Co Ltd Autonomous robot
WO2003039818A3 (en) * 2001-11-07 2004-07-29 Sony Corp Robot system and robot apparatus control method
JP2004280404A (en) * 2003-03-14 2004-10-07 Toshiba Corp Robot system and robot
JP2004345053A (en) * 2003-05-23 2004-12-09 Sony Corp Information collecting system and robot device
JP2005074594A (en) * 2003-09-02 2005-03-24 Sony Corp Robot control device and method, recording medium, and program
JP2005279828A (en) * 2004-03-29 2005-10-13 Victor Co Of Japan Ltd Information sharable robot
JP2006094310A (en) * 2004-09-27 2006-04-06 Sony Corp Information processing apparatus, method, and program
JP2007320033A (en) * 2007-08-29 2007-12-13 Advanced Telecommunication Research Institute International Communication robot
US7363108B2 (en) 2003-02-05 2008-04-22 Sony Corporation Robot and control method for controlling robot expressions
US7421313B2 (en) 2003-02-19 2008-09-02 Sony Corporation Robot apparatus and control method thereof
JP2012196381A (en) * 2011-03-23 2012-10-18 Nec Corp Robot control system and robot control method
JP2015093188A (en) * 2013-11-08 2015-05-18 三星電子株式会社Samsung Electronics Co.,Ltd. Walking assist robot and control method for walking assist robot
JP2015526128A (en) * 2012-06-22 2015-09-10 ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC Distributed wireless toy based skill exchange, system and method
JP2017056504A (en) * 2015-09-15 2017-03-23 株式会社日本自動車部品総合研究所 Emotional motion control device and emotional motion control method for moving body
JP2017508634A (en) * 2014-03-10 2017-03-30 ディアメド ゲーエムベーハーDiaMed GmbH Method for initializing and controlling a robotic device
JP2017142659A (en) * 2016-02-10 2017-08-17 村田機械株式会社 Autonomous moving body system
WO2018207908A1 (en) * 2017-05-11 2018-11-15 Groove X株式会社 Autonomous behavior-type robot, accessory, and robot control program
WO2019171491A1 (en) * 2018-03-07 2019-09-12 日本電気株式会社 Mobile body control device, mobile body, mobile body control system, mobile body control method, and recording medium
WO2019202778A1 (en) * 2018-04-20 2019-10-24 本田技研工業株式会社 Robot guidance system
JP2020000279A (en) * 2018-06-25 2020-01-09 Groove X株式会社 Autonomously acting type robot assuming virtual character
WO2020080241A1 (en) * 2018-10-16 2020-04-23 ソニー株式会社 Information processing device, information processing method, and information processing program
WO2020241273A1 (en) * 2019-05-31 2020-12-03 住友電気工業株式会社 Vehicular communication system, onboard device, control method, and computer program

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002178283A (en) * 2000-12-12 2002-06-25 Honda Motor Co Ltd Autonomous robot
KR101008085B1 (en) * 2001-11-07 2011-01-13 소니 주식회사 Robot system, robot device and control method thereof
WO2003039818A3 (en) * 2001-11-07 2004-07-29 Sony Corp Robot system and robot apparatus control method
US7139642B2 (en) 2001-11-07 2006-11-21 Sony Corporation Robot system and robot apparatus control method
US7363108B2 (en) 2003-02-05 2008-04-22 Sony Corporation Robot and control method for controlling robot expressions
US7421313B2 (en) 2003-02-19 2008-09-02 Sony Corporation Robot apparatus and control method thereof
JP2004280404A (en) * 2003-03-14 2004-10-07 Toshiba Corp Robot system and robot
JP2004345053A (en) * 2003-05-23 2004-12-09 Sony Corp Information collecting system and robot device
JP2005074594A (en) * 2003-09-02 2005-03-24 Sony Corp Robot control device and method, recording medium, and program
JP2005279828A (en) * 2004-03-29 2005-10-13 Victor Co Of Japan Ltd Information sharable robot
JP2006094310A (en) * 2004-09-27 2006-04-06 Sony Corp Information processing apparatus, method, and program
JP2007320033A (en) * 2007-08-29 2007-12-13 Advanced Telecommunication Research Institute International Communication robot
JP2012196381A (en) * 2011-03-23 2012-10-18 Nec Corp Robot control system and robot control method
JP2015526128A (en) * 2012-06-22 2015-09-10 ナント ホールディングス アイピー エルエルシーNant Holdings IP, LLC Distributed wireless toy based skill exchange, system and method
JP2015093188A (en) * 2013-11-08 2015-05-18 三星電子株式会社Samsung Electronics Co.,Ltd. Walking assist robot and control method for walking assist robot
JP2017508634A (en) * 2014-03-10 2017-03-30 ディアメド ゲーエムベーハーDiaMed GmbH Method for initializing and controlling a robotic device
US10654167B2 (en) 2014-03-10 2020-05-19 Diamed Gmbh Method for initializing and controlling robotized equipment
JP2017056504A (en) * 2015-09-15 2017-03-23 株式会社日本自動車部品総合研究所 Emotional motion control device and emotional motion control method for moving body
JP2017142659A (en) * 2016-02-10 2017-08-17 村田機械株式会社 Autonomous moving body system
WO2018207908A1 (en) * 2017-05-11 2018-11-15 Groove X株式会社 Autonomous behavior-type robot, accessory, and robot control program
JPWO2018207908A1 (en) * 2017-05-11 2019-11-07 Groove X株式会社 Robot, jewelry and robot control program
JP7014289B2 (en) 2018-03-07 2022-02-01 日本電気株式会社 Mobile control device, mobile, mobile control system, mobile control method and mobile control program
WO2019171491A1 (en) * 2018-03-07 2019-09-12 日本電気株式会社 Mobile body control device, mobile body, mobile body control system, mobile body control method, and recording medium
JPWO2019171491A1 (en) * 2018-03-07 2021-02-04 日本電気株式会社 Mobile control device, mobile, mobile control system, mobile control method and mobile control program
US20210026371A1 (en) * 2018-04-20 2021-01-28 Honda Motor Co., Ltd. Robot guidance system
CN112020685A (en) * 2018-04-20 2020-12-01 本田技研工业株式会社 Robot guidance system
JPWO2019202778A1 (en) * 2018-04-20 2021-01-14 本田技研工業株式会社 Robot guidance system
WO2019202778A1 (en) * 2018-04-20 2019-10-24 本田技研工業株式会社 Robot guidance system
US11669107B2 (en) 2018-04-20 2023-06-06 Honda Motor Co., Ltd. Robot guidance system
JP2020000279A (en) * 2018-06-25 2020-01-09 Groove X株式会社 Autonomously acting type robot assuming virtual character
JP7298860B2 (en) 2018-06-25 2023-06-27 Groove X株式会社 Autonomous action type robot assuming a virtual character
US20210387355A1 (en) * 2018-10-16 2021-12-16 Sony Corporation Information processing device, information processing method, and information processing program
CN112789569A (en) * 2018-10-16 2021-05-11 索尼公司 Information processing device, information processing method, and information processing program
WO2020080241A1 (en) * 2018-10-16 2020-04-23 ソニー株式会社 Information processing device, information processing method, and information processing program
US12168292B2 (en) * 2018-10-16 2024-12-17 Sony Corporation Information processing device and information processing method
WO2020241273A1 (en) * 2019-05-31 2020-12-03 住友電気工業株式会社 Vehicular communication system, onboard device, control method, and computer program

Similar Documents

Publication Publication Date Title
JP2001212782A (en) Robot device and control method for robot device
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
JP7400923B2 (en) Information processing device and information processing method
JP4985805B2 (en) Robot apparatus and operation control method
CN100423911C (en) Robotic device and its behavior control method
US7076331B1 (en) Robot, method of robot control, and program recording medium
JP7260221B2 (en) Robot interaction method and device
WO2000066239A1 (en) Electronic pet system, network system, robot, and storage medium
JP4296736B2 (en) Robot device
JP2004298975A (en) Robot device and obstacle searching method
US20030078695A1 (en) Robot apparatus and robot apparatus motion control method
JP7156300B2 (en) Information processing device, information processing method, and program
JP2004130427A (en) Robot device and method for controling operation of robot device
JP2001191279A (en) Behavior control system, behavior controlling method, and robot device
JP4556425B2 (en) Content reproduction system, content reproduction method, and content reproduction apparatus
TWI412393B (en) Robot
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
JP2001157979A (en) Robot device, and control method thereof
JP2001191274A (en) Data holding device, robot device, modification device and modification method
Aylett Games robots play: once more, with feeling
JP2001157981A (en) Robot device and control method thereof
JP2007125629A (en) Robot device and motion control method
JP3501123B2 (en) Robot apparatus and behavior control method for robot apparatus
WO2025041588A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070403