[go: up one dir, main page]

WO2000068879A1 - Robot device, its control method, and recorded medium - Google Patents

Robot device, its control method, and recorded medium Download PDF

Info

Publication number
WO2000068879A1
WO2000068879A1 PCT/JP2000/002990 JP0002990W WO0068879A1 WO 2000068879 A1 WO2000068879 A1 WO 2000068879A1 JP 0002990 W JP0002990 W JP 0002990W WO 0068879 A1 WO0068879 A1 WO 0068879A1
Authority
WO
WIPO (PCT)
Prior art keywords
emotion
light emitting
robot device
emitting means
external
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2000/002990
Other languages
English (en)
French (fr)
Inventor
Makoto Inoue
Takeshi Yamagishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP00925597A priority Critical patent/EP1120740B1/en
Priority to KR1020017000415A priority patent/KR20010071833A/ko
Priority to DE60036599T priority patent/DE60036599T2/de
Publication of WO2000068879A1 publication Critical patent/WO2000068879A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • A63H3/38Dolls' eyes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H29/00Drive mechanisms for toys in general
    • A63H29/24Details or accessories for drive mechanisms, e.g. means for winding-up or starting toy engines
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/006Dolls provided with electrical lighting
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/36Details; Accessories
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/005Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators using batteries, e.g. as a back-up power source
    • H02J7/731
    • H02J7/82
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Definitions

  • the present invention relates to a robot device, a control method thereof, and a recording medium, and is suitably applied to, for example, a pet robot.
  • the present invention has been made in view of the above points, and an object of the present invention is to propose a robot apparatus, a control method thereof, and a recording medium capable of further improving the entertainment.
  • the robot device based on the output of the external sensor, an external sensor that detects an external situation and / or an external input, and a light emitting unit that functions as an external eye.
  • Lighting means to express emotions By providing the control means for blinking, the user can easily recognize the emotion of the robot device based on the light emitting state of the light emitting means. In this way, communication with the user can be performed smoothly, and thus a robot device that can further improve the entertainment can be realized.
  • a method for controlling an external device based on an output of the external sensor is provided.
  • a first step of recognizing the situation and / or an external input, and a second step of blinking the light emitting means to express an emotion based on the recognition result the user The user can easily recognize the emotion of the robot device based on the light emitting state of the light emitting means of the robot device.
  • communication between the user and the robot device can be facilitated, and a control method of the robot device that can further improve the entertainment property can be realized.
  • a recording medium in which a control program of a robot device having a light emitting means functioning as an external appearance and an external sensor for detecting an external situation and / or an external input is recorded
  • Control programs are now recorded.
  • the control program recorded on the recording medium the user can easily recognize the emotion of the mouth-bot device based on the light-emitting state of the light-emitting means of the robot device.
  • FIG. 1 is a perspective view showing the configuration of the robot according to the present embodiment.
  • FIG. 2 is a block diagram showing the configuration of the pet robot.
  • FIG. 3 is a perspective view showing the configuration of the LED.
  • FIG. 4 is a perspective view showing the configuration of the LED.
  • FIG. 5 is a block diagram for explaining the processing of the controller.
  • FIG. 6 is a schematic diagram for explaining each emotion.
  • FIG. 7 is a conceptual diagram for explaining a probability-to-maton.
  • FIG. 8 is a conceptual diagram showing a state transition table.
  • FIG. 9 is a schematic diagram used for describing another embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
  • reference numeral 1 denotes a pet robot according to the present embodiment as a whole, and leg units 3A to 3D are connected to the front and rear and left and right of a lunar unit 2, respectively.
  • the head unit 4 and the tail unit 5 are connected to the front end and the rear end of the unit 2, respectively.
  • the body unit 2 includes a controller 10 for controlling the operation of the entire pet robot 1, a battery 11 as a power source of the pet robot 1, and a battery.
  • An internal sensor section 14 including a sensor 12 and a temperature sensor 13 is housed.
  • the head unit 4 also includes a CCD (Charge Coupled Device) camera 15 that functions as the substantial “eyes” of the pet robot 1, a microphone 16 and a touch sensor 17 that function as the “ears”.
  • the external sensor section 18 is composed of an LED (Light Emitting Diode) 19 that functions as an external “eye”, and the speaker 20 that functions as an “outlet”. It is arranged in.
  • the joints of each leg unit 3A to 3D, the connecting portions of each leg unit 3A to 3D and the torso unit 2, the head unit 4 and the torso unit 2 connecting portion, and the like in the base portion of the tail 5 a (FIG.
  • the CCD camera 15 of 4 captures an image of the surroundings and sends the obtained image signal S 1 A to the controller 10.
  • the microphone 16 collects command sounds such as “walk”, “down” or “chase the ball” given by the user via a sound commander (not shown) as a musical scale, and obtains an audio signal S 1. Send B to controller 10.
  • the touch sensor 17 is provided at the upper part of the head unit 4 as is apparent in FIG. 1, and detects the pressure received by a physical action such as “stroke” or “hit” from the user. The detection result is sent to the controller 10 as a pressure detection signal S 1 C.
  • the battery sensor 12 detects the remaining amount of the battery 11, and sends the detection result to the controller 10 as a battery remaining amount detection signal S 2 A
  • the temperature sensor 13 detects the remaining amount of the battery. 1 Detects the internal temperature and sends the detection result to controller 10 as temperature detection signal S 2 B.
  • the controller 10 includes an image signal S 1 A, an audio signal S 1 B, and a pressure detection signal S 1 C (hereinafter, referred to as these signals) supplied from the CCD camera 15, the microphone 16, and the touch sensor 17 of the external sensor section 18.
  • an external sensor signal S 1 is collectively referred to as an external sensor signal S 1
  • a remaining battery level detection signal S 2 A and a temperature detection signal S 2 B are collectively referred to provided by the battery sensor and the heat sensor of the internal sensor section 14, respectively.
  • the internal sensor signal S2 Based on the internal sensor signal S2) and the like, the situation around and inside the pet robot 1, the command from the user, and the presence or absence of the user's action are determined.
  • the controller 10 determines a subsequent action based on the determination result and a control program stored in the memory 10A in advance, and based on the determination result, By driving the Akuchiyueta 2 1 ⁇ 2 1 n, or to shake the head Yunitto 4 vertically and horizontally, or be moved tail tail portion unit 5 drives the legs unit 3 A ⁇ 3 D Have the user perform an action such as walking.
  • the controller 10 outputs a sound based on the sound signal S3 to the outside by giving a predetermined sound signal S3 to the speaker 20 as necessary, or an LED as an external "eye". This is blinked by outputting the LED drive signal S 4 to 19.
  • the petrobot 1 is capable of acting autonomously based on the surrounding and internal conditions, the presence or absence of a command from a user, and the presence or absence of an action.
  • L ED 1 9 includes a respective pair of red L ED 1 9 Rj emitting red light, 1 9 R 2, green L ED 1 one pair each for emitting green light 9 G,, and 19 G 2 .
  • each red LED 19 R,, 19 R 2 has a light emitting part having a linear shape of a predetermined length.
  • the head unit 4 is disposed substantially in the middle of the head unit 4 in the longitudinal direction so as to have a positional relationship of the stenosis.
  • each green LED 1 9 G X, 1 9 G 2 are each light emitting portion has a bow shape of a predetermined length, red L ED 1 9 R respectively corresponding in the head Yunitto 4! , Just before the position of 1 9 R 2, are disposed in a state with its arched inner forward (arrow a).
  • this pet Torobo' sheet 1 is by turning on these green L ED 1 9 Gj, 1 9 G 2 together, rather each if they though laughing, to be able to express the expression of "joy" It has been done.
  • a CCD camera 15 functioning as a virtual “eye” is disposed at the tip of the head unit 4 with its optical axis parallel to the arrow a.
  • the camera 15 can reliably capture an image of the situation in front of the head unit 4.
  • the controller 10 executes various processes as described above according to the control program stored in the memory 10A.
  • a state recognition unit 30 for recognizing external and internal states, and emotion and instinct based on the recognition result of the state recognition unit 30 are obtained.
  • Emotions for determining the stateInstinct model unit 311, the recognition result of state recognition unit 30 and the emotionsAction determining unit 32 for determining the subsequent action based on the output of instinct model unit 31, and action determining unit 3 It can be divided into an action generation unit 33 that generates (expresses) an action according to the result of the determination in the robot.
  • the state recognition unit 30 determines a specific state based on the external information signal S 1 provided from the external sensor unit 18 (FIG. 2) and the internal information signal S 2 provided from the internal sensor unit 14 (FIG. 2). Recognize and notify the recognition result as state recognition information S10 to the emotion / instinct model unit 31 and the action determination unit 32.
  • the state recognition unit 30 constantly monitors the image signal S 1 A (FIG. 2) provided from the CCD camera 15 (FIG. 2) of the external sensor unit 18, and obtains an image based on the image signal SIA. For example, when a "red round object” or “vertical plane” is detected, it recognizes that “there is a ball” or “there is a wall”, and recognizes the recognition result as an emotional instinct model section 31 and behavior Notify decision part 32.
  • the state recognition unit 30 constantly monitors the audio signal S 1 B (FIG. 2) given from the microphone 16 (FIG. 2), and based on the audio signal S 1 B, “walk”, “prone”, “ball” When a command sound such as "chase after” is input, the recognition result is notified to the emotion / instinct model unit 31 and the action determination unit 32.
  • the state recognizing unit 30 constantly monitors the pressure detection signal S 1 C (FIG. 2) provided from the touch sensor 17 (FIG. 2), and based on the pressure detection signal S 1 C, determines whether or not the pressure is equal to or more than a predetermined threshold. When pressure is detected for a period of time (for example, less than 2 seconds), it is recognized as “hit” (scolded). (Praised) ", and notifies the recognition result to the emotion-instinct model unit 31 and the action determination unit 32.
  • a period of time for example, less than 2 seconds
  • the state recognition unit 30 constantly monitors the temperature detection signal S 2 B (FIG. 2) given from the temperature sensor 13 (FIG. 2) of the internal sensor unit 14 (FIG. 2), and When a temperature equal to or higher than a predetermined value is detected on the basis of the above, it is recognized that “the internal temperature has risen”, and the recognition result is notified to the emotion / instinct model unit 31 and the action determination unit 32.
  • Emotions ⁇ Instinct Model Department 3 1 measures the strength of each emotion for a total of six emotions: joy, sadness, surprise, fear, disgust, and anger. Holds the parameters to be represented. And the instinct model section 3 1 The meter values are given as specific state recognition information S10 from the state recognition unit 30 as specific recognition results such as "hit” and "stroke", and from the action determination unit 32 as described later. It is sequentially updated based on the action decision information S12 indicating the given output action and the elapsed time.
  • the emotion ⁇ instinct model unit 31 determines the degree to which the recognition result obtained based on the state recognition information S 10 and the output action based on the action determination information S 12 act on the emotion (preset). ), The amount of change of the emotion calculated by a predetermined arithmetic expression based on the degree of suppression and stimulation received from other emotions, the elapsed time, and the like, ⁇ E [t], the current parameter of the emotion a value E [t], a factor representing the ratio to change its information movement in accordance with the recognition result such as k e, the following expression in a predetermined cycle
  • the instinct model unit 31 updates the parameter value of the emotion by replacing the calculation result with the current parameter value E [t] of the emotion. It should be noted that which emotion parameter value is updated for each recognition result and each output action is determined in advance. For example, when a recognition result such as “hit” is given, an “anger” emotion is given.
  • the parameter value of the emotion of "joy” decreases as the parameter value of "" increases, and when a recognition result such as "stroke” is given, the parameter value of the emotion of "joy” increases and the emotion of "sadness” Parameter value decreases.
  • FIG. 6 shows a more specific description of each emotion and an example of specific factors that change these emotions.
  • the emotional and instinct model section 31 determines the strength of the desire for each of the four independent needs of “exercise desire”, “affection desire”, “appetite” and “curiosity”. It holds a parameter indicating the value.
  • the emotion and instinct model unit 31 converts the parameter values of these desires into recognition results from the state recognition unit 30 and It is updated sequentially based on the overtime and the notification from the action determination unit 32, and the like.
  • the emotion and instinct model unit 31 calculates a predetermined arithmetic expression for “motor desire”, “love desire” and “curiosity” based on the output behavior of the pet robot 1, elapsed time, recognition result, and the like.
  • the variation of the desire calculated by ⁇ I [k], the parameter value of the desire in subtraction I [k], and the coefficient representing the sensitivity of the desire
  • I [k + 1) I [k] + k, ⁇ I [k] (2) is used to calculate the parameter value I [k + l] of the desire in the next cycle, and this calculation result is The parameter value of the desire is updated by replacing the parameter value of the desire with I [k]. It is to be noted that the parameter values of the desires to be changed with respect to the output behavior, the recognition result, and the like are predetermined. The value drops.
  • the emotion and instinct model section 31 sets the remaining battery power to B L based on the remaining battery power detection signal S 2 A (FIG. 2) given via the state recognition module 30 for “appetite”. And the following equation
  • the parameter value of the “appetite” is updated.
  • each emotion and parameter values for each desire each vary in the range from 0 to 1 00, also the coefficient k e, k, values are also each emotion and each desire Each is set individually. (2-3) Configuration of action decision part 3 2
  • the action determination unit 32 stores the state recognition information S 10 given from the state recognition unit 30, the parameter values of each emotion and each desire in the emotion / instinct model unit 31, and is stored in the memory 10 A in advance. The next action is determined on the basis of the action model and the passage of time, and the result is output to the emotion / instinct model section 31 and the action generation section 33 as action determination information S12.
  • the action determination unit 32 uses one node (state) NODE as shown in Fig. 7 as a method to determine the next action. From the same or any other node from NODE. ⁇ NODE n nodes or transitions to NODE. Arc ARC connecting ⁇ NODE facileTransition probabilities P set respectively for ⁇ ARC n . An algorithm called a probabilistic automaton that is determined stochastically based on ⁇ P n is used.
  • each node NODE is stored in memory 10A as an action model.
  • a state transition table 40 as shown in FIG. 8 is stored for each of NODE n to NODE n , and the action determination unit 32 determines the next action based on the state transition table 40.
  • the node N ⁇ DE.
  • Input events recognition results of the state recognition unit 30
  • transition conditions in NODE n are listed in order of priority in the "input event” row, and further conditions for the conditions are described in "data name” and “data range”. Is described in the corresponding column in the row.
  • the node NOD E 10 defined in the state transition table 40 of FIG. when the recognition result of “Pole detected (BAL L)” is given, the “SIZE” of the ball given along with the recognition result “Range of 0 to 1 000 ( ⁇ , 1 000) "or” OB STACLE (J) ". If the recognition result is given, the" distance (DI STANCE) to the obstacle given together with the recognition result "is given. The force must be within the range of 0 to 1 000 (0, 1 000), which is the condition for transitioning to the self or another node.
  • the node NOD E is displayed in the column of “transition destination node” in the column of “transition probability to another node”.
  • ⁇ NODE The node NODE in which all the conditions described in each line of "input event name”, "data value” and “data range” are listed, along with the node names that can transition from NODE n .
  • the node NOD E. in the column of transition probabilities to ⁇ NOD E n is "probability of transition to another node" Written in the row of ⁇ NODE n, this time action or motion is output is described in the row of "output behavior".
  • the sum of the transition probabilities of each row in the column “Transition probabilities to other nodes” is 100 [%].
  • node NOD E 10 in this example In, for example, a ball was detected (BALL), and the recognition result was given that the ball's "SIZE” was within the range of 0 to 1000 (0, 100). In this case, it is possible to transit to “node NODE 12 (node 1 20)” with a probability of “30 [%]”, and at that time, the action or action of “ACT I ON 1” will be output.
  • the behavior model is a node NO DE described as such a state transition table 40.
  • ⁇ NODE n force ⁇ it is configured so that the shoes also ⁇ .
  • the behavior determining unit 32 stores the state recognition information S10 from the state recognition unit 30, or when a certain period of time has elapsed since the last appearance of the behavior, for example, in the memory 10A.
  • Action generator 3 3 processing The action generation unit 33 needs the necessary actuator 21 based on the action determination information S12 given from the action determination unit. ⁇ In 2 1 n (FIG. 2) or transmits a driving signal S 1 3 i ⁇ S 1 3 n , or sends the audio signal S 3 required speaker 20 (FIG. 2), LED drive the LE D 1 9 Send out signal S4.
  • behavior generation unit 3 3 or drives the required Akuchiyueta 2 to 2 l n in a predetermined state based on the driving signal S 1 3 to S 1 3 n, a speaker 20 a voice that is based on the audio signal 3
  • the LED 19 flashes with a flashing pattern based on the drive signal 33.
  • the action determination unit 32 which is one of the functions of the controller 10, determines the subsequent action or action based on the corresponding state transition table 40 (FIG. 8). I do.
  • each output action (for example, “ACTON 2 J” in FIG. 8) associated with the recognition result of “patched (PAT)” in the state transition table 40 includes each green LED 1 of the LED 19.
  • the action of flashing 9 G,, 19 G 2 is associated with it.
  • the behavior determination unit 32 stochastically uses the corresponding state transition table 40 to perform the next behavior or operation as described above. And outputs the determined action or action to the action generation section 33 as action decision information S 12, and reads the value of the parameter of ⁇ joy '' in the emotional instinct model section 31 along with this.
  • the action generation unit 33 is notified.
  • each green LED 19 G,, 19 G 2 is made to blink according to the value of the parameter of “joy”, so that the larger the value, the faster the blinking cycle.
  • This allows Petrobot 1 to express the emotion of "joy” as a facial expression, as if it were smiling.
  • each output action (eg, “ACTON 3” in FIG. 8) associated with the recognition result of “hit” (HIT) in the state transition table has the LED 19 When each red LED 19 R, to 19 R 2 is blinked, the ray action is associated.
  • the behavior determination unit 32 stochastically determines the next behavior or operation using the corresponding state transition table 40.
  • the action is determined and output to the action generation section 33 as action decision information S12, and at the same time, the value of the parameter of "anger” in the emotion 'instinct model section 31' is read out, and the action is generated. Part 3 has been informed to 3.
  • the behavior generation unit 3 3 Thus, based on the action determination information S 1 2 given from the action determining unit 3 2, more to drive the Akuchiyue Ichita 2 1 ⁇ 2 1 n required, designated In addition, while performing the action indicating “anger”, each red L is set so that the larger the value is, the faster the blinking cycle is, depending on the value of the “anger” parameter along with or instead of this. Flashes ED 19 Ri and 19 R 2 Thus, Petrobot 1 can express the emotion of “anger” as a facial expression as if it were smiling.
  • the action determining unit 32 is associated with a specific recognition result that should express a predetermined “surprise” such as “loud sound input (S OUND)” in the state transition table 40.
  • Each output action (for example, “ACTON 4” in FIG. 8) includes an action in which each red LED 19 Rj, 19 R 2 and each green LED 1, 19 G 2 of the LED are alternately blinked. Associated.
  • the action determination unit 32 probabilistically calculates the next using the corresponding state transition table 40. The action and the action of the user are determined, and the determination result is notified to the action generation unit 33.
  • the action generation section 33 needs the necessary actuator 21 based on the action determination information S12 provided from the action determination section 32! ⁇ 2 1 n more to drive a while to perform the action pet Torobo' sheet 1 that represents the given "surprise”, the red LED with this 1 9 R i, 1 9 R 2 and each green LED 1 9 , 19 G 2 blink alternately.
  • Petrobot 1 can express the emotion of “surprise” as an expression by repeating the expression as if smiling and the expression as angry alternately.
  • the red LED 1 9 R j, 1 9 R 2 and also are such as to be expressed as the expression by the flashing of the green LED 1 9, 1 9 G 2 .
  • pet Torobo' sheet 1 for example, by large the sound is generated each red LED 1 9 at ambient, 1 9 R 2 and each green LED 1 9, 1 9 G 2 flashes sequentially and alternately, by opening and closing the eyes Expresses "surprise” emotions as if they were surprised.
  • the user can easily recognize the emotional state of the robot 1 based on the blinking state of the LED 19, and the user's action such as "stroke” and "slap” Therefore, communication with the user can be performed more smoothly because the emotion corresponding to the action is expressed.
  • communication with the user can be performed more smoothly by expressing the emotion of the pet robot 1 by blinking the LED 19 as an apparent "eye”. As a result, it is possible to realize a petrobot that can significantly improve the entertainment.
  • the present invention is applied to the quadruped walking type robot 1 configured as shown in FIG. 1, but the present invention is not limited to this.
  • the present invention can be widely applied to robot devices of various shapes (including so-called toys (including toys, toys)).
  • the present invention is not limited to this, and the point is that various other light emitting means for emitting light can be widely used. Can be applied.
  • a light-emitting element 50 arranged in an array as shown in FIG. 9 or a color or black-and-white liquid crystal display can be applied. It is possible to display more various shapes as eyes, thereby expressing more various facial expressions.
  • LEDs for two colors of red LED 19 1 ⁇ , 19 R 2 and green LED 19 G j 19 G 2 are used as the LED 19.
  • the present invention is not limited to this, and LEDs of one color or three or more colors may be prepared and emitted in a predetermined light emitting pattern according to emotion.
  • the present invention is not limited to this, and the emission brightness of the LED 19 may be increased as the emotion is stronger. As long as the light emission pattern of the LED 19 is changed in accordance with the above, various other light emission patterns can be applied as the light emission pattern.
  • the CCD camera 15, the microphone 16 and the touch sensor 17 are applied as external sensors for detecting an external situation or an external input.
  • the invention is not limited to this. In other words, as long as an external condition or an external input can be detected, various other sensors can be widely used in addition to or instead of the external sensor.
  • the memory 1 OA is applied as a recording medium for recording a control program in the robot 1, but the present invention is not limited to this, and As long as the control program can be recorded and reproduced, various other recording media can be widely applied.
  • the touch sensor 17 is disposed above the head unit 4 of the robot 1 .
  • the present invention is not limited to this. May be arranged at the location.
  • the touch sensor 17 on the forehead or top of the head of the pet robot 1, communication between the pet robot 1 and the user is achieved experimentally and empirically. Therefore, there is an advantage that the user can easily empathize with the robot 1.
  • the touch sensor 17 is applied as a means for detecting a user's action such as “hitting” and “stroking”.
  • the present invention is not limited to this.
  • a simple switch may be provided in place of the touch sensor 17 to detect the user's action of “hitting” by turning on or off the switch, and blink the LED 19 based on the detection result. Then, the robot may express emotions.
  • the present invention can be applied to entertainment robots such as pet robots.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Description

明 細 書 ロボッ ト装置及びその制御方法並びに記録媒体 技術分野
本発明はロボット装置及びその制御方法並びに記録媒体に関し、 例えばぺッ ト ロボッ トに適用して好適なものである。 背景技術
近年、 ユーザからの指示や周囲の環境に応じて自律的に行動を行う 4足歩行型 のぺッ トロボッ トが本願特許出願人により開発されている。 かかるぺッ トロボッ トは、 一般家庭において飼育される犬や猫に似せた形状を有し、 ユーザからの指 令や周囲の環境などに応じて行動するものである。
ところでかかるペットロボットにおいて、 例えばユーザからの 「叩く」 や 「撫 でる」 といった働きかけに対して 「怒り」 や 「喜び」 などの感情を表現し得るよ うにすることができれば、 ユーザがぺットロポッ トとコミュニケーションを円滑 に行うことができ、 その分ぺットロボットに対するュ一ザの愛着心及び好奇心を 向上させて、 エンターティンメント性をより一層向上させ得るものと考えられる
発明の開示
本発明は以上の点を考慮してなされたもので、 エンターティンメント性をより 一層向上させ得るロボット装置及びその制御方法並びに記録媒体を提案しょうと するものである。
かかる課題を解決するため本発明においては、 ロボット装置において、 外見上 の目として機能する発光手段と、 外部の状況及び又は外部からの入力を検出する 外部センサと、 外部センサの出力に基づいて、 感情を表現するように発光手段を 点滅させる制御手段とを設けるようにしたことにより、 発光手段の発光状態に基 づいてユーザが当該ロボッ ト装置の感情を容易に認識することができる。 かくす るにつきユーザとのコミュニケーションを円滑に行うことができ、 かく してェン ターティメント性をより一層向上させ得るロボッ ト装置を実現できる。
また本発明においては、 外見上の目として機能する発光手段と、 外部の状況及 び又は外部からの入力を検出する外部センサとを有するロボット装置の制御方法 において、 外部センサの出力に基づいて外部の状況及び又は外部からの入力を認 識する第 1のステップと、 認識結果に基づいて、 感情を表現するように発光手段 を点滅させる第 2のステップとを設けるようにしたことにより、 ユーザがロボッ ト装置の発光手段の発光状態に基づいてユーザが当該ロボッ ト装置の感情を容易 に認識することができる。 かくするにっきユーザとロボッ ト装置とのコミュニケ ーシヨンを円滑化させることができ、 かく してエンターテイメント性をより一層 向上させ得るロボッ ト装置の制御方法を実現できる。
さらに本発明においては、 外見上の目として機能する発光手段と、 外部の状況 及び又は外部からの入力を検出する外部センサとを有するロボッ ト装置の制御プ ログラムが記録された記録媒体において、 外部センサの出力に基づいて外部の状 況及び又は外部からの入力を認識する第 1のステップと、 当該認識結果に基づい て、 感情を表現するように発光手段を点滅させる第 2のステップとを有する制御 プログラムを記録するようにした。 この結果この記録媒体に記録された制御プロ グラムによれば、 ユーザがロボット装置の発光手段の発光状態に基づいてユーザ が当該口ボッ ト装置の感情を容易に認識することができることから、 ユーザと口 ボット装置とのコミュ-ケーションを円滑化させることができ、 かく してユーザ とロボッ ト装置とのコミュニケ一ションを円滑化させることができ、 かく して口 ボッ ト装置のエンターティメント性をより一層向上させ得る記録媒体を実現でき る。 図面の簡単な説明 図 1は、 本実施の形態によるぺッ トロボッ トの構成を示す斜視図である。
図 2は、 ぺッ トロボッ トの構成を示すブロック図である。
図 3は、 L EDの構成を示す斜視図である。
図 4は、 LEDの構成を示す斜視図である。
図 5は、 コントローラの処理の説明に供するブロック図である。
図 6は、 各情動の説明に供する略線図である。
図 7は、 確率ォ一トマトンの説明に供する概念図である。
図 8は、 状態遷移表を示す概念図である。
図 9は、 他の実施の形態の説明に供する略線図である。 発明を実施するための最良の形態
以下図面について、 本発明の一実施の形態を詳述する。
(1) 本実施の形態によるペットロボッ ト 1の構成
図 1において、 1は全体として本実施の形態によるペッ トロボットを示し、 月同 体部ュニッ ト 2の前後左右にそれぞれ脚部ュニッ ト 3 A〜 3 Dが連結されると共 に、 胴体部ュニッ ト 2の前端部及び後端部にそれぞれ頭部ュニッ ト 4及び尻尾部 ュニッ ト 5が連結されることにより構成されている。
この場合胴体部ユニット 2には、 図 2に示すように、 このペッ トロボッ ト 1全 体の動作を制御するコントローラ 1 0と、 このぺッ トロボッ ト 1の動力源として のバッテリ 1 1 と、 バッテリセンサ 1 2及び温度センサ 1 3などからなる内部セ ンサ部 1 4となどが収納されている。
また頭部ユニッ ト 4には、 このペッ トロボット 1の実質的な 「目」 として機能 する CCD (C h a r g e C o u p l e d D e v i c e) カメラ 1 5、 「耳 」 として機能するマイクロホン 1 6及びタツチセンサ 1 7などからなる外部セン サ部 1 8と、 外見上の 「目」 として機能する LED (L i g h t Em i t t i n g D i o d e) 1 9と、 「口」 として機能するスピーカ 20となどがそ れぞれ所定位置に配設されている。 さらに各脚部ュニッ ト 3 A〜3 Dの関節部分や、 各脚部ュニッ ト 3 A〜3 D及 び胴体部ュニッ ト 2の各連結部分、 頭部ュニッ ト 4及び胴体部ュニッ ト 2の連結 部分、 並びに尻尾部ユニッ ト 5における尻尾 5 A (図 1 ) の付根部分などには、 それぞれ対応する自由度数分のァクチユエータ 2 1 i 〜 2 l n が配設されている そして頭部ュニッ ト 4の C C Dカメラ 1 5は、 周囲の状況を撮像し、 得られた 画像信号 S 1 Aをコントローラ 1 0に送出する。 またマイクロホン 1 6は、 ユー ザから図示しないサウンドコマンダを介して音階として与えられる 「歩け」、 「伏 せ」 又は 「ボールを追いかけろ」 等の指令音を集音し、 得られた音声信号 S 1 B をコントローラ 1 0に送出する。
さらにタツチセンサ 1 7は、 図 1において明らかなように頭部ュニッ ト 4の上 部に設けられており、 ユーザからの 「撫でる」 や 「叩く」 といった物理的な働き かけにより受けた圧力を検出し、 検出結果を圧力検出信号 S 1 Cとしてコント口 ーラ 1 0に送出する。
さらにバッテリセンサ 1 2は、 バッテリ 1 1の残量を検出して、 検出結果をバ ッテリ残量検出信号 S 2 Aとしてコントロ一ラ 1 0に送出し、 温度センサ 1 3は 、 ぺッ トロボッ ト 1内部の温度を検出して検出結果を温度検出信号 S 2 Bとして コントロ一ラ 1 0に送出する。
コントローラ 1 0は、 外部センサ部 1 8の C C Dカメラ 1 5、 マイクロホン 1 6及びタツチセンサ 1 7からそれぞれ供給される画像信号 S 1 A、 音声信号 S 1 B及び圧力検出信号 S 1 C (以下、 これらをまとめて外部センサ信号 S 1 と呼ぶ ) と、 内部センサ部 1 4のバッテリセンサ及び熱センサからそれぞれ与えられる バッテリ残量検出信号 S 2 A及び温度検出信号 S 2 B (以下、 これらをまとめて 内部センサ信号 S 2と呼ぶ) などに基づいて、 ペッ トロボッ ト 1 の周囲及び内部 の状況や、 ユーザからの指令、 ユーザからの働きかけの有無などを判断する。 そしてコントローラ 1 0は、 この判断結果と、 予めメモリ 1 0 Aに格納されて いる制御プログラムとに基づいて続く行動を決定し、 決定結果に基づいて必要な ァクチユエータ 2 1 〜 2 1 n を駆動させることにより、 頭部ュニット 4を上下 左右に振らせたり、 尻尾部ユニッ ト 5の尻尾を動かせたり、 各脚部ユニッ ト 3 A 〜 3 Dを駆動して歩行させるなどの行動を行わせる。
またこの際コントローラ 1 0は、 必要に応じて所定の音声信号 S 3をスピーカ 2 0に与えることにより当該音声信号 S 3に基づく音声を外部に出力させたり、 外見上の 「目」 としての L E D 1 9に L ED駆動信号 S 4を出力することにより これを点滅させる。
このようにしてこのペッ トロボッ ト 1においては、 周囲及び内部の状況や、 ュ 一ザからの指令及び働きかけの有無などに基づいて自律的に行動することができ るようになされている。
なおペッ ト口ポッ ト 1の外見上の 「目」 としての L E D 1 9の具体的な構成を 図 3に示す。 この図 3からも明らかなように、 L ED 1 9は、 それぞれ赤色光を 発光する一対の赤色 L ED 1 9 Rj , 1 9 R2 と、 それぞれ緑色光を発光する一 対の緑色 L ED 1 9 G, 、 1 9 G2 とから構成される。
この場合各赤色 L ED 1 9 R, , 1 9 R2 は、 それぞれ発光部が所定長さの直 線形状を有しており、 矢印 aで示す頭部ュニッ ト 4の前方向に行くに従って先窄 みの位置関係となるように頭部ュニット 4の長手方向のほぼ中段部に配設されて いる。 これによりこのペッ トロボッ ト 1においては、 これら赤色 L ED 1 9 、 1 9 R2 を共に点灯することにより、 あたかも目をつり上げて怒っているかの ごとく、 「怒り」 の表情を表現することができるようになされている。
また各緑色 L E D 1 9 GX , 1 9 G2 は、 それぞれ発光部が所定長さの弓なり 形状を有しており、 それぞれ頭部ュニット 4における対応する赤色 L ED 1 9 R ! , 1 9 R2 の直前位置に、 弓なりの内側を前方向 (矢印 a ) に向けた状態で配 設されている。 これによりこのペッ トロボッ ト 1においては、 これら緑色 L ED 1 9 Gj 、 1 9 G2 を共に点灯することによって、 あたかも笑っているかのごと く、 「喜び」 の表情を表現することができるようになされている。
そしてかかるぺッ トロボッ ト 1では、 これら赤色 L ED 1 9 Rj , 1 9 R2 及 び緑色 LED 1 9 、 1 9 G2 を覆い隠すように、 頭部ュニッ ト 4の前端近傍 からタツチセンサ 1 7の直前までの筐体の上部部分が例えば合成樹脂材からなる 黒色の半透明カバ一 4 Aにより覆われている。
これによりこのぺットロボッ トでは、 LED 1 9が点灯していない状態のとき にはこれらが外側から目視確認し難く、 これに対して LED 1 9が点灯している 状態のときにはこれを外側から容易に目視確認し得るようにすることができ、 か く して 2種類の形状の 「目」 (赤色 LED 1 91^、 1 9 R2 及び緑色 LED 1 9 、 1 9 G2 ) が露出していることに起因する違和感を有効に回避し得るよう になされている。
なおこのペッ トロボッ ト 1では、 実質上の 「目」 として機能する CCDカメラ 1 5が頭部ュニッ ト 4の先端部にその光学軸が矢印 a と平行に配設されており、 これによりこの CCDカメラ 1 5によって頭部ュニッ ト 4が向いている前方の状 況を確実に撮像し得るようになされている。
(2) コントローラ 1 0の処理
次にこのぺッ トロボッ ト 1におけるコントロ一ラ 1 0の具体的な処理について 説明する。
コントローラ 1 0は、 メモリ 1 0 Aに格納された制御プログラムに従って上述 のような各種処理を実行する。 そしてかかるコントローラ 1 0の処理内容を機能 的に分類すると、 図 5に示すように、 外部及び内部の状態を認識する状態認識部 30と、 状態認識部 30の認識結果に基づいて感情及び本能の状態を決定する感 情 ·本能モデル部 3 1 と、 状態認識部 30の認識結果及び感情 ·本能モデル部 3 1の出力に基づいて続く行動を決定する行動決定部 3 2と、 行動決定部 3 2の決 定結果に応じた行動をぺッ トロボッ トに生成 (発現) させる行動生成部 3 3とに 分けることができる。
以下、 これら状態認識部 30、 感情 ·本能モデル部 3 1、 行動決定部 3 2及び 行動生成部 3 3について詳細に説明する。
(2- 1 ) 状態認識部 30の構成 状態認識部 30は、 外部センサ部 1 8 (図 2) から与えられる外部情報信号 S 1 と、 内部センサ部 1 4 (図 2) から与えられる内部情報信号 S 2とに基づいて 特定の状態を認識し、 認識結果を状態認識情報 S 1 0として感情 ·本能モデル部 3 1及び行動決定部 3 2に通知する。
実際上、 状態認識部 30は、 外部センサ部 1 8の CCDカメラ 1 5 (図 2) か ら与えられる画像信号 S 1 A (図 2) を常時監視し、 当該画像信号 S I Aに基づ く画像内に例えば 「赤い丸いもの」 や、 「垂直な平面」 を検出したときには、 「ボ ールがある」、 「壁がある」 と認識し、 認識結果を感情 ·本能モデル部 3 1及び行 動決定部 3 2に通知する。
また状態認識部 30は、 マイクロホン 1 6 (図 2) から与えられる音声信号 S 1 B (図 2) を常時監視し、 当該音声信号 S 1 Bに基づいて 「歩け」、 「伏せ」、 「 ボールを追いかけろ」 などの指令音が入力されたことを認識すると、 かかる認識 結果を感情 ·本能モデル部 3 1及び行動決定部 3 2に通知する。
さらに状態認識部 30は、 タツチセンサ 1 7 (図 2) から与えられる圧力検出 信号 S 1 C (図 2) を常時監視し、 当該圧力検出信号 S 1 Cに基づいて所定の閾 値以上のかつ短時間 (例えば 2秒未満) の圧力を検出したときには 「叩かれた ( 叱られた)」 と認識し、 所定の閾値未満のかつ長時間 (例えば 2秒以上) の圧力 を検出したときには 「撫でられた (誉められた)」 と認識し、 認識結果を感情 - 本能モデル部 3 1及び行動決定部 3 2に通知する。
さらに状態認識部 30は、 内部センサ部 1 4 (図 2) の温度センサ 1 3 (図 2 ) から与えられる温度検出信号 S 2 B (図 2) を常時監視し、 当該温度検出信号 S 2 Bに基づいて所定以上の温度を検出したときには 「内部温度が上昇した」 と 認識し、 認識結果を感情 ·本能モデル部 3 1及び行動決定部 3 2に通知する。
(2- 2) 感情 ·本能モデル部 3 1の構成
感情 ·本能モデル部 3 1は、 「喜び」、 「悲しみ」、 「驚き」、 「恐怖」、 「嫌悪」 及 び 「怒り」 の合計 6つの情動について、 各情動ごとにその情動の強さを表すパラ メータを保持している。 そして感情 .本能モデル部 3 1は、 これら各情動のパラ メータ値を、 それぞれ状態認識部 3 0から状態認識情報 S 1 0として与えられる 「叩かれた」 及び 「撫でられた」 などの特定の認識結果と、 後述のように行動決 定部 3 2から与えられる決定された出力行動を表す行動決定情報 S 1 2と、 経過 時間となどに基づいて順次更新する。
具体的に感情■本能モデル部 3 1は、 状態認識情報 S 1 0に基づき得られる認 識結果及び行動決定情報 S 1 2に基づく出力行動がその情動に対して作用する度 合い (予め設定されている) と、 他の情動から受ける抑制及び刺激の度合いと、 経過時間となどに基づいて所定の演算式により算出されるその情動の変化量を Δ E 〔 t〕、 現在のその情動のパラメータ値を E 〔 t〕、 認識結果等に応じてその情 動を変化させる割合を表す係数を k e として、 所定周期で次式
E [ t + 1 ] = E [ t ] + k e Χ Δ Ε [ t ] ( 1 ) を用いて次の周期におけるその情動のパラメータ値 E 〔 t + l〕 を算出する。 そして感情 .本能モデル部 3 1は、 この演算結果を現在のその情動のパラメ一 タ値 E 〔 t〕 と置き換えるようにしてその情動のパラメータ値を更新する。 なお 各認識結果や各出力行動に対してどの情動のパラメータ値を更新するかは予め決 められており、 例えば 「叩かれた」 といった認識結果が与えられた場合には 「怒 り」 の情動のパラメータ値が上がると共に 「喜び」 の情動のパラメータが下がり 、 「撫でられた」 といった認識結果が与えられた場合には 「喜び」 の情動のパラ メ一タ値が上がると共に 「悲しみ」 の情動のパラメータ値が下がる。 なお各情動 についてのより具体的な説明及びこれら情動が変化する具体的な要因の一例を図 6に示す。
これと同様にして、 感情 ·本能モデル部 3 1は、 「運動欲」、 「愛情欲」、 「食欲 」 及び 「好奇心」 の互いに独立した 4つの欲求について、 これら欲求ごとにその 欲求の強さを表すパラメータを保持している。 そして感情 ·本能モデル部 3 1は 、 これら欲求のパラメ一タ値を、 それぞれ状態認識部 3 0からの認識結果や、 経 過時間及び行動決定部 3 2からの通知などに基づいて順次更新する。
具体的に感情 ·本能モデル部 3 1は、 「運動欲」、 「愛情欲」 及び 「好奇心」 に ついては、 ペッ トロボッ ト 1の出力行動、 経過時間及び認識結果などに基づいて 所定の演算式により算出されるその欲求の変動量を Δ I 〔k〕、 減算のその欲求 のパラメ一タ値を I 〔k〕、 その欲求の感度を表す係数を として、 所定周期 で次式
I [k+ 1) = I [k] +k, ΧΔ I [k] (2) を用いて次の周期におけるその欲求のパラメータ値 I 〔k + l〕 を算出し、 この 演算結果を現在のその欲求のパラメータ値 I 〔k〕 と置き換えるようにしてその 欲求のパラメータ値を更新する。 なお出力行動や認識結果等に対してどの欲求の パラメータ値を変化させるかは予め定められており、 例えば行動決定部 3 2から 何らかの行動を行ったとの通知があったときには 「運動欲」 のパラメータ値が下 がる。
また感情 ·本能モデル部 3 1は、 「食欲」 については、 状態認識部 30を介し て与えられるバッテリ残量検出信号 S 2 A (図 2) に基づいて、 バッテリ残量を BL として所定周期で次式
I [k] = 1 00 - BL (3) により 「食欲」 のパラメータ値 I 〔k + l〕 を算出し、 この演算結果を現在の食 欲のパラメータ値 I 〔k〕 と置き換えるようにして当該 「食欲」 のパラメータ値 を更新する。
なお本実施の形態においては、 各情動及び各欲求のパラメータ値がそれぞれ 0 から 1 00までの範囲で変動するように規制されており、 また係数 ke 、 k, の 値も各情動及び各欲求ごとに個別に設定されている。 ( 2— 3 ) 行動決定部 3 2の構成
行動決定部 3 2は、 状態認識部 30から与えられる状態認識情報 S 1 0と、 感 情 ·本能モデル部 3 1における各情動及び各欲求のパラメータ値と、 予めメモリ 1 0 Aに格納された行動モデルと、 時間経過となどに基づいて次の行動を決定し 、 決定結果を行動決定情報 S 1 2として感情 ·本能モデル部 3 1及び行動生成部 3 3に出力する。
この場合、 行動決定部 3 2は、 次の行動を決定する手法として、 図 7に示すよ うな 1つのノード (状態) NODE。 から同じ又は他のどのノード NODE。 〜 NODEn に遷移するかを各ノード NODE。 〜NODE„ 間を接続するアーク ARC。 〜ARCn に対してそれぞれ設定された遷移確率 P。 〜Pn に基づいて 確率的に決定する確率ォートマトンと呼ばれるアルゴリズムを用いる。
より具体的には、 メモリ 1 0 Aには、 行動モデルとして、 各ノード NODE。 〜NODEn ごとの図 8に示すような状態遷移表 4 0が格納されており、 行動決 定部 3 2がこの状態遷移表 40に基づいて次の行動を決定するようになされてい る。
ここで状態遷移表 40においては、 そのノード N〇DE。 〜NODEn におい て遷移条件とする入力イベント (状態認識部 30の認識結果) が 「入力イベン ト 」 の行に優先順に列記され、 その条件についてのさらなる条件が 「データ名」 及 び 「データ範囲」 の行における対応する列に記述されている。
従って図 8の状態遷移表 40で定義されたノード NOD E10。 では、 「ポールを 検出した (BAL L)」 という認識結果が与えられた場合に、 当該認識結果と共 に与えられるそのボールの 「大きさ (S I Z E)」 「0から 1 000の範囲 ( 〇, 1 000)」 であることや、 「障害物を検出 (OB STACLE)J とレ、ぅ認 識結果が与えられた場合に、 当該認識結果と共に与えられるその障害物までの 「 距離 (D I STANCE)」 力; 「0力 ら 1 000の範囲 (0, 1 000)」 である ことが自己又は他のノードに遷移するための条件となっている。
またこのノード NODE10。 では、 認識結果の入力がない場合においても、 行 動決定部 3 2が周期的に参照する感情 ·本能モデル部 3 1の各情動及び各欲求の パラメータ値のうち 「喜び ( J OY)」、 「驚き (SUP R I S Ε)」 又は 「悲しみ
(SUDNE S S)」 のいずれかの情動のパラメータ値が 「50力 ら 1 00の範 囲 (50, 1 00)」 であるときには自己又は他のノードに遷移することができ る。
さらに状態遷移表 40では、 「他のノードへの遷移確率」 の欄における 「遷移 先ノード」 の列にそのノ一ド NOD E。〜NODEn から遷移できるノード名が 列記されると共に、 「入力イベント名」、 「データ値」 及び 「データの範囲」 の各 行に記述された全ての条件が揃った場合におけるそのノード NODE。〜NOD En への遷移確率が 「他のノードへの遷移確率」 の欄におけるそのノード NOD E。〜NODEn の行に記述され、 このとき出力される行動又は動作が 「出力行 動」 の行に記述される。 なお 「他のノードへの遷移確率」 の欄における各行の遷 移確率の和は 1 00 〔%〕 となっている。
従ってこの例のノード NOD E10。 では、 例えば 「ボールを検出 (BALL)」 し、 そのボ一ルの 「大きさ (S I Z E)」 「0力 ら 1 000の範囲 (0, 1 0 00)」 であるという認識結果が与えられた場合には、 「30 〔%〕」 の確率で 「 ノード NODE 12。 (n o d e 1 20)」 に遷移でき、 そのとき 「 ACT I ON 1」 の行動又は動作が出力されることとなる。
そして行動モデルは、 このような状態遷移表 40として記述されたノード NO DE。〜NODEn 力 ^、くつも繫がるようにして構成されている。
かく して行動決定部 3 2は、 状態認識部 30から状態認識情報 S 1 0が与えら れたときや、 最後に行動を発現してから一定時間が経過したときなどに、 メモリ 1 0Aに格納されている行動モデルのうちの対応するノード NODE。〜NOD En の状態遷移表 40を利用して次の行動や動作 (「出力行動」 の行に記述され た行動又は動作) を確率的に決定し、 決定結果を行動決定情報 S 1 2として感情 •本能モデル部 3 1及び行動生成部 33に出力する。
(2-3) 行動生成部 3 3の処理 行動生成部 3 3は、 行動決定部から与えられる行動決定情報 S 1 2に基づいて 、 必要なァクチユエータ 2 1! 〜 2 1 n (図 2) に駆動信号 S 1 3 i 〜S 1 3n を送出したり、 スピーカ 20 (図 2) に必要な音声信号 S 3を送出したり、 LE D 1 9に L E D駆動信号 S 4を送出する。
これにより行動生成部 3 3は、 この駆動信号 S 1 3 〜S 1 3n に基づいて必 要なァクチユエータ 2 〜2 ln を所定状態に駆動させたり、 音声信号 3に基 づく音声をスピーカ 20から出力させたり、 し£0駆動信号33に基づく点滅パ ターンで L ED 1 9を点滅させる。
(3) 感情と 「目」 の点滅との関係
次にこのペッ トロボッ ト 1における感情表現と、 外見上の 「目」 として機能す る LED 1 9の点滅との関係について説明する。
このぺッ トロボッ ト 1では、 上述のようにコントローラ 1 0の機能の 1つであ る行動決定部 3 2において、 対応する状態遷移表 40 (図 8) に基づいて続く行 動や動作を決定する。
この場合状態遷移表 40における 「撫でられた (PAT)」 という認識結果と 対応付けられた各出力行動 (例えば図 8における 「ACTON 2 J) には、 L ED 1 9のうちの各緑色 LED 1 9 G, , 1 9 G2 を点滅させるという行動が関 連付けられている。
また行動決定部 3 2は、 状態認識部 30から 「撫でられた」 という認識結果が 与えられた場合には、 上述のように対応する状態遷移表 40を用いて確率的に次 の行動や動作を決定し、 決定した行動や動作を行動決定情報 S 1 2として行動生 成部 3 3に出力する一方、 これと共に感情 .本能モデル部 3 1における 「喜び」 のパラメータの値を読み出し、 これを行動生成部 33に通知するようなされてい る。
かく してこのとき行動生成部 3 3は、 行動決定部 3 2から与えられる行動決定 情報 S 1 2に基づいて、 必要なァクチユエ一タ 2 〜2 ln を駆動することに より指定された 「喜び」 を表現する行動を行わせる一方、 これと共に又はこれに 代えてそのどきの 「喜び」 のパラメータの値に応じて、 当該値が大きければ大き いほど点滅周期が速くなるように各緑色 L ED 1 9 G, , 1 9 G2 を点滅させる 。 これによりペッ トロボッ ト 1は、 あたかも笑っているかのごとく、 「喜び」 の 感情を表情として表現することができる。
またこれと同様にして、 状態遷移表における 「叩かれた (H I T)」 という認 識結果と対応付けられた各出力行動 (例えば図 8における 「ACTON 3」) には、 L ED 1 9のうちの各赤色 L ED 1 9 R, 〜 1 9 R2 を点滅させるとレヽぅ 行動が関連付けられている。
また行動決定部 3 2は、 状態認識部 3 0から 「叩かれた」 という認識結果が与 えられた場合には、 対応する状態遷移表 4 0を用いて確率的に次の行動や動作を 決定し、 決定した行動や動作を行動決定情報 S 1 2として行動生成部 3 3に出力 する一方、 これと共に感情 '本能モデル部 3 1における 「怒り」 のパラメータの 値を読み出し、 これを行動生成部 3 3に通知するようなされている。
かく してこのとき行動生成部 3 3は、 行動決定部 3 2から与えられる行動決定 情報 S 1 2に基づいて、 必要なァクチユエ一タ 2 1 〜 2 1 n を駆動することに より、 指定された 「怒り」 を表す行動を行わせる一方、 これと共に又はこれに代 えてそのときの 「怒り」 のパラメータの値に応じて、 当該値が大きければ大きい ほど点滅周期が速くなるように各赤色 L ED 1 9 Ri 、 1 9 R2 を点滅させる。 これによりペッ トロボッ ト 1は、 あたかも笑っているかのごとく、 「怒り」 の感 情を表情として表現することができる。
これに対して行動決定部 3 2は、 状態遷移表 4 0における例えば 「大きな音の 入力 (S OUND)」 のような予め定められた 「驚き」 を表現すべき特定の認識 結果と対応付けられた各出力行動 (例えば図 8における 「ACTON 4」) に は、 LEDの各赤色 L ED 1 9 Rj , 1 9 R2 及び各緑色 L E D 1 、 1 9 G2 を順次交互に点滅させるという行動が関連付けられている。
また行動決定部 3 2は、 状態認識部 3 0からかかる 「驚き」 を表現すべき特定 の認識結果が与えられた場合には、 対応する状態遷移表 4 0を用いて確率的に次 の行動や動作を決定し、 決定結果を行動生成部 3 3に通知する。
かく してこのとき行動生成部 3 3は、 行動決定部 3 2から与えられる行動決定 情報 S 1 2に基づいて、 必要なァクチユエータ 2 1! 〜 2 1 n を駆動することに より、 指定された 「驚き」 を表すペッ トロボッ ト 1に行動を行わせる一方、 これ と共に各赤色 L E D 1 9 R i 、 1 9 R2 及び各緑色 L E D 1 9 、 1 9 G 2 を 順次交互に点滅させる。 これによりペッ トロボッ ト 1は、 あたかも笑っているよ うな表情と、 怒っているような表情とを順次交互に繰り返すことにより、 「驚き 」 の感情を表情として表現することができる。
このようにしてこのペッ トロボッ ト 1においては、 「撫でられた」 ことに対す る 「喜び」 の感情や、 「叩かれた」 ことに対する 「怒り」 の感情、 及びある特定 の認識結果に基づく 「驚き」 の感情を、 各赤色 L E D 1 9 R j , 1 9 R 2 及び又 は各緑色 L E D 1 9 、 1 9 G 2 の点滅によって表情として表現し得るような されている。
( 4 ) 本実施の形態の動作及び効果
以上の構成において、 このペッ トロボッ ト 1では、 ユーザが頭部ユニッ ト 4の 上部 (タツチセンサ 1 7 ) を叩く と各赤色 L E D 1 9 R x , 1 9 R2 が同時に点 滅することにより、 あたかも目をつり上げて怒っているかのような 「怒り」 の感 情を表情として表現し、 これに対してユーザが撫でると各緑色 L E D 1 9 1^ 、 1 9 R2 が同時に点滅することにより、 あたかも笑っているかのような 「喜び」 の感情を表情として表現する。 またペッ トロボッ ト 1では、 例えば周囲で大きな 音が発生すると各赤色 L E D 1 9 、 1 9 R2 及び各緑色 L E D 1 9 、 1 9 G 2 が順次交互に点滅することにより、 目を開閉させて驚いているかのような 「驚き」 の感情を表情として表現する。
従ってこのぺットロボッ ト 1では、 ユーザがぺッ トロボッ ト 1の感情状態を L E D 1 9の点滅状態に基づいて容易に認識し易く、 また 「撫でる」 や 「叩く」 と いったュ一ザの働きかけに応じて当該働きかけに応じた感情を表現するため、 ュ 一ザとのコミュニケーションをより円滑に行い得るようにすることができる。 以上の構成によれば、 ペッ トロボッ ト 1の感情を外見上の 「目」 としての L E D 1 9の点滅により表現するようにしたことにより、 ユーザとのコミュニケ一シ ョンをより円滑に行い得るようにすることができ、 かく してエンターティメント 性を格段的に向上させ得るぺッ トロボッ トを実現できる。
( 5 ) 他の実施の形態
なお上述の実施の形態においては、 本発明を図 1のように構成された 4足歩行 型のぺッ トロボット 1に適用するようにした場合について述べたが、 本発明はこ れに限らず、 この他種々の形状のロボッ ト装置 (いわゆる玩具 (おもちゃ、 トイ ( T o y ) ) を含む) に広く適用することができる。
また上述の実施の形態においては、 発光手段として L E D 1 9を適用するよう にした場合について述べたが、 本発明はこれに限らず、 要は、 光を発光するこの 他種々の発光手段を広く適用することができる。
この場合において、 例えば図 9のように発光素子 5 0をアレイ状に配置したも のや、 カラー又は白黒の液晶ディスプレイなども適用することができ、 このよう な発光手段を適用することによって外見上の目としてより多様な形状を表示し、 これによつてより多様な表情を表現し得るようにすることができる。
さらに上述の実施の形態においては、 「喜び」、 「怒り」 及び 「驚き」 の 3つの 感情 (情動) を外見上の目として機能する L E D 1 9の発光状態により表現する ようにした場合について述べたが、 本発明はこれに限らず、 これらの感情に加え て又はこれらの感情に代えて他の感情 (情動) を L E D 1 9の発光状態により表 現するようにしても良い。
さらに上述の実施の形態においては、 L E D 1 9として赤色 L E D 1 9 1^ 、 1 9 R2 及び緑色 L E D 1 9 G j 1 9 G 2 の 2色分の L E Dを用いるようにし た場合について述べたが、 本発明はこれに限らず、 1色又は 3色以上の L E Dを 用意し、 これらを感情に応じて所定の発光パターンで発光させるようにしても良 レ、。
さらに上述の実施の形態においては、 感情が強ければ強いほど L E D 1 9の点 滅周期を速くするようにした場合について述べたが、 本発明はこれに限らず、 感 情が強ければ強いほど L E D 1 9の発光輝度を上げるようにしても良く、 要は、 感情の強さに応じて L E D 1 9の発光パターンを変化させるようにするのであれ ば、 その発光パターンとしてはこの他種々の発光パターンを適用することができ る。
さらに上述の実施の形態においては、 外部状況や外部入力を検出する外部セン サとして C C Dカメラ 1 5、 マイクロホン 1 6及びタツチセンサ 1 7を適用する ようにした場合について述べたが、 本発明はこれに限らず、 要は、 外部状況や外 部入力を検出することができるのであれば、 外部センサとしてはこれらに加え又 はこれらに代えてこの他種々のセンサを広く適用することができる。
さらに上述の実施の形態においては、 ぺッ トロボッ ト 1において制御プロダラ ムを記録する記録媒体としてメモリ 1 O Aを適用するようにした場合について述 ベたが、 本発明はこれに限らず、 要は制御プログラムを記録し、 これを再生する ことができるものであれば、 記録媒体としてはこの他種々のものを広く適用する ことができる。
さらに上述の実施の形態においては、 タツチセンサ 1 7をぺッ トロボット 1の 頭部ュニッ ト 4の上部に配設するようにした場合について述べたが、 本発明はこ れに限らず、 この他の場所に配置するようにしても良い。 ただしこのようにタツ チセンサ 1 7をぺッ トロボット 1の頭部の額や頭頂に配設することによって、 実 験的及び経験的にも、 ペッ トロボッ ト 1 とユーザとのコミュニケ一ションが図り やすく、 ユーザがぺッ トロボッ ト 1に対して感情移入をし易くすることができる という利点がある。
さらに上述の実施の形態においては、 ユーザからの 「叩く」 や 「撫でる」 とい つた働きかけを検出する手段としてタツチセンサ 1 7を適用するようにした場合 について述べたが、 本発明はこれに限らず、 例えばタツチセンサ 1 7に代えて単 なるスィッチを配設し、 当該スィッチのオン Zオフによって 「叩く」 というユー ザの働きかけを検出して、 当該検出結果に基づいて L E D 1 9を点滅させるなど してぺッ トロボッ トに感情を表現させるようにしても良い。 産業上の利用可能性
本発明は、 ぺッ トロボッ トなどのエンターティメントロボッ トに適用すること ができる。

Claims

請 求 の 範 囲
1 . 外見上の目として機能する発光手段と、
外部の状況及び又は外部からの入力を検出する外部センサと、
上記外部センサの出力に基づいて、 感情を表現するように上記発光手段を点滅 させる制御手段と
を具えることを特徴とするロボッ ト装置。
2 . 上記発光手段は、 発光ダイオードでなる
ことを特徴とする請求の範囲第 1項に記載のロボッ ト装置。
3 . 上記制御手段は、
上記発光手段の点滅パターンによって上記感情の強さを表現する
ことを特徴とする請求の範囲第 1項に記載のロボッ ト装置。
4 . それぞれ異なる色で発光する複数の上記発光手段を具え、
上記制御手段は、
点滅させる上記発光手段の上記色によって上記感情を表現する
ことを特徴とする請求の範囲第 1項に記載のロボッ ト装置。
5 . 可動部と、
上記可動部を駆動する駆動手段と
を具え、
上記制御手段は、
上記発光手段の点滅に加えて、 上記駆動手段を制御して上記可動部を所定バタ ーンで駆動させることにより、 上記感情を表現する
ことを特徴とする請求の範囲第 1項に記載のロボッ ト装置。
6 . 上記制御手段は、
上記外部センサの出力に基づいて、 予め保持している感情をモデル化した感情 モデルを更新し、
当該更新した感情モデルに基づいて感情を決定し、
決定した上記感情を表現するように上記発光手段を点滅させる
ことを特徴とする請求の範囲第 1項に記載のロボッ ト装置。
7 . 上記発光手段は、
表現する上記感情に応じた複数形状の発光部を有し、 又は表現する上記感情に 応じた複数形状を表示する
ことを特徴とする請求の範囲第 1項に記載のロボッ ト装置。
8 . 上記ロボッ ト装置は、 頭部を有し、
上記発光手段は、
上記頭部に配置されると共に、 半透明なカバ一で覆われた
ことを特徴とする請求の範囲第 1項に記載のロボッ ト装置。
9 . 外見上の目として機能する発光手段と、 外部の状況及び又は外部からの入力 を検出する外部センサとを有するロボッ ト装置の制御方法において、
上記外部センサの出力に基づいて上記外部の状況及び又は上記外部からの入力 を認識する第 1のステップと、
上記認識結果に基づいて、 感情を表現するように上記発光手段を点滅させる第 2のステップと
を具えることを特徴とするロボッ ト装置の制御方法。
1 0 . 上記第 2のステップでは、
上記発光手段の点滅パターンによって上記感情の強さを表現する ことを特徴とする請求の範囲第 9項に記載のロボッ ト装置の制御方法。
1 1 . 上記ロボッ ト装置は、 それぞれ異なる色で発光する複数の上記発光手段を 具え、
上記第 2のステップでは、
点滅させる上記発光手段の上記色によって上記感情を表現する
ことを特徴とする請求の範囲第 9項に記載のロボッ ト装置の制御方法。
1 2 . 上記ロボッ ト装置は、
可動部と、
上記可動部を駆動する駆動手段とを具え、
上記第 2ステップでは、
上記発光手段の点滅に加えて、 上記駆動手段を制御して上記可動部を所定バタ —ンで駆動させることにより、 上記感情を表現する
ことを特徴とする請求の範囲第 9項に記載のロボット装置の制御方法。
1 3 . 上記第 2のステップでは、
上記外部センサの出力に基づいて、 予め保持している感情をモデル化した感情 モデルを更新し、
当該更新した感情モデルに基づいて感情を決定し、
決定した上記感情を表現するように上記発光手段を点滅させる
ことを特徴とする請求の範囲第 9項に記載のロボット装置の制御方法。
1 4 . 外見上の目として機能する発光手段と、 外部の状況及び又は外部からの入 力を検出する外部センサとを有する口ボッ ト装置の制御プログラムが記録された 記録媒体において、
上記外部センサの出力に基づいて上記外部の状況及び又は上記外部からの入力 を認識する第 1のステップと、
当該認識結果に基づいて、 感情を表現するように上記発光手段を点滅させる第 2のステップと
を具える上記制御プログラムが記録された
ことを特徴とする記録媒体。
1 5 . 上記第 2のステップでは、
上記発光手段の点滅パターンによって上記感情の強さを表現する
ことを特徴とする請求の範囲第 1 4項に記載の記録媒体。
1 6 . 上記ロボッ ト装置は、 それぞれ異なる色で発光する複数の上記発光手段を 具え、
上記第 2のステップでは、
点滅させる上記発光手段の上記色によって上記感情を表現する
ことを特徴とする請求の範囲第 1 4項に記載の記録媒体。
1 7 . 上記ロボッ ト装置は、
可動部と、
上記可動部を駆動する駆動手段とを具え、
上記第 2ステップでは、
上記発光手段の点滅に加えて、 上記駆動手段を制御して上記可動部を所定バタ —ンで駆動させることにより、 上記感情を表現する
ことを特徴とする請求の範囲第 1 4項に記載の記録媒体。
1 8 . 上記第 2のステップでは、
上記第 1のステップでの上記認識結果に基づいて、 予め保持している感情をモ デル化した感情モデルを更新し、 当該更新した感情モデルに基づいて感情を決定し、
決定した上記感情を表現するように上記発光手段を点滅させる ことを特徴とする請求の範囲第 1 4項に記載の記録媒体。
PCT/JP2000/002990 1999-05-10 2000-05-10 Robot device, its control method, and recorded medium Ceased WO2000068879A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP00925597A EP1120740B1 (en) 1999-05-10 2000-05-10 Robot device, its control method, and recorded medium
KR1020017000415A KR20010071833A (ko) 1999-05-10 2000-05-10 로봇 장치 및 그 제어 방법 및 기록 매체
DE60036599T DE60036599T2 (de) 1999-05-10 2000-05-10 Robotervorrichtung, steuerverfahren und aufzeichnungsmedium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11/129279 1999-05-10
JP12927999 1999-05-10

Publications (1)

Publication Number Publication Date
WO2000068879A1 true WO2000068879A1 (en) 2000-11-16

Family

ID=15005664

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2000/002990 Ceased WO2000068879A1 (en) 1999-05-10 2000-05-10 Robot device, its control method, and recorded medium
PCT/JP2000/002991 Ceased WO2000068880A1 (en) 1999-05-10 2000-05-10 Robot device

Family Applications After (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002991 Ceased WO2000068880A1 (en) 1999-05-10 2000-05-10 Robot device

Country Status (7)

Country Link
US (2) US6458011B1 (ja)
EP (1) EP1120740B1 (ja)
JP (1) JP4518229B2 (ja)
KR (1) KR20010071833A (ja)
CN (1) CN1304516A (ja)
DE (1) DE60036599T2 (ja)
WO (2) WO2000068879A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7117957B2 (en) 1998-12-22 2006-10-10 Weatherford/Lamb, Inc. Methods for drilling and lining a wellbore

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1112984C (zh) * 1999-05-10 2003-07-02 索尼公司 机器宠物装置的控制方法
JP2002301674A (ja) * 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP2003060745A (ja) 2001-08-22 2003-02-28 Sony Corp 情報伝達装置、情報伝達方法及びモニタ装置
KR100624403B1 (ko) * 2001-10-06 2006-09-15 삼성전자주식회사 인체의 신경계 기반 정서 합성 장치 및 방법
KR100458079B1 (ko) * 2001-11-23 2004-11-18 (주)로보티즈 감정 표현 로보트
JP4204839B2 (ja) * 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
US7165637B2 (en) * 2004-11-04 2007-01-23 The Boeing Company Robotic all terrain surveyor
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
JP4893887B2 (ja) * 2007-04-02 2012-03-07 本田技研工業株式会社 充電装置
KR100880613B1 (ko) * 2007-08-10 2009-01-30 주식회사 쿼터뷰 지능형로봇의 감정표현지원시스템과 지원방법 및 이를이용한 지능형 로봇 시스템
US8414350B2 (en) * 2008-08-18 2013-04-09 Rehco, Llc Figure with controlled motorized movements
US8057275B2 (en) * 2008-09-23 2011-11-15 Hasbro, Inc. Toy with pivoting portions capable of rolling over and methods thereof
KR101101750B1 (ko) * 2009-09-16 2012-01-05 (주)동부로봇 로봇의 감성표현방법
AU2012368731A1 (en) 2012-02-03 2014-08-21 Nec Corporation Communication draw-in system, communication draw-in method, and communication draw-in program
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
US9104231B2 (en) 2012-09-27 2015-08-11 Microsoft Technology Licensing, Llc Mood-actuated device
US9046884B2 (en) * 2012-12-31 2015-06-02 Microsoft Technology Licensing, Llc Mood-actuated device
US20140273728A1 (en) * 2013-03-15 2014-09-18 Rehco, Llc Motorized and non-motorized interactive character
CN105243967A (zh) * 2015-09-29 2016-01-13 塔米智能科技(北京)有限公司 一种支持多种颜色的led点阵机器人面部结构
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
CN109070356B (zh) 2016-04-28 2022-06-28 富士通株式会社 机器人
GB2565959B (en) * 2016-07-11 2021-10-13 Groove X Inc Autonomously acting robot
US10852311B2 (en) * 2016-07-12 2020-12-01 EMULATE, Inc. Additive channels
CN106904226B (zh) * 2017-03-10 2022-12-23 杭州宇树科技有限公司 一种电驱动四足机器人的腿部动力系统结构
WO2018198480A1 (ja) * 2017-04-28 2018-11-01 ソニー株式会社 制御装置、および制御方法
USD848549S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy dog
USD848552S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy horse
USD848550S1 (en) * 2017-10-06 2019-05-14 Kma Concepts Limited Posable toy bulldog
JP1622873S (ja) * 2017-12-29 2019-01-28 ロボット
USD916160S1 (en) * 2017-10-31 2021-04-13 Sony Corporation Robot
US11969662B2 (en) 2017-10-31 2024-04-30 Sony Corporation Robot device
WO2019138618A1 (ja) * 2018-01-10 2019-07-18 ソニー株式会社 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム
CN108499128A (zh) * 2018-04-17 2018-09-07 郭斌 一种智能机器人玩具
CN113727767B (zh) 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 机器动物拼插模型
JP7480706B2 (ja) * 2018-10-30 2024-05-10 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP7081577B2 (ja) * 2019-10-31 2022-06-07 カシオ計算機株式会社 ロボット
CN112141237A (zh) * 2020-09-22 2020-12-29 中科数体(中山)科技有限公司 智能机器狗
USD985645S1 (en) * 2021-04-16 2023-05-09 Macroact Inc. Companion robot
USD1047008S1 (en) * 2021-10-20 2024-10-15 Run Nan Shen Toy dog
USD1050210S1 (en) * 2022-02-22 2024-11-05 Knowledgehook Inc. Robot animal torso
USD1064019S1 (en) * 2022-03-15 2025-02-25 Beijing Xiaomi Robot Technology Co., Ltd. Robot for providing intelligent services
USD986985S1 (en) * 2022-05-27 2023-05-23 Jinwei Chen Dog robot toy
USD1030917S1 (en) * 2022-07-15 2024-06-11 Shenzhen Tbz Technology Co., Ltd. Artificial intelligence robot dog
JP1762281S (ja) * 2022-10-19 2024-01-25 ロボット
USD1066455S1 (en) * 2023-02-21 2025-03-11 Beijing Xiaomi Robot Technology Co., Ltd. Intelligent service robot
CA223389S (en) * 2023-03-06 2024-10-30 Hangzhou Yushu Tech Co Ltd Quadruped robot
US12280508B2 (en) 2023-04-05 2025-04-22 Sony Interactive Entertainment Inc. Reproducing fast eye movement using imaging of robot with limited actuator speed
USD1055129S1 (en) * 2023-04-28 2024-12-24 Hengzhi Future (Chongqing) Innovation Technology Co., Ltd. Robot dog
USD1106304S1 (en) * 2023-06-21 2025-12-16 Nanjing Weilan Intelligent Technology Co., Ltd. Intelligent service robot
USD1096912S1 (en) * 2025-03-19 2025-10-07 Shenzhen Chuangxin Intelligent Lighting Technology Co., Ltd. Starry sky projector

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63192423A (ja) * 1987-02-04 1988-08-09 株式会社 ナムコ 感情表現玩具
JPS6419492U (ja) * 1987-07-20 1989-01-31

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JPS63191582A (ja) * 1987-02-05 1988-08-09 株式会社明電舎 ロボツトの歩行装置
US5929585A (en) * 1996-11-19 1999-07-27 Sony Corporation Robot system and its control method
JP3956414B2 (ja) * 1996-11-19 2007-08-08 ソニー株式会社 ロボット装置及びロボット装置の制御方法
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
US6095887A (en) * 1998-02-24 2000-08-01 Onilco Innovacion S.A. Doll capable of walking with unsteady steps and with falling and upright recovery motions
CN1146492C (zh) * 1998-06-09 2004-04-21 索尼公司 机器人装置及其姿态控制方法
JP2000317876A (ja) * 1999-05-10 2000-11-21 Sony Corp ロボット装置
JP2001239479A (ja) * 1999-12-24 2001-09-04 Sony Corp 脚式移動ロボット及びロボットのための外装モジュール
WO2001085400A2 (en) * 2000-05-09 2001-11-15 Hasbro, Inc. Self-stabilizing walking apparatus that is capable of being reprogrammed or puppeteered
US6705917B2 (en) * 2000-12-15 2004-03-16 Andrew S. Filo Self-phase synchronized walking and turning quadruped apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63192423A (ja) * 1987-02-04 1988-08-09 株式会社 ナムコ 感情表現玩具
JPS6419492U (ja) * 1987-07-20 1989-01-31

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DATABASE INSPEC ON STN INSTITUTE OF ELECTRICAL ENGINEERS (STEVENGE, GB); WEI-MIN SHEN ET AL.: "Building integrated robots for soccer competition", XP002945892 *
HIROKI KITANO ET AL: "Sony legged robot for robocup challenge", 1998 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION, vol. 3, 16 May 1998 (1998-05-16) - 20 May 1998 (1998-05-20), pages 2605 - 2612, XP002930719 *
HIROMI KANEKO: "Pet robot, wo kaibo, 16 jiyudo, 56 dosa no entertainment-4 soku jiritsu gata", ELECTRONICS, vol. 4, no. 3, 1 March 1998 (1998-03-01), pages 34 - 35, XP002945879 *
PROCEEDINGS INTERNATIONAL CONFERENCE ON MULTI AGENT SYSTEMS, 3 July 1998 (1998-07-03) - 7 July 1998 (1998-07-07), pages 465 - 466 *
See also references of EP1120740A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7117957B2 (en) 1998-12-22 2006-10-10 Weatherford/Lamb, Inc. Methods for drilling and lining a wellbore

Also Published As

Publication number Publication date
KR20010071833A (ko) 2001-07-31
DE60036599T2 (de) 2008-02-07
DE60036599D1 (de) 2007-11-15
EP1120740A1 (en) 2001-08-01
WO2000068880A1 (en) 2000-11-16
CN1304516A (zh) 2001-07-18
EP1120740B1 (en) 2007-10-03
EP1120740A4 (en) 2005-08-31
US6458011B1 (en) 2002-10-01
US20030019671A1 (en) 2003-01-30
US6591923B2 (en) 2003-07-15
JP4518229B2 (ja) 2010-08-04

Similar Documents

Publication Publication Date Title
WO2000068879A1 (en) Robot device, its control method, and recorded medium
JP3277500B2 (ja) ロボット装置
US6519506B2 (en) Robot and control method for controlling the robot's emotions
US6711469B2 (en) Robot system, robot apparatus and cover for robot apparatus
WO2001039932A1 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
WO2000067959A1 (en) Robot device and method for controlling the same
WO2001049461A1 (en) Edit device, edit method, and recorded medium
US20080058988A1 (en) Robots with autonomous behavior
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP2003136456A (ja) ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
US20240367065A1 (en) Autonomous mobile body, information processing method, and program
JP2001154707A (ja) ロボット装置及びその制御方法
JP2001353674A (ja) ロボット装置
JP2001157980A (ja) ロボット装置及びその制御方法
JP4524524B2 (ja) ロボット装置及びその制御方法
JP4419035B2 (ja) ロボット装置及びその制御方法
JP2001157982A (ja) ロボット装置及びその制御方法
JP2003071765A (ja) ロボット装置及びロボット装置の入力方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP4411503B2 (ja) ロボット装置及びその制御方法
JP2001157981A (ja) ロボット装置及びその制御方法
JP2003266364A (ja) ロボット装置
JP2004130426A (ja) ロボット装置及びその動作制御方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00800821.3

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

WWE Wipo information: entry into national phase

Ref document number: 2000925597

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020017000415

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 09743436

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020017000415

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2000925597

Country of ref document: EP

WWR Wipo information: refused in national office

Ref document number: 1020017000415

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 2000925597

Country of ref document: EP