JP2003071754A - Robot apparatus and control method thereof - Google Patents
Robot apparatus and control method thereofInfo
- Publication number
- JP2003071754A JP2003071754A JP2001268117A JP2001268117A JP2003071754A JP 2003071754 A JP2003071754 A JP 2003071754A JP 2001268117 A JP2001268117 A JP 2001268117A JP 2001268117 A JP2001268117 A JP 2001268117A JP 2003071754 A JP2003071754 A JP 2003071754A
- Authority
- JP
- Japan
- Prior art keywords
- link
- unit
- joint mechanism
- driving
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】
【課題】円滑かつ確実な動作発現を可能とするロボット
装置及びその制御方法を提案する。
【解決手段】胴体部に第1の関節機構を介して第1のリ
ンクが連結されると共に、第1のリンクに第2の関節機
構を介して第2のリンクが連結され、第1の関節機構に
第1のリンクを回転駆動する第1の駆動手段が設けられ
ると共に、第2の関節機構に第2のリンクを回転駆動す
る第2の駆動手段が設けられたロボット装置について、
第1の駆動手段を制御して、第1のリンクを、第2のリ
ンクが胴体部が置かれた動作基準面と垂直よりも小さい
傾きをもって接触できる所定の回転位置に位置させその
後、第1及び第2の駆動手段を制御して、胴体部に対し
て第1のリンクを固定するように第1の駆動手段にトル
クを発生させながら、第2のリンクにより動作基準面を
押すように第2のリンクを回転駆動させるようにした。
(57) [Summary] [PROBLEMS] To propose a robot device and a control method thereof that enable smooth and reliable expression of motion. A first link is connected to the body via a first joint mechanism, and a second link is connected to the first link via a second joint mechanism. A robot apparatus in which a mechanism is provided with first drive means for rotating and driving a first link, and a second joint mechanism is provided with a second drive means for rotating and driving a second link.
By controlling the first driving means, the first link is positioned at a predetermined rotation position where the second link can contact the operation reference plane on which the body is placed with a smaller inclination than the vertical, and then the first link And controlling the second driving means to generate torque in the first driving means so as to fix the first link to the body portion, and to press the operation reference plane by the second link. The second link was driven to rotate.
Description
【0001】[0001]
【発明の属する技術分野】本発明はロボット装置及びそ
の制御方法に関し、例えばペットロボットに適用して好
適なものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot apparatus and its control method, and is suitable for application to, for example, a pet robot.
【0002】[0002]
【従来の技術】近年、本願特許出願人より4足歩行型の
ペットロボットが開発及び販売されている。かかるペッ
トロボットは、一般家庭において飼育される犬や猫に似
た形状を有し、「叩く」や「撫でる」といったユーザか
らの働きかけや、周囲の環境等に応じて自律的に行動し
得るようになされたものである。2. Description of the Related Art In recent years, a four-legged walking type pet robot has been developed and sold by the present applicant. Such a pet robot has a shape similar to dogs and cats raised in ordinary households, and is designed to be able to autonomously act according to the user's actions such as “striking” and “stroking” and the surrounding environment. It was done by.
【0003】[0003]
【発明が解決しようとする課題】ところで、かかるペッ
トロボットにおいては、例えば図9(A)のように両後
脚部50を前方向(矢印a)に伸ばした前傾姿勢から胴
体部51を起こす動きを、後脚部50の股関節52にお
ける対応するアクチュエータのみを駆動して、胴体部5
1の尻相当部を接地させた状態で当該胴体部51を後方
向(矢印aと逆方向)に回転させることにより行ってい
た。By the way, in such a pet robot, for example, as shown in FIG. 9 (A), the body portion 51 is raised from the forward tilted posture in which both rear leg portions 50 are extended in the forward direction (arrow a). As for the movement, only the corresponding actuator in the hip joint 52 of the rear leg portion 50 is driven to move the body portion 5
This has been done by rotating the body portion 51 in the rearward direction (the direction opposite to the arrow a) in a state in which the hip corresponding portion 1 is grounded.
【0004】この場合、このような方法により胴体部5
1を起こすためには、当該股関節52から膝関節53ま
での長さをL1、膝関節53から後脚部50における接
地部位までの長さをL2、胴体部51を起こす際に後脚
部50の接地部位が地面54に作用する力をF、股関節
52及び膝関節53のモーメントをそれぞれM1及びM
1´、胴体部51を起こすために必要なトルクをmとす
ると、次式In this case, the body portion 5 is formed by such a method.
In order to raise 1, the length from the hip joint 52 to the knee joint 53 is L 1 , the length from the knee joint 53 to the ground contact portion in the rear leg portion 50 is L 2 , and the rear leg when raising the body portion 51 The force of the ground contact portion of the portion 50 acting on the ground 54 is F, and the moments of the hip joint 52 and the knee joint 53 are M 1 and M, respectively.
1 ', where m is the torque required to raise the body 51, the following equation
【0005】[0005]
【数1】 [Equation 1]
【0006】が成り立つことから、当該アクチュエータ
の最大出力トルクをTとして、この最大出力トルクが次
式Since the above equation holds, the maximum output torque of the actuator is defined as T, and this maximum output torque is expressed by the following equation.
【0007】[0007]
【数2】 [Equation 2]
【0008】を満たせば良いことが分かる。It is understood that it is sufficient to satisfy the condition.
【0009】ところが、かかる従来の方法によると、当
該アクチュエータに与えられる負荷が過大であり、地面
状況(傾斜、凹凸等)やアクチュエータの性能等によっ
ては胴体部51を円滑かつ確実に起こすことができなく
なるおそれがあった。However, according to such a conventional method, the load applied to the actuator is excessive, and the body portion 51 can be smoothly and surely raised depending on the ground condition (inclination, unevenness, etc.) and the performance of the actuator. There was a risk of disappearing.
【0010】本発明は以上の点を考慮してなされたもの
で、円滑かつ確実な動作発現を可能とするロボット装置
及びその制御方法を提案しようとするものである。The present invention has been made in consideration of the above points, and it is an object of the present invention to propose a robot apparatus and a control method thereof that enable smooth and reliable expression of motion.
【0011】[0011]
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、胴体部に第1の関節機構を介して
第1のリンクが連結されると共に、第1のリンクに第2
の関節機構を介して第2のリンクが連結されたロボット
装置において、第1のリンクを回転駆動する第1の駆動
手段と、第2のリンクを回転駆動する第2の駆動手段
と、第1及び第2の駆動手段を制御する制御手段とを設
け、制御手段が、第1の駆動手段を制御して、第1のリ
ンクを、第2のリンクが胴体部が置かれた動作基準面と
垂直よりも小さい傾きをもって接触できる所定の回転位
置に位置させた後、第1及び第2の駆動手段を制御し
て、胴体部に対して第1のリンクを固定するように第1
の駆動手段にトルクを発生させながら、第2のリンクに
より動作基準面を押すように第2のリンクを回転駆動さ
せるようにした。In order to solve the above problems, according to the present invention, the first link is connected to the body through the first joint mechanism, and the second link is connected to the first link.
In a robot apparatus in which a second link is connected via the joint mechanism of (1), first driving means for rotationally driving the first link, second driving means for rotationally driving the second link, and And a control means for controlling the second drive means, the control means controls the first drive means so that the first link and the second link serve as an operation reference plane on which the body portion is placed. After being positioned at a predetermined rotational position where the contact can be made with an inclination smaller than vertical, the first and second driving means are controlled to fix the first link to the body portion.
The second link is rotationally driven so as to push the operation reference plane by the second link while generating torque in the driving means.
【0012】この結果、このロボット装置では、第2の
リンクが動作基準面を押す力によって胴体部を持ち上げ
ることができる。この場合、第1の関節機構内の第1の
軸から第2のリンクにおける動作基準面との接触部位ま
での距離と、第2の関節機構内の第2の軸から第2のリ
ンクにおける動作基準面との接触部位までの距離とで
は、後者の方が小さい。従って、第2の駆動手段による
方が、第1の駆動手段による場合よりも小さいトルクで
胴体部を持ち上げることができ、その分当該持ち上げを
より円滑かつ確実に行わせることができる。As a result, in this robot apparatus, the body part can be lifted by the force of the second link pressing the motion reference plane. In this case, the distance from the first axis in the first joint mechanism to the contact portion of the second link with the operation reference plane, and the operation in the second link from the second axis in the second joint mechanism. The latter is smaller in terms of the distance to the contact area with the reference surface. Therefore, the second drive means can lift the body portion with a smaller torque than the case of the first drive means, and the lift can be performed more smoothly and surely.
【0013】また本発明においては、胴体部に第1の関
節機構を介して第1のリンクが連結されると共に、第1
のリンクに第2の関節機構を介して第2のリンクが連結
され、第1の関節機構に第1のリンクを回転駆動する第
1の駆動手段が設けられると共に、第2の関節機構に第
2のリンクを回転駆動する第2の駆動手段が設けられた
ロボット装置の制御方法において、第1の駆動手段を制
御して、第1のリンクを、第2のリンクが胴体部が置か
れた動作基準面と垂直よりも小さい傾きをもって接触で
きる所定の回転位置に位置させる第1のステップと、第
1及び第2の駆動手段を制御して、胴体部に対して第1
のリンクを固定するように第1の駆動手段にトルクを発
生させながら、第2のリンクにより動作基準面を押すよ
うに第2のリンクを回転駆動させる第2のステップとを
設けるようにした。According to the present invention, the first link is connected to the body through the first joint mechanism, and
The second link mechanism is connected to the second link mechanism via the second link mechanism, the first link mechanism is provided with the first drive means for rotationally driving the first link, and the second link mechanism is linked to the second link mechanism. In a method for controlling a robot apparatus provided with a second drive means for rotationally driving the second link, the first drive means is controlled to place the first link and the second link on the body portion. A first step of arranging the first and second driving means at a predetermined rotational position where the contact can be made with an inclination smaller than vertical with respect to the operation reference plane, and a first step with respect to the body section is performed.
And a second step of rotationally driving the second link so as to push the operation reference surface by the second link while generating torque in the first driving unit so as to fix the link.
【0014】この結果、このロボット装置の制御方法に
よれば、第2のリンクが動作基準面を押す力によってロ
ボット装置の胴体部を持ち上げることができる。この場
合、第1の関節機構内の第1の軸から第2のリンクにお
ける動作基準面との接触部位までの距離と、第2の関節
機構内の第2の軸から第2のリンクにおける動作基準面
との接触部位までの距離とでは、後者の方が小さい。従
って、第2の駆動手段による方が、第1の駆動手段によ
る場合よりも小さいトルクで胴体部を持ち上げることが
でき、その分当該持ち上げをより円滑かつ確実に行わせ
ることができる。As a result, according to this control method for the robot apparatus, the body portion of the robot apparatus can be lifted by the force of the second link pushing the motion reference plane. In this case, the distance from the first axis in the first joint mechanism to the contact portion of the second link with the operation reference plane, and the operation in the second link from the second axis in the second joint mechanism. The latter is smaller in terms of the distance to the contact area with the reference surface. Therefore, the second drive means can lift the body portion with a smaller torque than the case of the first drive means, and the lift can be performed more smoothly and surely.
【0015】[0015]
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings.
【0016】(1)本実施の形態によるペットロボット
の構成
図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部に首輪部4を介在させて頭部ユニ
ット5が連結されることにより構成されている。(1) Structure of Pet Robot According to this Embodiment In FIG. 1, reference numeral 1 denotes the pet robot according to this embodiment as a whole, and leg units 3A to 3D are connected to the front, rear, left and right of the body unit 2, respectively. In addition, the head unit 5 is connected to the front end of the body unit 2 with the collar 4 interposed therebetween.
【0017】この場合胴体部ユニット2には、図2に示
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
なるバッテリ11と、バッテリセンサ12及び温度セン
サ13等の各種内部センサと、このペットロボット1の
実質上の「口」として機能するスピーカ14と、各種制
御パラメータが格納された着脱自在の外部メモリ15と
などが収納されている。また胴体部ユニット2の上面後
端近傍には、その先端部にLED(Light Emitting D
iode)16が収納されたジョイステックでなる外見上の
尻尾部17が突出させて設けられている。In this case, in the body unit 2, as shown in FIG. 2, a controller 10 for controlling the operation of the entire pet robot 1, a battery 11 serving as a power source of the pet robot 1, a battery sensor 12 and Various internal sensors such as the temperature sensor 13 and the like, a speaker 14 that functions as a substantial “mouth” of the pet robot 1, a detachable external memory 15 in which various control parameters are stored, and the like are stored. In addition, near the rear end of the upper surface of the body unit 2, an LED (Light Emitting D
An external tail portion 17 made of a joystick in which the iode 16 is housed is provided so as to project.
【0018】また頭部ユニット5には、このペットロボ
ットの実質上の「目」に相当するCCD(Charge Coupl
ed Device)カメラ18及び実質上の「耳」に相当する
マイクロホン19などが収納されており、その頭頂部に
はLED20を内蔵する所定形状の角部21(図1)が
突出させて設けられている。Further, the head unit 5 has a CCD (Charge Coupl) corresponding to the substantial "eyes" of the pet robot.
ed Device) A camera 18 and a microphone 19 corresponding to a substantial “ear” are housed, and a corner portion 21 (FIG. 1) of a predetermined shape which houses an LED 20 is provided on the top of the head so as to project. There is.
【0019】さらに各脚部ユニット3A〜3Dの太腿部
22及び脛部23をそれぞれ連結する各膝関節24や、
各脚部ユニット3A〜3D及び胴体ユニット2をそれぞ
れ連結する各股関節25、並びに頭部ユニット5及び胴
体部ユニット2を連結する首関節26などには、それぞ
れ対応する自由度数分のアクチュエータ271〜27 n
及びポテンショメータ281〜28nが配設されてい
る。Further, the thighs of the leg units 3A to 3D
22 and each knee joint 24 connecting the shin 23,
Each of the leg units 3A to 3D and the body unit 2 respectively
The hip joints 25 to be connected together, the head unit 5 and the torso
Each of the neck joints 26 and the like connecting the body unit 2 has
Actuator 27 with a corresponding number of degrees of freedom1~ 27 n
And potentiometer 281~ 28nIs installed
It
【0020】そして頭部ユニット5のCCDカメラ18
は、周囲の状況を撮像し、得られた画像信号S1をコン
トローラ10に送出する。またマイクロホン19は、ユ
ーザが発した「歩け」、「お座り」又は「ボールを追い
かけろ」等の音声指令や周囲音を集音し、かくして得ら
れた音声信号S2をコントローラ10に送出する。The CCD camera 18 of the head unit 5
Captures the surrounding situation and sends the obtained image signal S1 to the controller 10. In addition, the microphone 19 collects voice commands such as “walk”, “sitting” or “follow the ball” and ambient sounds emitted by the user, and sends the voice signal S2 thus obtained to the controller 10.
【0021】また胴体部ユニット2のバッテリセンサ1
2は、バッテリ11の残量を検出して、検出結果をバッ
テリ残量検出信号S3としてコントローラ10に送出
し、温度センサ13は、胴体部ユニット2の内部温度を
検出して、検出結果を温度検出信号S4としてコントロ
ーラ10に送出する。Further, the battery sensor 1 of the body unit 2
2 detects the remaining amount of the battery 11, sends the detection result to the controller 10 as a battery remaining amount detection signal S3, and the temperature sensor 13 detects the internal temperature of the body unit 2 and outputs the detection result to the temperature. The detection signal S4 is sent to the controller 10.
【0022】さらに各ポテンショメータ281〜28n
は、対応するアクチュエータ271〜27nの出力軸の
回転角度を検出して、検出結果を角度検出信号S51〜
S5 nとしてコントローラ10に送出し、胴体部ユニッ
ト2の尻尾部17は、ユーザが操作したときにこれに応
じた操作検出信号S6をコントローラ10に送出する。Further, each potentiometer 281~ 28n
Is the corresponding actuator 271~ 27nOf the output shaft of
The rotation angle is detected, and the detection result is the angle detection signal S5.1~
S5 nTo the controller 10 as a body unit
The tail portion 17 of the gland 2 responds to this when the user operates it.
The same operation detection signal S6 is sent to the controller 10.
【0023】コントローラ10は、CCDカメラ18、
マイクロホン19、バッテリセンサ12、温度センサ1
3、各ポテンショメータ281〜28n及び尻尾部17
等から与えられる画像信号S1、音声信号S2、バッテ
リ残量検出信号S3、温度検出信号S4、各角度検出信
号S51〜S5n及び操作検出信号S6などに基づい
て、外部及び内部の状況や、ユーザからの指令及びユー
ザからの働きかけの有無などを判断する。The controller 10 includes a CCD camera 18,
Microphone 19, battery sensor 12, temperature sensor 1
3. Potentiometers 28 1 to 28 n and tail portion 17
Based on the image signal S1, the audio signal S2, the battery remaining amount detection signal S3, the temperature detection signal S4, the angle detection signals S5 1 to S5 n, the operation detection signal S6, etc. given from Determines whether there is a command from the user and whether there is an action from the user.
【0024】そしてコントローラ10は、この判断結果
と予め内部メモリ10Aに格納された制御プログラム及
び外部メモリ15に格納されている各種制御パラメータ
とに基づいて続く行動を決定し、決定結果に基づいて必
要なアクチュエータ271〜27nを振動させることに
より、頭部ユニット5を上下左右に振らせたり、各脚部
ユニット3A〜3Dを駆動して歩行させるなどの行動を
ペットロボット1に発現させる。Then, the controller 10 determines the subsequent action based on the result of this determination, the control program stored in advance in the internal memory 10A, and various control parameters stored in the external memory 15, and the necessary action is determined based on the determination result. By vibrating the different actuators 27 1 to 27 n , the pet robot 1 is caused to perform actions such as swinging the head unit 5 vertically and horizontally and driving the leg units 3A to 3D to walk.
【0025】またこの際コントローラ10は、必要に応
じて所定の音声信号S7をスピーカ14に与えることに
より当該音声信号S7に基づく音声を外部に出力させた
り、角部21内や尻尾部17内のLED20、16を点
灯、消灯又は点滅させる。Further, at this time, the controller 10 outputs a voice based on the voice signal S7 to the outside by giving a predetermined voice signal S7 to the speaker 14 as needed, or in the corner portion 21 and the tail portion 17. The LEDs 20, 16 are turned on, turned off, or blinked.
【0026】このようにしてこのペットロボット10に
おいては、外部及び内部の状況や、ユーザからの指令及
び働きかけの有無、並びに外部メモリ15に格納された
各種制御パラメータ等に応じて自律的に行動し得るよう
になされている。In this way, the pet robot 10 behaves autonomously according to the external and internal conditions, the presence / absence of commands and actions from the user, various control parameters stored in the external memory 15, and the like. It is designed to get you.
【0027】(2)コントローラ10の処理
ここでこのようなペットロボット1の行動生成に関する
コントローラ10の処理について説明する。(2) Processing of Controller 10 Here, the processing of the controller 10 relating to such action generation of the pet robot 1 will be described.
【0028】図3に示すように、ペットロボット1の行
動生成に関するコントローラ10の処理内容を機能的に
分類すると、外部及び内部の状態を認識する状態認識部
30と、状態認識部30の認識結果に基づいて感情及び
本能の状態を決定する感情・本能モデル31と、状態認
識部30の認識結果及び感情・本能モデル31において
決定された感情・本能の状態に基づいて次の行動を決定
する行動決定部32と、行動決定部32により決定され
た行動や動作を行うためのペットロボット1の一連の動
作計画を立てる姿勢遷移制御部33と、姿勢遷移制御部
33により立てられた動作計画に基づいてLED16、
20やアクチュエータ271〜27n等のデバイスを制
御するデバイス制御部34とに分けることができる。As shown in FIG. 3, when the processing contents of the controller 10 relating to the action generation of the pet robot 1 are functionally classified, the state recognition unit 30 that recognizes the external and internal states and the recognition result of the state recognition unit 30. An emotion / instinct model 31 that determines an emotion and an instinct state based on the action, and an action that determines the next action based on the recognition result of the state recognition unit 30 and the emotion / instinct state determined in the emotion / instinct model 31 Based on the determination unit 32, a posture transition control unit 33 that makes a series of motion plans of the pet robot 1 for performing the action or action decided by the action determination unit 32, and the action plan made by the posture transition control unit 33 LED16,
20 and the actuators 27 1 to 27 n and other device control units 34 that control devices.
【0029】この場合状態認識部30は、CCDカメラ
18、マイクロホン19、バッテリセンサ12、温度セ
ンサ13、各ポテンショメータ281〜28n及び尻尾
部17等から与えられる画像信号S1、音声信号S2、
バッテリ残量検出信号S3、温度検出信号S4、各角度
検出信号S51〜S5n及び操作検出信号S6などの各
種センサ信号S10に基づいて特定の状態を認識し、認
識結果を状態認識情報D1として感情・本能モデル31
及び行動決定部32に通知する。In this case, the state recognition section 30 includes an image signal S1 and a voice signal S2 provided from the CCD camera 18, the microphone 19, the battery sensor 12, the temperature sensor 13, the potentiometers 28 1 to 28 n, the tail section 17, and the like.
Battery level detection signal S3, the temperature detection signal S4, recognizes a particular state based on the various sensor signal S10 such as the angle detection signal S5 1-S5 n and the operation detection signal S6, the recognition result as the state recognition information D1 Emotional / instinct model 31
Also, the action determination unit 32 is notified.
【0030】具体的に状態認識部30は、CCDカメラ
18から与えられる画像信号S1を常時監視し、当該画
像信号S1に基づく画像内に例えば「赤い丸いもの」や
「進行方向に位置する物体」を検出したときには「ボー
ルがある」、「障害物がある」と認識して、当該認識結
果を感情・本能モデル31及び行動決定部32に通知す
る。Specifically, the state recognizing section 30 constantly monitors the image signal S1 given from the CCD camera 18, and in the image based on the image signal S1, for example, "a red round object" or "an object located in the traveling direction". When it detects "," it recognizes that "there is a ball" and "there is an obstacle", and notifies the emotion / instinct model 31 and the action determination unit 32 of the recognition result.
【0031】また状態認識部30は、マイクロホン19
から与えられる音声信号S2を常時監視し、HMM(Hi
dden Markov Model)法などの音声認識手法により「歩
け」、「伏せ」、「ボールを追いかけろ」等の各種音声
を認識したときには、これを感情・本能モデル31及び
行動決定部32に通知する。The state recognition unit 30 also includes a microphone 19
The audio signal S2 given by the HMM (Hi
When various voices such as “walk”, “prone”, “follow the ball” are recognized by a voice recognition method such as the dden Markov Model) method, the voice is notified to the emotion / instinct model 31 and the action determination unit 32.
【0032】さらに状態認識部30は、バッテリセンサ
12及び温度センサ14からそれぞれ与えられるバッテ
リ残量検出信号S3及び温度検出信号S4に基づいてバ
ッテリの残量及び内部温度を認識し、認識結果を感情・
本能モデル31及び行動決定部32に通知する。Further, the state recognition unit 30 recognizes the remaining amount of the battery and the internal temperature based on the battery remaining amount detection signal S3 and the temperature detection signal S4 provided from the battery sensor 12 and the temperature sensor 14, respectively, and the recognition result is emotional.・
The instinct model 31 and the action determination unit 32 are notified.
【0033】さらに状態認識部は、各ポテンショメータ
281〜28nから与えられる角度検出信号S51〜S
5nを常時監視し、例えば頭部ユニット5のピッチ方向
のアクチュエータ271〜27nに対応するポテンショ
メータ281〜28nからの角度検出信号S51〜S5
nに基づいて頭部ユニット5が下又は上を向くように押
されたことを検出したときには「誉められた」又は「叱
られた」と認識し、認識結果を感情・本能モデル31及
び行動決定部32に通知する。Further, the state recognizing section detects the angle detection signals S5 1 to S 5 given by the potentiometers 28 1 to 28 n.
5 n is constantly monitored and, for example, angle detection signals S5 1 to S5 from potentiometers 28 1 to 28 n corresponding to the actuators 27 1 to 27 n in the pitch direction of the head unit 5, for example.
When it is detected that the head unit 5 is pushed downward or upward based on n , it is recognized as "praised" or "scold", and the recognition result is the emotion / instinct model 31 and action determination. Notify the section 32.
【0034】さらに状態認識部30は、尻尾部17から
与えられる操作検出信号S6を常時監視し、当該操作検
出信号S6に基づいて尻尾部17が操作されたことを検
出すると、当該操作に応じたユーザの意思を認識し、認
識結果を感情・本能モデル31及び行動決定部32に通
知する。Furthermore, the state recognition section 30 constantly monitors the operation detection signal S6 given from the tail section 17, and when it detects that the tail section 17 has been operated based on the operation detection signal S6, it responds to the operation. The intention of the user is recognized, and the recognition result is notified to the emotion / instinct model 31 and the action determination unit 32.
【0035】感情・本能モデル部31は、「喜び」、
「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び「怒
り」の合計6つの情動について、これら情動ごとにその
情動の強さを表すパラメータを保持している。そして感
情・本能モデル部31は、これら各情動のパラメータ値
を、それぞれ状態認識部30から状態認識情報D1とし
て与えられる「誉められた」、「叱られた」などの特定
の認識結果等に基づいて順次変更する。The emotion / instinctive model section 31 is "joyful",
With respect to a total of six emotions of “sadness”, “surprise”, “fear”, “disgust”, and “anger”, a parameter representing the intensity of the emotion is held for each emotion. The emotion / instinct model unit 31 then sets the parameter values of each of these emotions based on specific recognition results such as “praised” and “scold” given as the state recognition information D1 from the state recognition unit 30. Change sequentially.
【0036】また感情・本能モデル部31は、これと同
様にして、「愛情欲」、「探索欲」、「運動欲」、「充
電欲」及び「睡眠欲」の互いに独立した5つの欲求につ
いて、これら欲求ごとにその欲求の強さを表すパラメー
タを保持している。そして感情・本能モデル部31は、
これら各欲求のパラメータ値を、それぞれ状態認識部3
0からの認識結果や経過時間等に基づいて順次変更す
る。Similarly, the emotion / instinct model unit 31 has five independent desires of "love desire", "search desire", "exercise desire", "charge desire" and "sleep desire". , Each of these desires holds a parameter indicating the strength of the desire. And the emotion / instinct model part 31
The parameter value of each of these desires is set to the state recognition unit 3 respectively.
It is sequentially changed based on the recognition result from 0, the elapsed time, and the like.
【0037】一方、行動決定部32は、状態認識部30
から状態認識情報D1が与えられたときや、現在の行動
に移ってから一定時間経過したとき、感情・本能モデル
部31におけるいずれかの情動又は本能のパラメータ値
が閾値を超えたときなどに、内部メモリ10Aに格納さ
れている制御プログラム及び外部メモリ15に格納され
ている制御パラメータに基づいて次の行動を決定する。On the other hand, the action deciding section 32 includes the state recognizing section 30.
When the state recognition information D1 is given by the user, when a certain time has passed after the current action, or when the emotion or instinct model 31 has any emotion or instinct parameter value exceeding a threshold value, The next action is determined based on the control program stored in the internal memory 10A and the control parameters stored in the external memory 15.
【0038】具体的に行動決定部32は、次の行動を決
定する手法として、図4に示すように、状態をノードN
DA0〜NDAnとして表現し、1つのノードNDA0
から次にどのノードNDA0〜NDAnに遷移するか
を、自ノードNDA0〜NDA nにおいて完結し又は各
ノードNDA0〜NDAn間を接続するアークARA0
〜ARAnに対してそれぞれ設定された遷移確率P0〜
Pnに基づいて確率的に決定する確率オートマトンと呼
ばれるアルゴリズムを用いる。Specifically, the action determining section 32 determines the state as a node N as shown in FIG. 4 as a method for determining the next action.
Expressed as D A0 to ND An , one node ND A0
Then which nodes or transitions to ND A0 ~ND An, connecting between its own node ND A0 to ND completed in A n or each node ND A0 to ND An from the arc AR A0
~ Transition Probability P 0 Set for AR An ~
An algorithm called a probabilistic automaton that determines probabilistically based on P n is used.
【0039】この場合この確率オートマトンにおける各
ノードNDA0〜NDAn間の接続関係や、各アークA
RA0〜ARAnに対する遷移確率P1〜Pn及び、各
アークARA0〜ARAnにそれぞれ対応付けられた行
動が制御パラメータ(行動モデル)として外部メモリ1
5に格納されている。In this case, the connection relation between the nodes ND A0 to ND An and the arcs A in this probability automaton.
R A0 to Ar transition probability P 1 to P n and for An, the external memory 1 as the arc AR A0 to Ar An action associated respectively control parameters (action model)
Stored in 5.
【0040】そして行動決定部32は、例えば状態認識
部30から状態認識情報D1が与えられたときや、現在
のノード(NDA0)に移ってから一定時間が経過した
とき、感情・本能モデル部31におけるいずれかの情動
又は本能のパラメータ値が閾値を超えたときなどに、か
かる確率オートマトンにおける次の遷移先のノード(N
DA0〜NDAn)を各アークARA0〜ARAnに対
する遷移確率P0〜P nに基づいて確率的に決定し、こ
のとき決定したノード(NDA0〜NDAn)と元のノ
ード(NDA0)をと接続するアーク(ARA0〜AR
An)に対応付けられた行動を次に発現すべき行動とし
て、行動決定情報D2として姿勢遷移制御部33に通知
する。Then, the action determining section 32, for example, recognizes the state.
When the state recognition information D1 is given from the section 30,
Node (NDA0) Has passed a certain time
When, any emotion in the emotion / instinct model part 31
Or when the instinct's parameter value exceeds the threshold,
The next transition destination node (N
DA0~ NDAn) Each arc ARA0~ ARAnAgainst
Transition probability P0~ P nProbabilistically based on
Node (NDA0~ NDAn) And the original
Mode (NDA0) Is connected to the arc (ARA0~ AR
An) As the action to be expressed next
And notifies the posture transition control unit 33 as the action determination information D2
To do.
【0041】姿勢遷移制御部33においては、行動決定
部32から行動決定情報D2が与えられると、当該行動
決定情報D2に基づく行動を行うためのペットロボット
1の一連の動作計画を立て、当該動作計画に基づく動作
指令情報D3をデバイス制御部34に出力する。In the posture transition control unit 33, when the action decision information D2 is given from the action decision unit 32, a series of action plans of the pet robot 1 for taking an action based on the action decision information D2 are made, and the action is concerned. The operation command information D3 based on the plan is output to the device control unit 34.
【0042】この場合姿勢遷移制御部33は、かかる動
作計画を立てる手法として、例えば図5に示すようなペ
ットロボット1がとり得る姿勢をそれぞれノードND
B0〜NDB2とし、遷移可能なノードNDB0〜ND
B2間を動作を表す有向アークARB0〜ARB5で結
び、かつ1つのノードNDB0〜NDB2で完結する動
作を自己動作アークARC0〜ARC3として表現する
有向グラフを用いる。In this case, the posture transition control section 33 determines the postures of the pet robot 1 as shown in FIG.
B0 to ND B2, and transitionable nodes ND B0 to ND
Conclusion In a directed arc AR B0 to Ar B5 representing the operation between B2, and the operation to complete on one node ND B0 to ND B2 using a directed graph to represent as a self-operating arc AR C0 ~AR C3.
【0043】具体的には、このペットロボット1の場
合、各ノードNDB0〜NDB2にはそれぞれ「立
つ」、「座る」、「伏せる」等の姿勢が対応付けられ、
これらノードNDB0〜NDB2間をそれぞれ結ぶ各有
向アークARB0〜ARB5には姿勢を遷移させるため
の動作が対応付けられている。また各自己動作アークA
RC 0〜ARC3には、それぞれ「歩く」、「ダンスす
る」、「頭を揺する」、「お手をする」等の対応するそ
の姿勢において発現できる各種動作が対応付けられてい
る。Specifically, in the case of the pet robot 1, each node ND B0 to ND B2 is associated with a posture such as “standing”, “sitting”, “down”, and the like.
The directed arcs AR B0 to AR B5 that connect the nodes ND B0 to ND B2 , respectively, are associated with the movement for changing the posture. Also, each self-moving arc A
R C 0 to A RC 3 are associated with various actions such as “walking”, “dancing”, “shaking the head”, and “handing” that can be expressed in the corresponding postures.
【0044】そして姿勢遷移制御部33は、行動決定部
32から「立て」、「歩け」、「ダンスしろ」等の行動
指令が行動決定情報D2として与えられると、有向アー
クARB0〜ARB2の向きに従いながら、現在のノー
ドNDB0〜NDB2から指定された姿勢又は動作が対
応付けられたノードNDB0〜NDB2又は有向アーク
ARB0〜ARB5若しくは自己動作アークARC0〜
ARC3に至る最短経路を探索し、当該探索した経路上
の各有向アークARB0〜ARB5や自己動作アークA
RC0〜ARC3にそれぞれ対応付けられた動作を順次
行わせるための動作指令を動作指令情報D3としてデバ
イス制御部34に次々と出力する。Then, the posture transition control unit 33 receives the action command such as "stand", "walk", "dance" from the action determining unit 32 as the action determining information D2, and then the directed arcs AR B0 to AR B2. while following the orientation node is designated attitude or operation associated with the current node ND B0 ~ND B2 ND B0 ~ND B2 or directed arc AR B0 to Ar B5 or self operating arc AR C0 ~
The shortest route to AR C3 is searched, and each directed arc AR B0 to AR B5 and the self-moving arc A on the searched route are searched.
The operation commands for sequentially performing the operations respectively associated with R C0 to AR C3 are sequentially output to the device control unit 34 as the operation command information D3.
【0045】例えば、姿勢制御制御部33は、ペットロ
ボット1が「伏せる」の姿勢にある場合において、行動
決定部32から「座ってバンザイ」という行動指令が与
えられた場合には、「伏せる」の姿勢に対応するノード
NDB2及び「座る」の姿勢に対応するノードNDB1
間を結ぶ有向アークARB1に対応付けられた「座る」
という動作(以下、これを「座り動作」と呼ぶ)の動作
指令と、自己動作アークARC1に対応付けられた「バ
ンザイ」という動作(以下、これを「バンザイ動作」と
呼ぶ)の動作指令とをデバイス制御部34に順次送出す
ることとなる。For example, when the pet robot 1 is in the "down" posture, the posture control control unit 33 "falls down" when the action determining unit 32 gives an action command of "sitting and banzai". ND B2 corresponding to the posture of “sit” and node ND B1 corresponding to the posture of “sitting”
"Sit" associated with the directed arc AR B1 that connects the two
And a motion command of a motion called "Banzai" (hereinafter, referred to as "Banzai motion") associated with the self-motion arc AR C1. Will be sequentially transmitted to the device control unit 34.
【0046】デバイス制御部34においては、姿勢遷移
制御部33が保持する有向グラフの各有向アークAR
B0〜ARB5や各自己動作アークARC0〜ARC3
にそれぞれ対応付けられた各動作にそれぞれ対応させ
て、その動作をペットロボット1に発現させるためにど
のアクチュエータ271〜27n(図2)をどのタイミ
ングでどのくらい駆動させるかといった、動作ごとの各
アクチュエータ271〜27nの時系列的な制御内容を
規定したファイル(以下、これを動作ファイルと呼ぶ)
を外部メモリ15内に有している。In the device control unit 34, each directed arc AR of the directed graph held by the posture transition control unit 33.
B0 to AR B5 and each self-moving arc AR C0 to AR C3
Each of the actions, such as which actuator 27 1 to 27 n (FIG. 2) is driven at which timing and in order to cause the pet robot 1 to express the action in association with each action respectively associated with the action. A file that defines the time-series control contents of the actuators 27 1 to 27 n (hereinafter, referred to as operation file)
In the external memory 15.
【0047】そしてデバイス制御部34は、姿勢遷移制
御部33から動作指令情報D3が与えられるごとに、対
応する動作ファイルを順次再生して当該動作ファイルに
格納された制御パラメータに基づく駆動信号S111〜
S11nを生成し、当該駆動信号S111〜S11nに
基づいて対応するアクチュエータ271〜27nを駆動
制御することにより、ペットロボット1に対応する動作
を発現させる。[0047] The device control unit 34, each time the given operation command information D3 from the posture transition control unit 33, are sequentially reproduced corresponding operation file based on the control parameters stored in the operation file drive signals S11 1 ~
S11 generates n, by a corresponding actuator 27 1 ~ 27 n for controlling the driving based on the driving signal S11 1 ~S11 n, expressing an operation corresponding to the pet robot 1.
【0048】従ってデバイス制御部34は、例えばペッ
トロボット1が「伏せる」の姿勢にある場合において、
姿勢遷移制御部33から上述の「座り動作」及び「バン
ザイ動作」の動作指令が順次与えられた場合には、まず
「座り動作」に対応する動作ファイルに基づき対応する
各アクチュエータ271〜27nを時系列的に順次制御
することによりペットロボット1に「座り動作」を発現
させ、この後これに続けて「バンザイ動作」に対応する
動作ファイルに基づき対応する各アクチュエータ271
〜27nを時系列的に順次制御することによりペットロ
ボット1に「バンザイ動作」を発現させる。これにより
ペットロボット1全体として、姿勢を「伏せる」から
「座る」に遷移し、その後「バンザイ」するという一連
の動作が発現されることとなる。Therefore, the device control section 34, for example, when the pet robot 1 is in the "down" posture,
When the above-mentioned “sit motion” and “banzai motion” motion commands are sequentially given from the posture transition control unit 33, first, the corresponding actuators 27 1 to 27 n based on the motion file corresponding to the “sitting motion”. The "sit motion" is expressed in the pet robot 1 by sequentially controlling the time series, and thereafter, the corresponding actuators 27 1 based on the motion file corresponding to the "Banzai motion".
The "banzai motion" is caused to appear in the pet robot 1 by sequentially controlling ~ 27 n in time series. As a result, the pet robot 1 as a whole exhibits a series of motions in which the posture is changed from “down” to “sitting” and then “banzai”.
【0049】またデバイス制御部34は、各種音のWA
VEファイルである複数の音声ファイルと、LED1
6、20(図2)の駆動データが格納された複数のLE
D駆動ファイルを外部メモリ15内に有しており、かか
る動作ファイルの再生時等にその動作ファイルと対応付
けられた音声ファイル及び又はLED駆動ファイルを同
時に再生することにより、ペットロボット1に動作と合
わせてスピーカ14(図2)から音声を出力させたり、
LED16、20を点滅駆動させる。Further, the device control unit 34 controls the WA of various sounds.
Multiple audio files that are VE files and LED1
A plurality of LEs in which drive data of 6 and 20 (FIG. 2) are stored
The pet drive 1 has a D drive file in the external memory 15, and when the motion file is played back, the voice file and / or the LED drive file associated with the motion file are played back at the same time, thereby causing the pet robot 1 to move. In addition, output audio from the speaker 14 (Fig. 2),
The LEDs 16 and 20 are driven to blink.
【0050】このようにしてコントローラ10において
は、外部及び内部の状況や、ユーザからの指令及び働き
かけの有無等に応じてペットロボット1を自律的に行動
させ得るようになされている。In this way, the controller 10 can make the pet robot 1 act autonomously according to the external and internal conditions, the command from the user and the presence or absence of the action.
【0051】(3)ペットロボット1における座り動作
次に、このペットロボット1における上述の「座り動
作」の具体的動きについて説明する。なおペットロボッ
ト1においては、各股関節25(図1)にピッチ方向
(図1において矢印yと平行な軸を中心とする回転方
向)及びロール方向(図1において矢印xと平行な軸を
中心とする回転方向)の2自由度を有し、各膝関節24
(図1)にピッチ方向の1自由度を有している。(3) Sitting Motion in Pet Robot 1 Next, a specific motion of the above-mentioned “sitting motion” in the pet robot 1 will be described. In the pet robot 1, each hip joint 25 (FIG. 1) has a pitch direction (a rotation direction around an axis parallel to the arrow y in FIG. 1) and a roll direction (centered around an axis parallel to the arrow x in FIG. 1). Each knee joint 24 has two degrees of freedom
(FIG. 1) has one degree of freedom in the pitch direction.
【0052】このペットロボット1の場合、「伏せる」
では、図6(A)に示すように、胴体部ユニット2の腹
部を地面40に接地させながら、前後左右の各脚部ユニ
ット3A〜3Dをそれぞれ矢印xで示す前方向に伸ばし
た姿勢をとる。In the case of this pet robot 1, "fall down"
Then, as shown in FIG. 6 (A), while the abdomen of the body unit 2 is grounded on the ground 40, the front, rear, left and right leg units 3A to 3D are respectively extended in the forward direction indicated by the arrow x. .
【0053】そしてペットロボット1は、この状態から
「腕立て伏せ」のときと同様にして、左右前側の脚部ユ
ニット(以下、これらを前脚部ユニットと呼ぶ)3A、
3Bを屈曲及び伸長することにより、図6(B)に示す
ように、胴体部ユニット2の腹部後端部である尻相当部
の曲面部2Bを地面40に接地させながら、後側の両脚
部ユニット(以下、これらを後脚部ユニットと呼ぶ)3
C、3Dを前方向に伸ばし、かつ各前脚部ユニット3
A、3Bの各脛部23の先端部をそれぞれ接地させた姿
勢に遷移する。Then, in the same manner as in the case of "pushing up" from this state, the pet robot 1 has left and right front leg units (hereinafter, referred to as front leg units) 3A,
By bending and extending 3B, as shown in FIG. 6 (B), while the curved surface portion 2B of the hip corresponding to the rear end of the abdomen of the body unit 2 is grounded on the ground 40, both legs on the rear side are grounded. Unit (hereinafter these are referred to as rear leg units) 3
Extend C and 3D forward, and each front leg unit 3
The postures of the tip portions of the shins 23 of A and 3B are changed to a posture in which the tip portions are grounded.
【0054】次いでペットロボット1は、各後脚部ユニ
ット3C、3Dの膝関節24のアクチュエータ271〜
27nと、各後脚部ユニット3C、3Dと胴体部ユニッ
ト2とをそれぞれ連結する股関節(以下、これらをそれ
ぞれ後股関節と呼ぶ)25のピッチ方向のアクチュエー
タ271〜27nとをそれぞれ駆動することにより、図
7(A)に示すように、各後脚部ユニット3C、3Dの
太腿部22を、これら後脚部ユニット3C、3Dの脛部
23が地面40と垂直よりも小さい所定の傾きをもって
接触した所定の回転位置に位置させた姿勢をとる。Next, the pet robot 1 uses the actuators 27 1 to 27 1 of the knee joint 24 of each of the rear leg units 3C and 3D.
27 n and the actuators 27 1 to 27 n in the pitch direction of hip joints (hereinafter, these are referred to as rear hip joints) 25 that respectively connect the rear leg units 3C and 3D to the body unit 2 respectively. As a result, as shown in FIG. 7 (A), the thighs 22 of the respective rear leg units 3C and 3D, and the shins 23 of these rear leg units 3C and 3D have a predetermined size smaller than perpendicular to the ground 40. It takes a posture in which it is positioned at a predetermined rotational position where it comes into contact with an inclination.
【0055】そしてペットロボット1は、この後、胴体
部ユニット2に各後脚部ユニット3C、3Dの大腿部2
2を固定するように(すなわち、各後脚部ユニット3
C、3Dの大腿部22がそれぞれ胴体部ユニット2に対
して相対的にピッチ方向に回転しないように)、後股関
節25のピッチ方向のアクチュエータ271〜27nに
発生させるトルクを制御しながら、各後脚部ユニット3
C、3Dの膝関節24のアクチュエータ271〜27n
を駆動してこれら膝関節24を曲げることにより、各後
脚部ユニット3C、3Dの脛部23をそれぞれ地面40
を押すように回転させる。After that, the pet robot 1 then attaches to the body unit 2 the thighs 2 of the rear leg units 3C and 3D.
2 so as to fix (ie, each rear leg unit 3
While controlling the torques generated in the pitch direction actuators 27 1 to 27 n of the rear hip joint 25 so that the C and 3D thighs 22 do not rotate in the pitch direction relative to the body unit 2, respectively. , Each rear leg unit 3
Actuators 27 1 to 27 n of the C and 3D knee joint 24
By driving the knee joint 24 by bending, the shins 23 of the rear leg units 3C and 3D are respectively moved to the ground 40.
Rotate to press.
【0056】この結果、各後脚部ユニット3C、3Dの
脛部23の回転に伴ってこれら脛部23が地面24とな
す角が垂直に近づき、これに伴ってこれら脛部23によ
って各後脚部ユニット3C、3Dの膝関節24が当該脛
部23の長手方向に押されていく。このとき各後脚部ユ
ニット3C、3Dの大腿部22は、それぞれ上述のよう
に胴体部ユニット2に対して相対的にピッチ方向に回転
しないように固定されていることにより、胴体部ユニッ
ト2が尻相当部の曲面部2Bの接地部位を中心として後
方向(矢印xと逆方向)に倒れるように回転する。As a result, as the shins 23 of the rear leg units 3C and 3D rotate, the angles formed by the shins 23 and the ground 24 become closer to vertical, and accordingly, the shins 23 cause the rear legs to move. The knee joints 24 of the unit units 3C and 3D are pushed in the longitudinal direction of the shin 23. At this time, since the thighs 22 of the rear leg units 3C and 3D are fixed so as not to rotate in the pitch direction relative to the body unit 2 as described above, the body unit 2 Rotates around the ground contact portion of the curved surface portion 2B corresponding to the hip in a backward direction (direction opposite to the arrow x).
【0057】そしてペットロボット1は、このようにし
て各後脚部ユニット3C、3Dの膝関節24を所定角度
まで曲げ終えると、この後これに続けて各後脚部ユニッ
ト3C、3Dにおける膝関節24のピッチ方向のアクチ
ュエータ271〜27nを駆動して、各後脚部ユニット
3C、3Dの脛部23が地面40上を前方向に摺動させ
るようにこれら膝関節24を伸ばしながら、各後股関節
25のピッチ方向のアクチュエータ271〜27nを駆
動して、胴体部ユニット2を起こす方向(後方向)に回
転させる。When the pet robot 1 finishes bending the knee joint 24 of each of the rear leg units 3C and 3D to a predetermined angle in this way, the knee joint of each of the rear leg units 3C and 3D is subsequently continued. While driving the actuators 27 1 to 27 n in the pitch direction of 24 to extend the knee joints 24 so that the shins 23 of the rear leg units 3C and 3D slide forward on the ground 40, The actuators 27 1 to 27 n in the pitch direction of the rear hip joint 25 are driven to rotate the body unit 2 in the raising direction (backward direction).
【0058】この結果、胴体部ユニット2が尻相当部2
Bを接地させながら後方向に倒れるように回転しながら
徐々に起き上がり、やがて胴体部ユニット2の尻相当部
に設けられた図示しない平面部を接地させた状態でこの
一連の起き上がり動作が終了して図8に示すような「座
る」の姿勢となる。As a result, the body unit 2 becomes
While B is grounded, it gradually rises while rotating backward so as to fall down, and eventually this series of standing-up motions is completed with the flat surface portion (not shown) provided at the buttocks of the body unit 2 grounded. It becomes a "sit" posture as shown in FIG.
【0059】ここで、このようなペットロボット1の一
連の座り動作において、各後股関節25のピッチ方向の
アクチュエータ271〜27nに必要なトルクと、各後
脚部ユニット3C、3Dの膝関節のアクチュエータ27
1〜27nに必要なトルクとを考える。Here, in such a series of sitting motions of the pet robot 1, the torque required for the actuators 27 1 to 27 n in the pitch direction of each rear hip joint 25 and the knee joints of each rear leg unit 3C, 3D. Actuator 27
Consider the torque required to 1 ~27 n.
【0060】例えば図6(B)の状態から、従来のよう
に、後股関節25のピッチ方向のアクチュエータ271
〜27nのみを用いて胴体部ユニット2を起こす場合に
おいて、当該アクチュエータ271〜27nが胴体部ユ
ニット2を起こすのに必要なトルクmを発生させたとき
に、後脚部ユニット3C、3Dが接地部位において地面
を押す力Fは、図9(A)を参照して、次式For example, from the state of FIG. 6 (B), the actuator 27 1 in the pitch direction of the rear hip joint 25 as in the conventional case.
In the case of raising the torso unit 2 by using only ~ 27 n , when the actuators 27 1 to 27 n generate the torque m required to raise the torso unit 2, the rear leg units 3C and 3D. The force F that pushes the ground at the ground contact area is calculated by the following equation with reference to FIG.
【0061】[0061]
【数3】 [Equation 3]
【0062】により表すことができる。Can be represented by
【0063】これに対して、本実施の形態によるペット
ロボット1のように、この力Fを、胴体部ユニット2に
対する後脚部ユニット3C、3Dの太腿部22の位置を
固定して当該後脚部ユニット3C、3Dの膝関節24の
アクチュエータ271〜27 nにより発生させる場合、
当該膝関節24のモーメントM2´は、図9(A)を参
照して、近似的に次式On the other hand, the pet according to the present embodiment
Like the robot 1, this force F is applied to the body unit 2
The position of the thigh 22 of the rear leg unit 3C, 3D
Fix and fix the knee joint 24 of the rear leg unit 3C, 3D.
Actuator 271~ 27 nWhen generated by
Moment M of the knee joint 24TwoRefer to Fig. 9 (A)
Approximately,
【0064】[0064]
【数4】 [Equation 4]
【0065】で表される。It is represented by
【0066】この場合、次式In this case,
【0067】[0067]
【数5】 [Equation 5]
【0068】が成り立つことから、(1)式及び(4)
式の比較からも、力点から作用点までの距離((1)式
の場合は(L1+L2)、(4)式の場合はL2)が短
くなった分、膝関節24のアクチュエータ271〜27
nが発生すべきトルクM2´が後股関節25のピッチ方
向のアクチュエータ271〜27nにより発生させたト
ルクM1で胴体部ユニット2を起こす場合に比べて小さ
くて済むことが分かる。Since the following holds, the equations (1) and (4)
From comparison of the formula, (in the case of (1) (L 1 + L 2), (4) L 2 in the case of formula) the distance from the power point to the action point amount that is shortened, the actuator 27 of the knee joint 24 1-27
It can be seen that the torque M 2 ′ that n should generate is smaller than that when the body unit 2 is raised by the torque M 1 generated by the actuators 27 1 to 27 n in the pitch direction of the rear hip joint 25.
【0069】実際上、例えばL1及びL2がほぼ等しい
ときには、膝関節24のアクチュエータ271〜27n
が発生すべきトルクM2´は後股関節25のピッチ方向
のアクチュエータ271〜27nにより発生させたトル
クM1で胴体部ユニット2を起こす場合の約半分とな
る。In practice, for example, when L1 and L2 are substantially equal, the actuators 27 1 to 27 n of the knee joint 24 are
The torque M 2 ′ that should be generated is about half that when the body unit 2 is raised by the torque M 1 generated by the actuators 27 1 to 27 n in the pitch direction of the rear hip joint 25.
【0070】一方、このとき後股関節25のピッチ方向
のアクチュエータ271〜27nが胴体部ユニット2を
支える(後脚部ユニット3C、3Dの太腿部22を胴体
部ユニット2に対して固定する)のに必要なトルクM2
は、次式On the other hand, at this time, the actuators 27 1 to 27 n in the pitch direction of the rear hip joint 25 support the torso unit 2 (the thighs 22 of the rear leg units 3C and 3D are fixed to the torso unit 2). ) Required torque M 2
Is the expression
【0071】[0071]
【数6】 [Equation 6]
【0072】となる。It becomes
【0073】従って、次式Therefore, the following equation
【0074】[0074]
【数7】 [Equation 7]
【0075】なる関係が成立すれば、胴体部ユニット2
が自重により正面方向に倒れようとするトルクT´に負
けることなく、後股関節25のピッチ方向のアクチュエ
ータ271〜27nが発生するトルクM2によって後脚
部ユニット3C、3Dの太腿部22を胴体部ユニット2
に固定しながら、当該後脚部ユニット3C、3Dの膝関
節24のアクチュエータ271〜27nが発生するトル
クM2´によって胴体部ユニット2を起こすことができ
ることが分かる。If the following relationship is established, the body unit 2
Does not lose the torque T ′ that tends to fall in the front direction due to its own weight, and the torque M 2 generated by the actuators 27 1 to 27 n in the pitch direction of the rear hip joint 25 causes the thigh portion 22 of the rear leg units 3C and 3D. Torso unit 2
It can be seen that the body unit 2 can be raised by the torque M 2 ′ generated by the actuators 27 1 to 27 n of the knee joint 24 of the rear leg units 3C and 3D while being fixed to.
【0076】ここで、このトルクM2と、(1)式のト
ルクM1との関係を考えると、後股関節25におけるピ
ッチ方向のアクチュエータ271〜27nの最大トルク
をT 0、当該アクチュエータ271〜27nに設けられ
た減速機構の減速比をZ、この減速機構の伝達効率をη
とすると、減速機構を介して出力される最大出力トルク
Tは次式Here, this torque MTwoAnd the expression (1)
Luk M1Considering the relationship with the
Actuator 271~ 27nMaximum torque of
To T 0, The actuator 271~ 27nProvided in
The reduction ratio of the reduction mechanism is Z, and the transmission efficiency of this reduction mechanism is η
Then, the maximum output torque output through the reduction mechanism
T is the following formula
【0077】[0077]
【数8】 [Equation 8]
【0078】であり、減速機構の出力側からアクチュエ
ータ271〜27nの最大トルクに打ち勝って逆回転さ
せるときに必要な逆回転トルク((7)式のT´)は、
次式The reverse rotation torque (T 'in the equation (7)) required to overcome the maximum torque of the actuators 27 1 to 27 n from the output side of the reduction mechanism to reversely rotate is
The following formula
【0079】[0079]
【数9】 [Equation 9]
【0080】であるが、伝達効率ηは、次式The transmission efficiency η is
【0081】[0081]
【数10】 [Equation 10]
【0082】を満たすため、次式To satisfy the following equation,
【0083】[0083]
【数11】 [Equation 11]
【0084】なる関係が成立する。The following relationship is established.
【0085】従って、この(11)式、(2)式及び
(7)式からも明らかなように、本実施の形態において
後股関節25のピッチ方向のアクチュエータ271〜2
7nに必要とされるトルクM2は、従来の動作方法にお
いて必要であったトルクM1よりも小さい値となること
から、当該アクチュエータ271〜27nとして従来と
同じものを用いた場合においても、かかる一連の動作を
円滑かつ確実に行うことができる。Therefore, as is apparent from the equations (11), (2) and (7), the actuators 27 1 to 27 1 in the pitch direction of the rear hip joint 25 in the present embodiment.
Since the torque M 2 required for 7 n is a value smaller than the torque M 1 required in the conventional operation method, when the same actuators 27 1 to 27 n as the conventional actuators are used. Also, such a series of operations can be performed smoothly and reliably.
【0086】またこの後図7(B)の状態から各後股関
節25及び各後脚部ユニット3C、3Dの膝関節24を
駆動して図8の状態に移行する場合も、図9(A)及び
(B)を参照すると、各後脚部ユニット3C、3Dの膝
関節部24を屈曲させている分だけ後股関節25におけ
る後脚部ユニットの回転中心P1である力点と、その後
脚部ユニット3C、3Dにおける脛部23先端の接地部
位P2である作用点との距離lが図9(A)のように後
脚部ユニット3C、3Dを伸ばした場合の距離(L1+
L2)に比べて短い。Further, when the rear hip joints 25 and the knee joints 24 of the rear leg units 3C and 3D are driven from the state shown in FIG. 7B to the state shown in FIG. With reference to (B) and (B), the force point that is the rotation center P 1 of the rear leg unit in the rear hip joint 25 and the rear leg unit in the rear hip joint 25 by the amount of bending of the knee joint portion 24 of each rear leg unit 3C, 3D. The distance 1 from the point of action of the tip of the shin 23 in 3C and 3D, which is the ground contact portion P 2 , is the distance (L 1 + when the rear leg units 3C and 3D are extended as shown in FIG. 9A).
Shorter than L 2 ).
【0087】従って、このペットロボット1において
は、その分胴体部ユニット2を起き上がらせる際の後股
関節25におけるピッチ方向のアクチュエータ271〜
27nの負荷モーメントが小さく、これに応じて必要な
トルクも従来(図9(A))の場合に比べて小さくなる
ことから、当該アクチュエータ271〜27nとして従
来と同じものを用いた場合においても図7(B)以降の
動作も円滑かつ確実に行うことができる。Therefore, in the pet robot 1, the actuators 27 1 to 27 1 in the pitch direction at the rear hip joint 25 when the body unit 2 is raised by that amount.
Since the load moment of 27 n is small and the torque required accordingly is smaller than that of the conventional case (FIG. 9 (A)), when the same actuators 27 1 to 27 n as the conventional one are used. Also in FIG. 7, the operation after FIG. 7B can be smoothly and surely performed.
【0088】さらにこのペットロボット1では、図7
(B)以降においては、各後脚部ユニット3C、3Dの
膝関節24を、当該後脚部ユニット3C、3Dの脛部2
3の接地部位を地面40上を摺動させながら伸ばすよう
に動作するため、その反作用として胴体部ユニット2を
起こす際のアシストともなり、その分より後股関節25
におけるピッチ方向のアクチュエータ271〜27nに
与えられる負荷を軽減させることができる。Furthermore, in this pet robot 1, as shown in FIG.
After (B), the knee joint 24 of each rear leg unit 3C, 3D is replaced by the shin 2 of the rear leg unit 3C, 3D.
Since it operates so as to extend the grounded portion of the body 3 while sliding it on the ground 40, it also assists in raising the body unit 2 as a reaction, and the rear hip joint 25
The load applied to the actuators 27 1 to 27 n in the pitch direction can be reduced.
【0089】(4)本実施の形態の動作及び効果
以上の構成において、このペットロボット1では、座り
動作時、図6(B)の状態から各後脚部ユニット3C、
3Dの太腿部を僅かに持ち上げながら、脛部23の先端
部が接地するように膝関節24を屈曲させ、この後各後
脚部ユニット3C、3Dの太腿部22を胴体部ユニット
2に固定しながら、各後脚部ユニット3C、3Dの脛部
23により地面40を押すように膝関節24を屈曲させ
ることにより、図7(B)の姿勢に移行する。(4) Operations and Effects of the Present Embodiment In the pet robot 1 having the above-mentioned configuration, the rear leg units 3C, 3C, from the state of FIG.
While slightly lifting the 3D thigh, the knee joint 24 is bent so that the tip of the shin 23 may come into contact with the ground, and then the thighs 22 of the respective rear leg units 3C and 3D are attached to the body unit 2. While being fixed, the knee joint 24 is bent so as to push the ground 40 by the shin 23 of each of the rear leg units 3C and 3D, thereby shifting to the posture of FIG. 7B.
【0090】そしてこの後、各後脚部ユニット3C、3
Dの脛部23の接地部位を地面40上を摺動させなが
ら、当該各後脚部ユニット3C、3Dの膝関節24を伸
ばしつつ、後股関節25におけるピッチ方向のアクチュ
エータ271〜27nが発生するトルクによって胴体部
ユニット2を起こすことにより図8の「座る」の姿勢に
遷移する。After this, each rear leg unit 3C, 3
Actuators 27 1 to 27 n in the pitch direction in the rear hip joint 25 are generated while sliding the ground contact portion of the shin 23 of D on the ground 40 and extending the knee joint 24 of each of the rear leg units 3C and 3D. When the body unit 2 is raised by the torque that is applied, the posture shifts to the "sit" position in FIG.
【0091】そしてこのような一連の動きによって、後
股関節25におけるピッチ方向のアクチュエータ271
〜27nに必要とされるトルクを従来に比べて小さくす
ることができ、その分従来と同じ出力トルクのアクチュ
エータを271〜27n用いた場合においても、接地面
の状況等の影響を受け難くして、かかる座り動作を円滑
かつ確実に行わせることができる。By such a series of movements, the actuator 27 1 in the pitch direction in the rear hip joint 25 1
The torque required for ~ 27 n can be made smaller than that of the conventional one , and even when an actuator of the same output torque as that of the conventional one is used, 27 1 to 27 n , it is affected by the condition of the ground surface, etc. This makes it difficult to smoothly and surely perform such sitting motion.
【0092】以上の構成によれば、ペットロボット1の
座り動作を上述のような後脚部ユニット3C、3Dの屈
曲及び伸長動作を利用して行うようにしたことにより、
後股関節25におけるピッチ方向のアクチュエータ27
1〜27nに必要とされるトルクを従来に比べて小さく
することができ、座り動作を円滑かつ確実に行わせるこ
とができる。かくするにつきペットロボット1の発現動
作を自然なものとして、当該ペットロボット1のエンタ
ーテイメント性を向上させることができる。According to the above configuration, the sitting motion of the pet robot 1 is performed by utilizing the bending and extending motions of the rear leg units 3C and 3D as described above.
The actuator 27 in the pitch direction in the rear hip joint 25
The torque required for 1 to 27 n can be made smaller than in the conventional case, and the sitting motion can be performed smoothly and reliably. In this way, the expression operation of the pet robot 1 can be made natural, and the entertainment property of the pet robot 1 can be improved.
【0093】(5)他の実施の形態
なお上述の実施の形態においては、本発明を、胴体部ユ
ニット2に第1の関節機構としての股関節部25を介し
て第1のリンクとしての大腿部22が連結されると共
に、大腿部22に第2の関節機構としての膝関節部24
を介して第2のリンクとしての脛部23が連結された図
1のように構成されたペットロボット1に適用するよう
にした場合について述べたが、本発明はこれに限らず、
これ以外の構成のペットロボットや、ペットロボット以
外のこの他種々のロボット装置に広く適用することがで
きる。(5) Other Embodiments In the above-described embodiments, the present invention is applied to the body unit 2 via the hip joint 25 as the first joint mechanism and the thigh as the first link. The part 22 is connected, and the thigh 22 is provided with a knee joint 24 as a second joint mechanism.
The case of applying the pet robot 1 configured as shown in FIG. 1 in which the shin 23 as the second link is connected via the above has been described, but the present invention is not limited to this.
The present invention can be widely applied to pet robots having other configurations and various other robot devices other than pet robots.
【0094】また上述の実施の形態においては、図7
(A)の姿勢において、各後脚部ユニット3C、3Dの
脛部23を地面40と垂直よりも小さい所定の傾きをも
って接触させるようにした場合について述べたが、本発
明はこれに限らず、要は、各後脚部ユニット3C、3D
の太腿部22を地面40(動作基準面)と垂直よりも小
さい傾きをもって接触できる所定の回転位置に位置させ
るのであれば、このときに各後脚部ユニット3C、3D
の脛部23が地面40と接触していなくても良い。Further, in the above-described embodiment, FIG.
In the posture of (A), the case has been described in which the shin 23 of each of the rear leg units 3C and 3D is brought into contact with the ground 40 with a predetermined inclination smaller than the vertical, but the present invention is not limited to this. In short, each rear leg unit 3C, 3D
If the thigh portion 22 of each of the rear leg units 3C and 3D is to be positioned at a predetermined rotational position where it can contact the ground 40 (movement reference plane) with an inclination smaller than vertical.
The shin 23 may not be in contact with the ground 40.
【0095】[0095]
【発明の効果】以上のように本発明によれば、胴体部に
第1の関節機構を介して第1のリンクが連結されると共
に、第1のリンクに第2の関節機構を介して第2のリン
クが連結されたロボット装置において、第1のリンクを
回転駆動する第1の駆動手段と、第2のリンクを回転駆
動する第2の駆動手段と、第1及び第2の駆動手段を制
御する制御手段とを設け、制御手段が、第1の駆動手段
を制御して、第1のリンクを、第2のリンクが胴体部が
置かれた動作基準面と垂直よりも小さい傾きをもって接
触できる所定の回転位置に位置させた後、第1及び第2
の駆動手段を制御して、胴体部に対して第1のリンクを
固定するように第1の駆動手段にトルクを発生させなが
ら、第2のリンクにより動作基準面を押すように第2の
リンクを回転駆動させるようにしたことにより、第1の
駆動手段を駆動する場合に比してより円滑かつ確実に胴
体部を持ち上げることができ、かくして円滑かつ確実な
動作発現を可能とするロボット装置を実現できる。As described above, according to the present invention, the first link is connected to the body through the first joint mechanism, and the first link is connected through the second joint mechanism. In the robot apparatus in which the two links are connected, a first driving unit that rotationally drives the first link, a second driving unit that rotationally drives the second link, and a first driving unit and a second driving unit. And a control means for controlling the first drive means to contact the first link with the second link at an inclination smaller than perpendicular to the operation reference plane on which the body is placed. After the first and second rotational positions are made possible,
The second link to push the motion reference plane by the second link while controlling the drive means to generate torque in the first drive means so as to fix the first link to the body part. By rotationally driving the robot, it is possible to lift the body portion more smoothly and surely as compared with the case of driving the first driving means, and thus, a robot apparatus that enables smooth and reliable movement expression. realizable.
【0096】また本発明によれば、胴体部に第1の関節
機構を介して第1のリンクが連結されると共に、第1の
リンクに第2の関節機構を介して第2のリンクが連結さ
れ、第1の関節機構に第1のリンクを回転駆動する第1
の駆動手段が設けられると共に、第2の関節機構に第2
のリンクを回転駆動する第2の駆動手段が設けられたロ
ボット装置の制御方法において、第1の駆動手段を制御
して、第1のリンクを、第2のリンクが胴体部が置かれ
た動作基準面と垂直よりも小さい傾きをもって接触でき
る所定の回転位置に位置させる第1のステップと、第1
及び第2の駆動手段を制御して、胴体部に対して第1の
リンクを固定するように第1の駆動手段にトルクを発生
させながら、第2のリンクにより動作基準面を押すよう
に第2のリンクを回転駆動させる第2のステップとを設
けるようにしたことにより、第1の駆動手段を駆動する
場合に比してより円滑かつ確実に胴体部を持ち上げるこ
とができ、かくして円滑かつ確実な動作発現を可能とす
るロボット装置の制御方法を実現できる。According to the present invention, the first link is connected to the body part via the first joint mechanism, and the second link is connected to the first link via the second joint mechanism. And a first joint mechanism for rotationally driving the first link.
Drive means is provided, and the second joint mechanism has a second
In a method of controlling a robot apparatus provided with a second drive means for rotationally driving the link, the first drive means is controlled to move the first link and the second link with the body portion placed. A first step of arranging in a predetermined rotational position where the reference surface can be contacted with an inclination smaller than vertical and a first step;
And controlling the second drive means to generate torque in the first drive means so as to fix the first link to the body portion, and to press the operation reference plane by the second link. By providing the second step of rotationally driving the second link, the body portion can be lifted more smoothly and surely as compared with the case of driving the first driving means, and thus smooth and reliable. It is possible to realize a control method of a robot apparatus that enables various motions to be expressed.
【図1】本実施の形態によるペットロボットの外観構成
を示す略線的な斜視図である。FIG. 1 is a schematic perspective view showing an external configuration of a pet robot according to this embodiment.
【図2】ペットロボットの内部構成を示すブロック図で
ある。FIG. 2 is a block diagram showing an internal configuration of a pet robot.
【図3】コントローラの処理の説明に供するブロック図
である。FIG. 3 is a block diagram for explaining processing of a controller.
【図4】確率オートマトンの説明に供する概念図であ
る。FIG. 4 is a conceptual diagram for explaining a probability automaton.
【図5】有向グラフの説明に供する概念図である。FIG. 5 is a conceptual diagram for explaining a directed graph.
【図6】ペットロボットの座り動作の説明供する側面図
である。FIG. 6 is a side view for explaining a sitting motion of the pet robot.
【図7】ペットロボットの座り動作の説明供する側面図
である。FIG. 7 is a side view for explaining a sitting motion of the pet robot.
【図8】ペットロボットの座り動作の説明供する側面図
である。FIG. 8 is a side view for explaining a sitting motion of the pet robot.
【図9】各種姿勢の説明に供する略線図である。FIG. 9 is a schematic diagram for explaining various postures.
1……ペットロボット、2……胴体部ユニット、3A〜
3D……脚部ユニット、10……コントローラ、22…
…太腿部、23……脛部、24……膝関節、25……股
関節、40……地面。1 ... Pet robot, 2 ... Body unit, 3A ~
3D ... Leg unit, 10 ... Controller, 22 ...
… Thighs, 23 …… shins, 24 …… knee joints, 25 …… hip joints, 40 …… ground.
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 ED42 ED47 ED52 EF07 EF16 EF22 EF23 EF29 EF33 EF36 3C007 AS36 CS08 MT14 WA04 WA14 WC10 WC22 ─────────────────────────────────────────────────── ─── Continued front page F-term (reference) 2C150 CA02 DA05 DA24 DA26 DA27 DA28 ED42 ED47 ED52 EF07 EF16 EF22 EF23 EF29 EF33 EF36 3C007 AS36 CS08 MT14 WA04 WA14 WC10 WC22
Claims (2)
ンクが連結されると共に、上記第1のリンクに第2の関
節機構を介して第2のリンクが連結されたロボット装置
において、 上記第1の関節機構に設けられ、当該第1の関節機構内
の所定の第1の軸を中心として上記第1のリンクを回転
駆動する第1の駆動手段と、 上記第2の関節機構に設けられ、当該第2の関節機構内
の所定の第2の軸を中心として上記第2のリンクを回転
駆動する第2の駆動手段と、 上記第1及び第2の駆動手段を制御する制御手段とを具
え、 上記制御手段は、 上記第1の駆動手段を制御して、上記第1のリンクを、
上記第2のリンクが上記胴体部が置かれた動作基準面と
垂直よりも小さい傾きをもって接触できる所定の回転位
置に位置させた後、 上記第1及び上記第2の駆動手段を制御して、上記胴体
部に対して上記第1のリンクを固定するように上記第1
の駆動手段にトルクを発生させながら、上記第2のリン
クにより上記動作基準面を押すように上記第2のリンク
を回転駆動させることを特徴とするロボット装置。1. A robot apparatus in which a first link is connected to a body portion via a first joint mechanism, and a second link is connected to the first link via a second joint mechanism. In the first joint mechanism, there is provided a first drive means for rotationally driving the first link about a predetermined first axis in the first joint mechanism, and the second joint. A second drive means provided in the mechanism and rotationally driving the second link about a predetermined second axis in the second joint mechanism; and controlling the first and second drive means. Control means for controlling the first drive means to control the first link to
After the second link is positioned at a predetermined rotational position where it can contact the movement reference plane on which the body is placed with an inclination smaller than vertical, the first and second driving means are controlled, The first link so as to fix the first link to the body section.
A robot apparatus, wherein the second link is rotationally driven so as to push the operation reference plane by the second link while generating torque in the driving means.
ンクが連結されると共に、上記第1のリンクに第2の関
節機構を介して第2のリンクが連結され、上記第1の関
節機構に、当該第1の関節機構内の所定の第1の軸を中
心として上記第1のリンクを回転駆動する第1の駆動手
段が設けられると共に、上記第2の関節機構に、上記第
2の関節機構内の所定の第2の軸を中心として上記第2
のリンクを回転駆動する第2の駆動手段が設けられたロ
ボット装置の制御方法において、 上記第1の駆動手段を制御して、上記第1のリンクを、
上記第2のリンクが上記胴体部が置かれた動作基準面と
垂直よりも小さい傾きをもって接触できる所定の回転位
置に位置させる第1のステップと、 上記第1及び上記第2の駆動手段を制御して、上記胴体
部に対して上記第1のリンクを固定するように上記第1
の駆動手段にトルクを発生させながら、上記第2のリン
クにより上記動作基準面を押すように上記第2のリンク
を回転駆動させる第2のステップとを具えることを特徴
とするロボット装置の制御方法。2. A first link is connected to the body part via a first joint mechanism, and a second link is connected to the first link via a second joint mechanism. The first joint mechanism is provided with first drive means for rotationally driving the first link about a predetermined first axis in the first joint mechanism, and the second joint mechanism is The second axis about a predetermined second axis in the second joint mechanism.
In the control method of the robot apparatus, which is provided with the second driving means for rotationally driving the link, the first driving means is controlled so that the first link is
Controlling the first and second driving means, a first step of arranging the second link in a predetermined rotational position where the second link can come into contact with the operation reference plane on which the body portion is placed with an inclination smaller than vertical. The first link so as to fix the first link to the body portion.
And a second step of rotationally driving the second link so as to push the operation reference plane by the second link while generating torque in the driving means. Method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001268117A JP4556092B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus and control method of robot apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001268117A JP4556092B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus and control method of robot apparatus |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003071754A true JP2003071754A (en) | 2003-03-12 |
| JP4556092B2 JP4556092B2 (en) | 2010-10-06 |
Family
ID=19094148
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001268117A Expired - Fee Related JP4556092B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus and control method of robot apparatus |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4556092B2 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005297131A (en) * | 2004-04-12 | 2005-10-27 | Honda Motor Co Ltd | Legged mobile robot |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001150370A (en) * | 1999-11-24 | 2001-06-05 | Sony Corp | Legged mobile robot and method of controlling motion of legged mobile robot |
-
2001
- 2001-09-04 JP JP2001268117A patent/JP4556092B2/en not_active Expired - Fee Related
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001150370A (en) * | 1999-11-24 | 2001-06-05 | Sony Corp | Legged mobile robot and method of controlling motion of legged mobile robot |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005297131A (en) * | 2004-04-12 | 2005-10-27 | Honda Motor Co Ltd | Legged mobile robot |
| US7826925B2 (en) | 2004-04-12 | 2010-11-02 | Honda Motor Co., Ltd. | Legged mobile robot |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4556092B2 (en) | 2010-10-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4512963B2 (en) | Robot apparatus and control method thereof | |
| US6667593B2 (en) | Robot apparatus | |
| US6904334B2 (en) | Robot apparatus and method for controlling the operation thereof | |
| US6493606B2 (en) | Articulated robot and method of controlling the motion of the same | |
| JP5185473B1 (en) | Legged robot | |
| US20020089297A1 (en) | Self-stabilizing walking apparatus that is capable of being reprogrammed or puppeteered | |
| CN1304516A (en) | Robot device, its control method and recorded medium | |
| JPWO2000067960A1 (en) | Robot device and control method thereof | |
| CN1463215A (en) | Legged mobile robot and its action teaching method and storage medium | |
| CN1457287A (en) | Method, program, and recording medium for operation control of robot device, and robot device | |
| JP2003285288A (en) | Charging system and charging control method, robot device, charging device, charging control program, and recording medium | |
| JP2005342873A (en) | Robot apparatus and operation control method thereof | |
| JP2003071754A (en) | Robot apparatus and control method thereof | |
| WO2013121469A1 (en) | Legged robot | |
| JP6890207B2 (en) | robot | |
| JP4433273B2 (en) | Robot apparatus and control method of robot apparatus | |
| JP4506249B2 (en) | Robot apparatus and operation comparison method thereof | |
| JP2003071753A (en) | Robot device | |
| JP2003159681A (en) | Robot apparatus and control method thereof | |
| JP2003271196A (en) | Robot apparatus and control method thereof | |
| JP2004338056A (en) | Robot apparatus and control method thereof | |
| JP2004130428A (en) | Robot apparatus, operation control method for robot apparatus, recording medium, and program | |
| JP2003208161A (en) | Robot apparatus and control method thereof | |
| JP2003071757A (en) | Robot device | |
| JP2001157983A (en) | Robot apparatus and method for determining personality of robot apparatus |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080822 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100415 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100415 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100525 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100609 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100624 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100707 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130730 Year of fee payment: 3 |
|
| LAPS | Cancellation because of no payment of annual fees |