[go: up one dir, main page]

JP2002301674A - 脚式移動ロボット及びその運動教示方法、並びに記憶媒体 - Google Patents

脚式移動ロボット及びその運動教示方法、並びに記憶媒体

Info

Publication number
JP2002301674A
JP2002301674A JP2001104557A JP2001104557A JP2002301674A JP 2002301674 A JP2002301674 A JP 2002301674A JP 2001104557 A JP2001104557 A JP 2001104557A JP 2001104557 A JP2001104557 A JP 2001104557A JP 2002301674 A JP2002301674 A JP 2002301674A
Authority
JP
Japan
Prior art keywords
input
motion
mobile robot
legged mobile
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2001104557A
Other languages
English (en)
Inventor
Masato Ito
真人 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001104557A priority Critical patent/JP2002301674A/ja
Priority to US10/297,222 priority patent/US7024276B2/en
Priority to CN02801750A priority patent/CN1463215A/zh
Priority to PCT/JP2002/003288 priority patent/WO2002081157A1/ja
Priority to KR1020027016426A priority patent/KR20030007841A/ko
Publication of JP2002301674A publication Critical patent/JP2002301674A/ja
Abandoned legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Combustion & Propulsion (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

(57)【要約】 【課題】 階層型リカレント・ニューラル・ネットワーク
を用いて学習型運動制御を行う。 【解決手段】 人間の教示作業により与えられた運動パ
ターンを、階層型リカレント・ニューラル・ネットワーク
により自動的に時系列分節して、それらを組み合わせて
機体の運動制御を行うことで、さまざまな運動パターン
が生成可能になる。時系列分節化により、局所的な時系
列パターンとそれらを組み合わせた大局的パターンが生
成される。運動パターンは、機体の静的安定性や、動的
安定性の指標であるZMP安定規範を満たすなど、制御
安定性が保証されている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、複数の関節自由度
を備えた脚式移動ロボット及びその運動教示方法、並び
に記憶媒体に係り、特に、モーション・キャプチャなど
の教示作業を介して運動学的整合性並びにZMP安定度
判別規範などの動力学的整合性を満たした運動パターン
の教示を行う脚式移動ロボット及びその運動教示方法、
並びに記憶媒体に関する。
【0002】更に詳しくは、本発明は、リカレント・ニ
ューラル・ネットワークを用いて時系列的なデータであ
る運動パターンの学習を行う脚式移動ロボット及びその
運動教示方法、並びに記憶媒体に係り、特に、人間の教
示作業により与えられた運動パターンを階層型リカレン
ト・ニューラル・ネットワークを用いて自動的に時系列
分節して、それらを組み合わせて機体の運動制御を行う
ことで、さまざまな運動パターンを生成する脚式移動ロ
ボット及びその運動教示方法、並びに記憶媒体に関す
る。
【0003】
【従来の技術】電気的若しくは磁気的な作用を用いて人
間の動作に似せた運動を行う機械装置のことを「ロボッ
ト」という。ロボットの語源は、スラブ語の"ROBO
TA(奴隷機械)"に由来すると言われている。わが国で
は、ロボットが普及し始めたのは1960年代末からで
あるが、その多くは、工場における生産作業の自動化・
無人化などを目的としたマニピュレータや搬送ロボット
などの産業用ロボット(industrial robot)であった。
【0004】アーム式ロボットのように、ある特定の場
所に植設して用いるような据置きタイプのロボットは、
部品の組立・選別作業など固定的・局所的な作業空間で
のみ活動する。これに対し、移動式のロボットは、作業
空間は非限定的であり、所定の経路上又は無経路上を自
在に移動して、所定の若しくは任意の人的作業を代行し
たり、ヒトやイヌあるいはその他の生命体に置き換わる
種々の幅広いサービスを提供することができる。なかで
も脚式の移動ロボットは、クローラ式やタイヤ式などの
従来のロボットに比し、不安定で姿勢制御や歩行制御が
難しくなるが、階段や梯子の昇降や障害物の乗り越え
や、整地・不整地の区別を問わない柔軟な歩行・走行動
作を実現でき、複雑な人間の住空間で共存し得るという
点で優れている。
【0005】最近では、イヌやネコのように4足歩行の
動物の身体メカニズムやその動作を模したペット型ロボ
ット、あるいは、ヒトのような2足直立歩行を行う動物
の身体メカニズムや動作をモデルにしてデザインされた
「人間形」若しくは「人間型」のロボット(humanoid r
obot)など、脚式移動ロボットに関する研究開発が進展
し、実用化への期待も高まってきている。例えば、ソニ
ー株式会社は、平成12年11月25日に2足歩行の人
間型ロボット"SDR−3X"を公表した。
【0006】ところで、ロボットに対して所定動作を教
え込むことを、「教示」若しくは「ティーチング」と呼
ぶ。動作教示には、例えば、作業現場においてオペレー
タ又はユーザが手取り足取り教える教示方式や、計算機
などロボット外部のエディタ上で動作パターンの入力・
作成・編集を行う教示方式などが挙げられる。
【0007】しかしながら、従来のロボットにおいて
は、動作教示を行うために、オペレータはロボットの操
作環境を相当程度理解し習熟する必要があり、作業の負
担が過大であった。
【0008】また、ロボットの動作教示や学習に関する
従来の手法では、あらかじめモーション・データとして
ロボットに与えられ、その動作を外部の状況に合わせて
再生するというプロセスをとるものが一般的であった。
このような教示・学習手法によれば、ロボットの動作再
生時における運動学的整合性や動力学的整合性が見込ま
れる反面、新しい動作を生み出すことが困難であること
と、予期しない状況には対応することができないという
問題がある。また、モーションはオフラインで生成され
るものであるから、あらかじめ与えたモーションがロボ
ットの形状や現在の作業環境に対して最適であるという
保証もない。
【0009】また、人間型ロボットにおいて、人間が行
うような運動を行わせようとした場合、モーション・キ
ャプチャのような運動教示装置を介して得られた運動パ
ターンを用いてロボットの運動制御を行うという教示方
法が挙げられる。モーション・キャプチャによれば、人
間(オペレータ)の全身の各部位に取り付けた測定点を
カメラで捕捉し、それらの動きを追跡していくことで、
教示すべき運動パターンを実現するための骨格の動作を
得ることができる。
【0010】しかしながら、人間が行うさまざまな運動
をロボットに行わせようとした場合、それらの運動パタ
ーンをすべて保存しておく必要がある。
【0011】また、モーション・キャプチャなどの運動
教示装置を介して得られた運動パターンをそのままロボ
ットに適用することができるか不明である。例えば、オ
ペレータとロボットの機体とでは、全身の重量バランス
などの物理特性が相違するので、キャプチャされた運動
パターンをそのままロボットに適用しても、運動学的整
合性や、ZMP安定度判別規範などの動力学的整合性を
必ずしも満たしているとは限らず、教示運動が再現でき
ない場合がある。
【0012】ところで、近年、ロボットの制御にニュー
ラル・ネットワークを適用する事例が紹介されている。
【0013】ニューラル・ネットワークとは、人間の脳
における神経回路網を簡略化したモデルであり、神経細
胞ニューロンが一方向にのみ信号を通過するシナプスを
介して結合されているネットワークを意味する。ニュー
ロン間の信号の伝達はシナプスを介して行われ、シナプ
スの抵抗、すなわち重みを適当に調整することによりさ
まざまな情報処理が可能となる。各ニューロンは、他の
1以上のニューロンからの出力をシナプスによる重み付
けをして入力し、それら入力値の総和を非線型応答関数
の変形を加え、再度他のニューロンへ出力する。
【0014】ニューラル・ネットワークによる制御で
は、摩擦や粘性などの非線型問題にそのまま対応するこ
とができるとともに、学習機能を備えているので、パラ
メータの設定変更が不要になる。
【0015】例えば、本出願人に既に譲渡されている特
願2000−251483号明細書や特願2000−2
73805号明細書には、自律型移動ロボットにおいて
ニューラル・ネットワークを利用した学習機能について
開示されている。
【0016】このうち、特願2000−251483号
明細書には、カメラを始めとする知覚センサと、学習機
構としてのリカレント・ニューラル・ネットワークを備
えるロボットについて開示されている。このロボット
は、自身の持つ制御可能な部分によって外界の移動可能
な対象物を動かし、知覚センサによって対象物のおかれ
ている環境と、対象物の動きを知覚して、ロボットの各
関節部の動かし方と対象物の動きのとの関連を学習する
ことができる。また、ロボットは、対象物の動きを予測
して、ノベルティ・リワーディングにより対象物を動か
すモーションを自己学習することができる。
【0017】また、特願2000−273805号明細
書には、リカレント・ニューラル・ネットワークを用い
て時系列の事象を学習することができるロボットについ
て開示されている。このロボットは、教示信号として、
音楽情報と、時系列の関節角度パラメータを用いること
によって、音楽とロボットのポーズの対応付けを学習す
ることができる。学習後は、ロボットのポーズと聴覚か
ら得られる音楽情報より、次のロボットのポーズを予測
して音楽に合わせたダンスを実行することができる。ま
た、未だ教示していない曲に対しても、既に教示された
曲とダンスの経験から、以前に教示された局の中から近
いダンスを組み合わせてダンスを行うことができる。
【0018】しかしながら、モーション・キャプチャを
利用したロボットの運動教示に対してニューラル・ネッ
トワークを適用した事例は少ない。
【0019】
【発明が解決しようとする課題】本発明の目的は、モー
ション・キャプチャなどの教示作業を介して運動学的整
合性及や、ZMP安定度判別規範などの動力学的整合性
を満たした運動パターンの教示を行うことができる、優
れた脚式移動ロボット及びその運動教示方法、並びに記
憶媒体を提供することにある。
【0020】本発明の更なる目的は、人間の教示作業に
より与えられた運動パターンを階層型リカレント・ニュ
ーラル・ネットワークを用いて自動的に時系列分節し
て、それらを組み合わせて機体の運動制御を行うこと
で、さまざまな運動パターンを生成することができる、
優れた脚式移動ロボット及びその運動教示方法、並びに
記憶媒体を提供することにある。
【0021】
【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、その第1の側面
は、複数の関節自由度を持つ駆動部を備えた脚式移動ロ
ボットであって、外部から運動パターンを入力する運動
パターン入力部と、局所的な各関節自由度に関する実行
可能な運動パターンをあらかじめ記憶しておくととも
に、前記運動パターン入力部から入力された運動パター
ンと該記憶しておいた運動パターンとの一致を判定する
複数の判定部と、前記の各判定部における判定結果をゲ
ートするゲート部と、前記ゲート部による出力を合成し
て、前記脚式移動ロボットの機体における大局的な運動
パターンを生成する合成部と、前記合成部における合計
結果を教示された運動パターン・データとして保存し、
及び/又は、前記脚式移動ロボットの機体上で再現する
教示運動パターン実現部と、を具備することを特徴とす
る脚式移動ロボットである。
【0022】本発明の第1の側面に係る脚式移動ロボッ
トでは、前記の各判定部やゲート部は、それぞれリカレ
ント・ニューラル・ネットワークで構成される。
【0023】各判定部は、入力データが入力されるユニ
ット群である入力層と、ネットワークの出力を出すユニ
ット群である出力層と、それら以外のユニット群である
中間層からなるリカレント・ニューラル・ネットワークで
構成される。前記入力層は、前記脚式移動ロボットの機
体の局所的な時系列状の運動パターンが入力される入力
部と、コンテキスト部で構成される。また、前記中間層
は、隠れ部で構成される。また、前記出力層は、該局所
的な時系列状の運動パターンの予測を出力する出力部
と、コンテキスト部で構成される。そして、前記出力層
の出力の一部がコンテキスト・ループを介して前記入力
層のコンテキスト部にフィードバックされることで、判
定部は時系列状の運動パターンの学習を行なうことがで
きる。
【0024】また、ゲート部は、入力データが入力され
るユニット群である入力層と、ネットワークの出力を出
すユニット群である出力層と、それら以外のユニット群
である中間層からなるリカレント・ニューラル・ネットワ
ークで構成される。前記入力層は、前記の各判定部に対
する重みとなるゲートが入力される入力部と、コンテキ
スト部で構成される。また、前記中間層は、隠れ部で構
成される。また、前記出力層は、前記の各判定部に対す
る重みとなるゲートを出力する出力部と、コンテキスト
部で構成される。そして、前記出力層の出力の一部がコ
ンテキスト・ループを介して前記入力層のコンテキスト
部にフィードバックされることで、ゲート部は時系列状
のゲートの学習を行なうことができる。
【0025】本発明の第1の側面に係る脚式移動ロボッ
トにおいては、ゲート部を上位とし、各判定部を下位と
する階層型のリカレント・ニューラル・ネットワークが構
成される。各判定部により局所的な運動パターンが取り
扱われ、言い換えれば、運動パターンが自動的に時系列
分節して取り扱われる。そして、ゲート部によるゲート
出力を基に、合成部において脚式移動ロボットの機体全
体の大局的な運動パターンが生成される。
【0026】各判定部では、各関節自由度に関する実行
可能な運動パターンをあらかじめ記憶しておき、運動パ
ターン入力部から入力された運動パターンと該記憶して
おいた運動パターンとの一致を判定する。すなわち、各
判定部は、運動パターン入力部を介して教示された運動
パターンが実行可能であるか(すなわち機体の運動学的
整合性並びに動力学的整合性を満たすか)を経験的に判
定することができる。
【0027】そして、合成部では、各判定部の判定結果
をゲート部のゲート出力を基に合成することで、実行可
能性が保証された局所的な運動パターンを組み合わせ
て、大局的な運動パターンを生成することができる。こ
のような大局的な運動パターンは、脚式移動ロボットの
機体全体において運動学的整合性並びに動力学的整合性
が保証されたものである。
【0028】したがって、本発明の第1の側面に係る脚
式移動ロボットによれば、人間の教示作業により与えら
れた運動パターンを階層型リカレント・ニューラル・ネ
ットワークを用いて自動的に時系列分節して、それらを
組み合わせて機体の運動制御を行うことで、さまざまな
運動パターンを生成することができる訳である。
【0029】また、本発明の第1の側面に係る脚式移動
ロボットによれば、あらかじめ学習されたロボットにお
いて実行可能な運動パターンを利用して、人間の教示に
よる多様な動作を人間型ロボットに行なわせることがで
きる。
【0030】ここで言う実行可能な運動パターンは、前
記脚式移動ロボットの機体において運動学的整合性や、
ZMP安定度判別規範などの動力学的整合性が保証され
ている運動パターンのことである。
【0031】前記運動パターン入力部は、オペレータの
全身の各部位に取り付けた測定点をカメラで捕捉し、そ
れらの動きを追跡していくことで、教示すべき運動パタ
ーンを実現するための骨格の動作を得るモーション・キ
ャプチャ装置、若しくは該モーション・キャプチャ装置
を介して得られた運動パターン・データを入力する装置
であってもよい。
【0032】あるいは、前記運動パターン入力部は、テ
ィーチング・ペンダントを介して得られた運動パターン・
データを入力する装置であってもよい。
【0033】あるいは、前記運動パターン入力部は、前
記脚式移動ロボットの機体に対して直接印加される直接
教示を介して得られた運動パターン・データを入力する
装置であってもよい。
【0034】また、本発明の第2の側面は、複数の関節
自由度を持つ駆動部を備えた脚式移動ロボットの運動教
示方法であって、外部から運動パターンを入力する運動
パターン入力ステップと、局所的な各関節自由度に関す
る実行可能な運動パターンをあらかじめ記憶しておくと
ともに、前記運動パターン入力ステップにおいて入力さ
れた運動パターンと該記憶しておいた運動パターンとの
一致を判定する複数の判定ステップと、前記の各判定ス
テップにおける判定結果をゲートするゲート・ステップ
と、前記ゲートステップによる出力を合成して、前記脚
式移動ロボットの機体における大局的な運動パターンを
生成する合成ステップと、前記合成ステップにおける合
計結果を教示された運動パターン・データとして保存
し、及び/又は、前記脚式移動ロボットの機体上で再現
する教示運動パターン実現ステップと、を具備すること
を特徴とする脚式移動ロボットの運動教示方法である。
【0035】本発明の第2の側面に係る脚式移動ロボッ
トの運動教示方法では、前記の各判定ステップやゲート
・ステップは、それぞれリカレント・ニューラル・ネット
ワークで構成される。すなわち、ゲート・ステップを上
位とし、各判定ステップを下位とする階層型のリカレン
ト・ニューラル・ネットワークが構成される。各判定ステ
ップにより局所的な運動パターンが取り扱われ、言い換
えれば、運動パターンが自動的に時系列分節して取り扱
われる。そして、ゲート・ステップによるゲート出力を
基に、合成ステップにおいて脚式移動ロボットの機体全
体の大局的な運動パターンが生成される。
【0036】各判定ステップでは、各関節自由度に関す
る実行可能な運動パターンをあらかじめ記憶しておき、
運動パターン入力ステップにより入力された運動パター
ンと該記憶しておいた運動パターンとの一致を判定す
る。すなわち、各判定ステップでは、運動パターン入力
ステップを介して教示された運動パターンが実行可能で
あるか(すなわち機体における運動学的整合性並びに動
力学的整合性を満たすか)を経験的に判定することがで
きる。
【0037】そして、合成ステップでは、各判定ステッ
プの判定結果をゲート・ステップにおけるゲート出力を
基に合成することで、実行可能性が保証された局所的な
運動パターンを組み合わせて、大局的な運動パターンを
生成することができる。このような大局的な運動パター
ンは、脚式移動ロボットの機体全体において運動学的整
合性並びに動力学的整合性が保証されたものである。
【0038】したがって、本発明の第2の側面に係る脚
式移動ロボットの運動教示方法によれば、人間の教示作
業により与えられた運動パターンを階層型リカレント・
ニューラル・ネットワークを用いて自動的に時系列分節
して、それらを組み合わせて機体の運動制御を行うこと
で、さまざまな運動パターンを生成することができる訳
である。
【0039】また、本発明の第2の側面に係る脚式移動
ロボットの運動教示方法によれば、あらかじめ学習され
たロボットにおいて実行可能な運動パターンを利用し
て、人間の教示による多様な動作を人間型ロボットに行
なわせることができる。
【0040】また、本発明の第3の側面は、複数の関節
自由度を持つ駆動部を備えた脚式移動ロボットの運動教
示をコンピュータ・システム上で実行するように記述さ
れたコンピュータ・ソフトウェアをコンピュータ可読形
式で物理的に格納した記憶媒体であって、前記コンピュ
ータ・ソフトウェアは、外部から運動パターンを入力す
る運動パターン入力ステップと、局所的な各関節自由度
に関する実行可能な運動パターンをあらかじめ記憶して
おくとともに、前記運動パターン入力ステップにおいて
入力された運動パターンと該記憶しておいた運動パター
ンとの一致を判定する複数の判定ステップと、前記の各
判定ステップにおける判定結果をゲートするゲート・ス
テップと、前記ゲートステップによる出力を合成して、
前記脚式移動ロボットの機体における大局的な運動パタ
ーンを生成する合成ステップと、前記合成ステップにお
ける合計結果を教示された運動パターン・データとして
保存し、及び/又は、前記脚式移動ロボットの機体上で
再現する教示運動パターン実現ステップと、を具備する
ことを特徴とする記憶媒体である。
【0041】本発明の第3の側面に係る記憶媒体は、例
えば、様々なプログラム・コードを実行可能な汎用コン
ピュータ・システムに対して、コンピュータ・ソフトウ
ェアをコンピュータ可読な形式で提供する媒体である。
このような媒体は、例えば、CD(Compact Disc)やF
D(Floppy Disk)、MO(Magneto-Optical disc)な
どの着脱自在で可搬性の記憶媒体である。あるいは、ネ
ットワーク(ネットワークは無線、有線の区別を問わな
い)などの伝送媒体などを経由してコンピュータ・ソフ
トウェアを特定のコンピュータ・システムに提供するこ
とも技術的に可能である。
【0042】このような記憶媒体は、コンピュータ・シ
ステム上で所定のコンピュータ・ソフトウェアの機能を
実現するための、コンピュータ・ソフトウェアと記憶媒
体との構造上又は機能上の協働的関係を定義したもので
ある。換言すれば、本発明の第3の側面に係る記憶媒体
を介して所定のコンピュータ・ソフトウェアをコンピュ
ータ・システムにインストールすることによって、コン
ピュータ・システム上では協働的作用が発揮され、本発
明の第1の側面に係る脚式移動ロボット、あるいは第2
の側面に係る脚式移動ロボットの運動教示方法と同様の
作用効果を得ることができる。
【0043】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
【0044】
【発明の実施の形態】以下、図面を参照しながら本発明
の実施例を詳解する。
【0045】図1には、本発明の実施に供される脚式歩
行ロボット1の外観構成を前方並びに後方から眺めた様
子を示している。この歩行ロボットは、人間型若しくは
人間形をしたアミューズメント用のロボットであるが、
2本の腕部と頭部を含む上肢と、移動動作を実現する2
本の脚部からなる下肢と、上肢と下肢とを連結する体幹
部とで構成される。さらに、各足部の接地部分(足裏)
には、図示しない接触センサが取り付けられており、路
面に対する足部の着床を検出できるようになっている。
【0046】また、図2には、この脚式移動ロボット1
の関節自由度構成モデルを模式的に図解している。
【0047】頭部を支持する首関節は、首関節ヨー軸
と、首関節ピッチ軸と、首関節ロール軸という3自由度
を有している。
【0048】また、各腕部は、肩関節ピッチ軸と、肩関
節ロール軸と、上腕ヨー軸と、肘関節ピッチ軸と、前腕
ヨー軸と、手首関節ピッチ軸と、手首関節ロール軸と、
手部とで構成される。手部は、実際には、複数本の指を
含む多関節・多自由度構造体である。手部の動作をゼロ
自由度と仮定する。したがって、各腕部は7自由度を有
することになる。
【0049】また、体幹部は、体幹ピッチ軸と、体幹ロ
ール軸と、体幹ヨー軸という3自由度を有する。
【0050】また、下肢を構成する各々の脚部は、股関
節ヨー軸と、股関節ピッチ軸と、股関節ロール軸と、膝
関節ピッチ軸と、足首関節ピッチ軸と、足首関節ロール
軸と、足部とで構成される。人体の足部は実際には多関
節・多自由度の足底を含んだ構造体であるが、本実施例
に係る歩行ロボット1の足底はゼロ自由度とする。した
がって、左右の各脚部は6自由度で構成される。
【0051】以上を総括すれば、本実施例に係る歩行ロ
ボット1全体としては、合計で3+7×2+3+6×2
=32自由度を有することになる。但し、本発明に係る
脚式ロボットは32自由度に限定される訳ではない。設
計・製作上の制約条件や要求仕様等に応じて、自由度す
なわち関節数を適宜増減することができることは言うま
でもない。
【0052】脚式移動ロボット1が持つ各関節自由度
は、実際にはアクチュエータを用いて実装される。外観
上で余分な膨らみを排してヒトの自然体形状に近似させ
ること、2足歩行という不安定構造体に対して姿勢制御
を行うことなどの要請から、アクチュエータは小型且つ
軽量であることが好ましい。例えば、ギア直結型で且つ
サーボ制御系をワンチップ化してモータ・ユニットに内
蔵したタイプの小型ACサーボ・アクチュエータを各関
節に適用することができる。この種のACサーボ・アク
チュエータに関しては、例えば本出願人に既に譲渡され
ている特願平11−33386号明細書に開示されてい
る。
【0053】脚式移動ロボット1の胴体フレーム内に
は、マイクロコンピュータやその他の電子部品で実装さ
れる制御回路、並びに、図示のロボット・システム全体
に駆動電力を供給するためのバッテリ(いずれも図示し
ない)が搭載されている。これにより、歩行ロボット1
は、アクチュエータを必要に応じて駆動することによっ
て、あらかじめプログラムされた動作を実現することが
できる。
【0054】図3には、本実施形態に係る脚式移動ロボ
ット1の電気・制御系統の構成図を模式的に示してい
る。同図に示すように、脚式移動ロボット1は、全体の
動作の統括的制御やその他のデータ処理を行う制御部2
0と、入出力部40と、駆動部50と、電源部60とで
構成される。以下、各部について説明する。
【0055】入出力部40は、入力部として移動ロボッ
ト1の目に相当するCCDカメラ15や、耳に相当する
マイクロフォン16、触感に相当するタッチ・センサ1
8など、五感に相当する各種のセンサを含む。また、出
力部として、口に相当するスピーカ17などを装備して
いる。これら出力部は、脚などによる機械運動パターン
以外の形式で脚式移動ロボット1からのシンボリックな
ユーザ・フィードバックを表現することができる。
【0056】脚式移動ロボット1は、カメラ15を含む
ことで、作業空間上に存在する任意の物体の形状や色彩
を認識することができる。また、脚式移動ロボット1
は、カメラのような視覚手段の他に、赤外線、音波、超
音波、電波などの発信波を受信する受信装置をさらに備
えていてもよい。この場合、各伝送波を検知するセンサ
出力に基づいて発信源からの位置や向きを計測すること
ができる。
【0057】駆動部50は、制御部20が指令する所定
の運動パターンに従って歩行ロボット1の機械運動を実
現する機能ブロックであり、首関節、肩関節、肘関節、
体幹関節、股関節、膝関節、足首関節などのそれぞれの
関節におけるロール、ピッチ、ヨーなど各軸毎に設けら
れた駆動ユニットで構成される。図示の例では、歩行ロ
ボット1はn個の関節自由度を有し、したがって駆動部
50はn個の駆動ユニットで構成される。各駆動ユニッ
トは、所定軸回りの回転動作を行うモータ51と、モー
タ51の回転位置を検出するエンコーダ52と、エンコ
ーダ52の出力に基づいてモータ51の回転位置や回転
速度を適応的に制御するドライバ53の組み合わせで構
成される。
【0058】電源部60は、その字義通り、歩行ロボッ
ト1内の各電気回路等に対して給電を行う機能モジュー
ルである。本実施例に係る歩行ロボット1は、バッテリ
を用いた自律駆動式であり、電源部60は、充電バッテ
リ61と、充電バッテリ61の充放電状態を管理する充
放電制御部62とで構成される。
【0059】充電バッテリ61は、例えば、複数本のニ
ッケル・カドミウム電池セルをカートリッジ式にパッケ
ージ化した「バッテリ・パック」という形態で構成され
る。
【0060】また、充放電制御部62は、バッテリ61
の端子電圧や充電/放電電流量、バッテリ61の周囲温
度などを測定することでバッテリ61の残存容量を把握
し、充電の開始時期や終了時期などを決定するようにな
っている。
【0061】制御部20は、「頭脳」に相当し、例えば
移動ロボット1の頭部ユニット3あるいは胴体部ユニッ
ト2に搭載される。
【0062】図4には、制御部20の構成をさらに詳細
に図解している。同図に示すように、制御部20は、メ
イン・コントローラとしてのCPU(Central Processi
ng Unit)21が、メモリその他の各回路コンポーネン
トや周辺機器とバス接続された構成となっている。バス
27上の各装置にはそれぞれに固有のアドレス(メモリ
・アドレス又はI/Oアドレス)が割り当てられてお
り、CPU21はアドレス指定することでバス27上の
特定の装置と通信することができる。
【0063】RAM(Random Access Memory)22は、
DRAM(Dynamic RAM)などの揮発性メモリで構成さ
れた書き込み可能メモリであり、CPU21が実行する
ロボット制御用のプログラム・コードをロードしたり、
作業データの一時的な保存のために使用される。
【0064】ROM(Read Only Memory)23は、プロ
グラムやデータを恒久的に格納する読み出し専用メモリ
である。ROM23に格納されるプログラム・コードに
は、脚式移動ロボット1の電源投入時に実行する自己診
断テスト・プログラムや、移動ロボット1の動作を規定
する制御プログラム(ファームウェア)などが挙げられ
る。
【0065】本実施例では、脚式移動ロボット1の制御
プログラムには、リカレント・ニューラル・ネットワー
ク(RNN)に基づく学習機能が適用されている。リカ
レント・ニューラル・ネットワークによれば、時系列的
な学習を行うことができる。例えば、モーション・キャ
プチャなどにより取り込まれる運動パターンを、階層型
リカレント・ニューラル・ネットワークにより自動的に
分節化して保存し、分節化された各時系列データを組み
合わせて運動制御を行うことで、さまざまな運動を生成
することができる。但し、リカレント・ニューラル・ネ
ットワークの構成やリカレント・ニューラル・ネットワ
ークを用いた学習・教示機構の詳細については後述に譲
る。
【0066】不揮発性メモリ24は、例えばEEPRO
M(Electrically Erasable and Programmable ROM)の
ように、電気的に消去再書き込みが可能なメモリ素子で
構成され、逐次更新すべきデータを不揮発的に保持する
ために使用される。逐次更新すべきデータには、例え
ば、脚式移動ロボット1の行動パターンを規定するモデ
ルなどが挙げられる。
【0067】インターフェース25は、制御部20外の
機器と相互接続し、データ交換を可能にするための装置
である。インターフェース25は、例えば、カメラ15
やマイクロフォン16、スピーカ17との間でデータ入
出力を行う。また、インターフェース25は、駆動部5
0内の各ドライバ53−1…との間でデータやコマンド
の入出力を行う。また、インターフェース25は、電源
部60との間で充電開始及び充電終了信号の授受を行う
こともできる。
【0068】また、インターフェース25は、RS(Re
commended Standard)−232Cなどのシリアル・イン
ターフェース、IEEE(Institute of Electrical an
d electronics Engineers)1284などのパラレル・
インターフェース、USB(Universal Serial Bus)イ
ンターフェース、i−Link(IEEE1394)イ
ンターフェース、SCSI(Small Computer System In
terface)インターフェースなどのような、コンピュー
タの周辺機器接続用の汎用インターフェースを備え、ロ
ーカル接続された外部機器との間でプログラムやデータ
の移動を行うようにしてもよい。
【0069】また、インターフェース25の1つとして
赤外線通信(IrDA)インターフェースを備え、外部
機器と無線通信を行うようにしてもよい。赤外線通信の
ための送受信部は、例えば頭部ユニットなどのように、
歩行ロボット1本体の先端部に設置されることが受信感
度の観点から好ましい。
【0070】さらに、制御部20は、無線通信インター
フェース26ネットワーク・インターフェース・カード
(NIC)27を含み、"bluetooth"や".1
1B"のような近接無線通信、あるいはLAN(Local A
rea Network:例えばEthernet)やインターネットを経
由して、外部のホスト・コンピュータ100とデータ通
信を行うことができる。
【0071】このようなロボットとホストコンピュータ
間のデータ通信の目的は、遠隔のコンピュータ資源を用
いて脚式移動ロボット1の動作をリモート・コントロー
ルすることである。また、該データ通信の他の目的は、
動作モデルやその他のプログラム・コードなどロボット
1の動作制御に必要なデータやプログラムをネットワー
ク経由で歩行ロボット1に供給することにある。また、
該データ通信の他の目的は、モーション・キャプチャや
ティーチング・ペンダントなどにより得られた教示デー
タをロボット側に転送することにある(勿論、オペレー
タが脚式移動ロボット1の機体に対して外力を印加する
ことによって直接教示することも可能である)。
【0072】脚式移動ロボット1の動作制御は、現実に
は、CPU21において所定のソフトウェア・プログラ
ムを実行することによって実現する。図5には、本実施
形態に係る脚式移動ロボット1上で稼動するソフトウェ
ア制御構成を模式的に示している。
【0073】同図に示すように、ロボット制御用のソフ
トウェアは、複数層のソフトウェアで構成される階層構
造を備えている。制御用ソフトウェアにはオブジェクト
指向プログラミングを採り入れることができる。この場
合、各ソフトウェアは、データとそのデータに対する処
理手続きとを一体化させた「オブジェクト」というモジ
ュール単位で扱われる。
【0074】最下層のデバイス・ドライバは、各関節ア
クチュエータの駆動やセンサ出力の受信などハードウェ
アに対して直接アクセスすることを許容されたオブジェ
クトであり、ハードウェアからの割り込み要求に応答し
て該当する処理を行うようになっている。
【0075】仮想ロボットは、各種デバイス・ドライバ
と所定のオブジェクト間通信プロトコルに基づいて動作
するオブジェクトとの仲介となるオブジェクトである。
脚式移動ロボット1を構成する各ハードウェア装置への
アクセスは、この仮想ロボットを介して行われる。
【0076】サービス・マネージャは、コネクション・
ファイルに記述されたオブジェクト間の接続情報を基
に、各オブジェクトに接続を促すシステム・オブジェク
トである。
【0077】システム層より上位のソフトウェアは、オ
ブジェクト(プロセス)毎にモジュール化されており、
必要な機能毎にオブジェクトを選択して置換容易な構成
になっている。したがって、コネクション・ファイルを
書き換えることで、データ型が一致するオブジェクトの
入出力を自由に接続することができる。
【0078】デバイス・ドライバ層とシステム層以外の
ソフトウェア・モジュールは、ミドルウェア層とアプリ
ケーション層に大別される。
【0079】図6には、ミドルウェア層の内部構成を模
式的に図解している。
【0080】ミドルウェア層は、脚式移動ロボット1の
基本的な機能を提供するソフトウェア・モジュールの集
まりであり、各モジュールの構成は脚式移動ロボット1
の機械的・電気的な特性や仕様、形状などハードウェア
属性の影響を受ける。
【0081】このミドルウェア層は、機能的に、認識系
のミドルウェア(図6の左半分)と、出力系のミドルウ
エア(図6の右半分)に分けることができる。
【0082】認識系のミドルウェアでは、画像データや
音声データ、その他のセンサから得られる検出データな
ど、ハードウェアから供給される生データを仮想ロボッ
ト経由で受け取ってこれらを処理する。すなわち、各種
入力情報に基づき、音声認識、距離検出、姿勢検出、接
触、動き検出、色認識などの処理を行い、認識結果を得
る(例えば、「ボールを検出した」、「転倒を検出し
た」、「撫でられた」、「叩かれた」、「ドミソの音階
が聞こえた」、「(動く物体を)検出した」、「(障害
物を)検出した」、「(障害物を)認識した」など)。
認識結果は、入力セマンティクス・コンバータを介して
上位のアプリケーション層に通知され、その後の行動計
画や学習などに利用される。
【0083】一方、出力系のミドルウェアでは、歩行、
動きの再生、出力音の合成、目に相当するLEDの点灯
制御などの機能を提供する。すなわち、アプリケーショ
ン層において立案された行動計画を出力セマンティクス
・コンバータを介して受信処理して、脚式移動ロボット
1の各機能毎にロボットの各ジョイントのサーボ指令値
や出力音、出力光(LED)、出力音声などを生成し
て、出力すなわち仮想ロボットを介して脚式移動ロボッ
ト1の機体動作として発現する。このような仕組みによ
り、アプリケーション層は、関節アクチュエータに対す
る制御指令のような物理的なコマンドではなく、より抽
象的な行動コマンド(例えば、前進、後退、喜ぶ、吼え
る、寝る、体操する、驚く、トラッキングするなど)を
与えることで、脚式移動ロボット1を制御することがで
きる。
【0084】また、図7には、アプリケーション層の内
部構成を模式的に図解している。アプリケーション層
は、脚式移動ロボット1の機体動作や本能・感情などの
内部状態を制御する1以上のアプリケーション・ソフト
ウェアで構成される。
【0085】アプリケーションは、入力セマンティクス
・コンバータ経由で受け取った認識結果を使って、脚式
移動ロボット1の行動計画を決定して、出力セマンティ
クス・コンバータ経由で決定された行動を返すようにな
っている。
【0086】アプリケーションは、ロボットの感情をモ
デル化した感情モデルと、本能をモデル化した本能モデ
ルと、外部事象を逐次記憶していく学習モジュールと、
行動パターンをモデル化した行動モデルと、行動モデル
によって決定された行動の出力先を切り替える行動切替
部とで構成される。
【0087】入力セマンティクス・コンバータ経由で入
力される認識結果は、感情モデル、本能モデル、行動モ
デルに入力されるとともに、学習モジュールには学習教
示信号として入力される。
【0088】行動モデルによって決定された脚式移動ロ
ボット1の行動は、行動切替部並びに出力セマンティク
ス・コンバータ経由でミドルウェアに送信され、脚式移
動ロボット1の機体上で実行される。あるいは、行動切
替部を介して、行動履歴として感情モデル、本能モデ
ル、学習モジュールに、行動履歴として供給される。
【0089】感情モデルと本能モデルは、それぞれ認識
結果と行動履歴を入力に持ち、感情値と本能値を管理し
ている。行動モデルは、これら感情値や本能値を参照す
ることができる。また、学習モジュールは、学習教示信
号に基づいて行動選択確率を更新して、更新内容を行動
モデルに供給する。
【0090】本実施形態に係る学習モジュールは、モー
ション・キャプチャやティーチング・ペンダントなどの運
動教示装置(図示しない)や機体への直接教示操作を介
して取得された時系列データと、関節角度パラメータと
を関連付けて、時系列データとして学習するようになっ
ている。時系列データの学習のために、リカレント・ニ
ューラル・ネットワーク構成を採用する。
【0091】ここで、ニューラル・ネットワークとは、
人間の脳における神経回路網を簡略化したモデルのこと
であり、神経細胞ニューロンが一方向にのみ信号を通過
するシナプスを介して結合されているネットワークを意
味する。ニューロン間の信号の伝達はシナプスを介して
行われ、シナプスの抵抗、すなわち重みを適当に調整す
ることによりさまざまな情報処理が可能となる。各ニュ
ーロンは、他の1以上のニューロンからの出力をシナプ
スによる重み付けをして入力し、それら入力値の総和を
非線型応答関数の変形を加え、再度他のニューロンへ出
力する。
【0092】また、リカレント・ニューラル・ネットワ
ークでは、各ユニットにおける過去の出力がネットワー
ク内の他のユニット(あるいは自分自身)に戻されるよ
うな結合関係が許容される。したがって、時間に依存し
て各ニューロンの状態が変化するような動的性質をネッ
トワーク内に含めることができ、時系列パターンの認識
や予測を行うことができる。
【0093】本実施形態に係る学習モジュールは、この
ようなリカレント・ニューラル・ネットワークを階層的
に構成することにより、時系列データである運動パター
ンを自動的に分割して保存するとともに、分割された各
時系列データを組み合わせることによって運動制御を行
うことで、さまざまな運動パターンを生成することがで
きる。
【0094】図8には、本実施形態に係る階層型リカレ
ント・ニューラル・ネットワークの構成を模式的に示して
いる。
【0095】図8に示す階層型リカレント・ニューラル・
ネットワークは、個々のリカレント・ニューラル・ネット
ワーク(後述)を階層的に配置することで構成される。
【0096】図示の階層型リカレント・ニューラル・ネッ
トワーク200は、個々の関節アクチュエータなどの局
所的な時系列パターンを学習する複数のエキスパート・
リカレント・ニューラル・ネットワーク250−1,25
0−2,…,250−nからなる下位モジュールと、こ
れら局所的な時系列パターンの組み合わせとして表現す
ることができる大局的な(すなわち機体全体の)時系列
パターンを学習するゲーティング・リカレント・ニューラ
ル・ネットワーク270からなる上位モジュールで構成
される。
【0097】下位モジュールを構成する各エキスパート
・リカレント・ニューラル・ネットワーク250−iには
教示運動関節角時系列データTi(t)が入力される。
教示運動関節角時系列データTi(t)は、脚式移動ロ
ボット1が持つ各関節各制御指令値mi(t)で構成さ
れる。教示運動関節角時系列データTi(t)は、例え
ば、モーション・キャプチャやティーチング・ペンダン
ト、直接教示などの教示作業を介して与えることができ
る。このような入力に対し、エキスパート・リカレント・
ニューラル・ネットワーク250−iは関節角制御指令
値予測m'i(t+1)を出力する。
【0098】上位モジュールを構成するゲーティング・
リカレント・ニューラル・ネットワークは、それぞれのエ
キスパート・リカレント・ニューラル・ネットワーク25
0−iの重み付け値に相当するゲートgi(t)を出力
する。
【0099】下位モジュールを構成する各エキスパート
・リカレント・ニューラル・ネットワーク250−iの出
力mi(t+1)に、上位モジュールを構成するゲーテ
ィング・リカレント・ニューラル・ネットワーク270か
らのゲートすなわち重み付けgi(t+1)をそれぞれ
与えて合成することによって、階層型リカレント・ニュ
ーラル・ネットワーク200が扱うモジュール全体に関
する関節角制御指令値予測Mi(t+1)を出力する。
【0100】下位モジュールを構成する個々のエキスパ
ート・リカレント・ニューラル・ネットワーク250−
1,250−2,…,250−nでは、対応する関節角
すなわち脚式移動ロボット1における局所的な運動パタ
ーンが取り扱われる。エキスパート・リカレント・ニュー
ラル・ネットワーク250−iには、対応する関節角に
関する教示された運動パターンmi(t)が時系列デー
タとして選択的に記憶される。そして、次の時刻に入力
された時系列データmi(t)上から学習された運動パ
ターンが現れたときには、その検出信号としての指令値
予測mi(t+1)を出力する。
【0101】上位モジュールでは、各下位モジュールか
らの指令値予測mi(t+1)を、ゲーティング・リカレ
ント・ニューラル・ネットワークが与えるゲートgi(t
+1)すなわちを用いて重み付けして合成して、階層型
リカレント・ニューラル・ネットワーク200が扱うモジ
ュール全体における大局的な指令値予測であるMi(t
+1)を出力する。
【0102】図8に示すような階層型リカレント・ニュ
ーラル・ネットワーク200の学習時においては、次の
時刻t+1における目標値としての教示運動関節角時系
列データTi(t+1)が与えられる。そして、それぞ
れのエキスパート・リカレント・ニューラル・ネットワー
ク250−iの出力mi(t+1)から合成されるモジ
ュール全体の出力Mi(t+1)との誤差によって、ゲ
ーティング・リカレント・ニューラル・ネットワーク27
0における各ゲートの状態が制御される。
【0103】なお、階層型リカレント・ニューラル・ネッ
トワークの構成並びに動作の詳細に関しては、例えば、
本出願人に既に譲渡されている特開平11−12619
8号公報(発明の名称:「データ処理装置および方法、
並びに記憶媒体」)にも開示されている。
【0104】図9には、図8に示した階層型リカレント
・ニューラル・ネットワーク200の下位モジュールを構
成するエキスパート・リカレント・ニューラル・ネットワ
ーク250−iの構成例を模式的に図解している。ま
た、図10には、クローズド・モード下での動作時にお
けるエキスパート・リカレント・ニューラル・ネットワー
ク250の構成例を模式的に示している。
【0105】図9に示すように、エキスパート・リカレ
ント・ニューラル・ネットワーク250は、入力データが
入力されるユニット群である入力層と、ネットワークの
出力を出すユニット群である出力層と、それら以外のユ
ニット群である中間層で構成される。
【0106】図9に示す例では、入力層は、対応する関
節アクチュエータiにおける関節角制御指令値m
i(t)を入力する入力部(Input Unit)251と、コ
ンテキスト部(Context Unit)252で構成される。ま
た、中間層は、隠れ部(Hidden Unit)253で構成さ
れる。また、出力層は、関節アクチュエータiにおける
関節角制御指令値の予測m'i(t)を出力する出力部
(Output Unit)254と、コンテキスト部(Context U
nit)255で構成される。各ユニットは、それぞれ所
定数のニューロンで構成される。
【0107】入力部251には、対応する関節アクチュ
エータにおける時々刻々の状態に相当する時系列データ
としての関節角制御指令値mi(t)が入力される。ま
た、入力部251のニューロンの出力は、中間層253
のニューロンを介して、出力部254並びにコンテキス
ト部255の各ニューロンに供給される。
【0108】出力部254のニューロンからは、エキス
パート・リカレント・ニューラル・ネットワーク250
が扱う関節アクチュエータiにおける関節角制御指令値
予測m'i(t+1)が出力される。
【0109】また、出力の一部は、コンテクストC
i(t)として、コンテキスト・ループにより入力層のコ
ンテキスト部252にフィードバックされる。このコン
テキスト・ループにより時系列事象の学習を行うことが
できる。
【0110】図9並びに図10に示したエキスパート・
リカレント・ニューラル・ネットワーク250−iを用
いた学習は、出力された関節角制御指令値予測m'i(t
+1)と、実際に次の時刻で指令された関節角制御指令
i(t+1)との誤差に基づいて、バック・プロパゲ
ーション法により実行される。このようなニューラル学
習メカニズムにより、入力された時系列運動パターン・
データに対して、次の時刻の運動パターン・データを予
測することが可能になる。
【0111】図11には、図8に示した階層型リカレン
ト・ニューラル・ネットワーク200の上位モジュールを
構成するゲーティング・リカレント・ニューラル・ネット
ワーク270の構成例を模式的に図解している。また、
図12には、クローズド・モード下での動作時における
ゲーティング・リカレント・ニューラル・ネットワーク2
70の構成例を模式的に示している。
【0112】ゲーティング・リカレント・ニューラル・ネ
ットワーク270は、個々のエキスパート・リカレント・
ニューラル・ネットワーク250−1…による局所的な
時系列パターンの組み合わせとして表現することができ
る大局的な時系列パターンを学習する。
【0113】図11に示すように、ゲーティング・リカ
レント・ニューラル・ネットワーク270は、入力データ
が入力されるユニット群である入力層と、ネットワーク
の出力を出すユニット群である出力層と、それら以外の
ユニット群である中間層で構成される。
【0114】図11に示す例では、入力層は、下位モジ
ュールに対する出力重みとなるゲート値gi(t)を入
力する入力部(Input Unit)271と、コンテキスト部
(Context Unit)272で構成される。また、中間層
は、隠れ部(Hidden Unit)273で構成される。ま
た、出力層は、下位モジュールに対する出力重みとなる
ゲート値gi(t+1)を出力する出力部(Output Uni
t)274と、コンテキスト部(Context Unit)255
で構成される。各ユニットは、それぞれ所定数のニュー
ロンで構成される。
【0115】入力部271には、下位モジュールに対す
る出力重みとなるゲート値gi(t)が入力される。ま
た、入力部251のニューロンの出力は、中間層273
のニューロンを介して、出力部274並びにコンテキス
ト部275の各ニューロンに供給される。
【0116】出力部274のニューロンからは、下位モ
ジュールに対する出力重みとなるゲート値gi(t+
1)が出力される。
【0117】また、出力の一部は、コンテクストC
i(t)として、コンテキスト・ループにより入力層のコ
ンテキスト部272にフィードバックされる。このコン
テキスト・ループにより時系列事象の学習を行うことが
できる。
【0118】次いで、本実施形態に係る脚式移動ロボッ
ト1における学習プロセスについて、図13〜図18を
参照しながら説明する。
【0119】まず、制御対象となる脚式移動ロボット1
において実行可能な3種類の運動パターン・データA,
B,並びにCを用意する。用意された脚式移動ロボット
1の運動パターン例を図13に描写している。但し、本
明細書において「実行可能」な運動パターンと言うとき
には、制御対象となる脚式移動ロボット1において運動
学的整合性や、ZMP安定度判別規範などの動力学的整
合性を満足する運動パターンであることとする。
【0120】なお、脚式移動ロボットにおける動的安定
性は、一般に、ZMP(Zero Moment Pointを安定度判
別規範として用いることで求まる。ここでZMPとは、
歩行中の床反力によるモーメントがゼロとなる床面上の
点のことであり、また、「ZMP軌道」とは、例えばロ
ボットの歩行動作期間中にZMPが動く軌跡を意味す
る。ZMPの概念並びにZMPを歩行ロボットの安定度
判別規範に適用する点については、Miomir Vukobratovi
c著"LEGGED LOCOMOTION ROBOTS"(加藤一郎外著『歩行
ロボットと人工の足』(日刊工業新聞社))に記載され
ている。
【0121】次いで、これらの運動パターンA,B,C
を、階層型リカレント・ニューラル・ネットワーク200
中のそれぞれ異なるエキスパート・リカレント・ニューラ
ル・ネットワーク250−1…に学習させる。
【0122】エキスパート・リカレント・ニューラル・ネ
ットワーク250への入力は、時系列データである運動
パターン・データの時刻tにおける関節角制御指令値ベ
クトルem(t)とし、理想出力を時刻t+1における
関節角制御指令値ベクトルem(t+1)として学習を
行う。リカレント・ニューラル・ネットワークにおける時
系列データの学習は、バックプロパゲーション・スルー
・タイム・アルゴリズム(Backpropagation Through Ti
me Algorithm)を用いることによって行う。
【0123】学習後のそれぞれのエキスパート・リカレ
ント・ニューラル・ネットワーク250−1…は、入力と
して時刻tにおける関節角制御指令値ベクトルem
(t)を与えると、出力として時刻t+1における関節
角制御指令値ベクトルem(t+1)の予測値を生成す
る(図14を参照のこと)。
【0124】そこで、該ネットワーク中の出力部254
と入力部251とを結合した閉ループを形成することに
より(すなわち、クローズド・モードに遷移することに
より)、学習した運動パターンを自律的に生成すること
ができる(図15を参照のこと)。
【0125】次いで、運動教示手段としてモーション・
キャプチャを用いて、人間(オペレータ)の運動から教
示運動パターン・データを取得する(図16を参照のこ
と)。あるいは、ティーチング・ペンだ音や直接教示に
よって教示運動パターン・データを脚式移動ロボット1
に供給するようにしてもよい。
【0126】モーション・キャプチャなどにより取得さ
れた教示運動パターン・データを、学習後の各エキスパ
ート・リカレント・ニューラル・ネットワーク250−1
…(前述並びに図14を参照のこと)を下位のモジュー
ルに持つ階層型リカレント・ニューラル・ネットワーク2
00に学習させる。エキスパート・リカレント・ニューラ
ル・ネットワーク250への入力は、教示運動パターン・
データの時刻tにおける関節角度情報ベクトルT(t)
とし、階層型リカレント・ニューラル・ネットワーク20
0全体の理想出力を時刻t+1における関節角度情報ベ
クトルT(t+1)として学習を行う。ここで、階層型
リカレント・ニューラル・ネットワーク200を用いた時
系列データの分節化学習を適用する。
【0127】階層型リカレント・ニューラル・ネットワー
ク200を用いた時系列データの分節化学習には、最尤
度推定に基づく学習アルゴリズムを用いることができ
る。最尤度推定に基づく時系列データの分節化学習につ
いては、例えば、本出願人に既に譲渡されている特開平
11−126198号公報を参照されたい。
【0128】但し、下位モジュールであるエキスパート
・リカレント・ニューラル・ネットワーク250−1…の
学習は行わない(図17を参照のこと)。
【0129】階層型リカレント・ニューラル・ネットワー
ク200は、教示運動パターンを再構成するために必要
な下位モジュールの組み合わせ表現を、上位モジュール
であるゲーティング・リカレント・ニューラル・ネットワ
ーク270が生成するゲート値パターンとして学習する
ことができる(図18を参照のこと)。
【0130】このようなゲーティング・リカレント・ニュ
ーラル・ネットワーク270が生成するゲート値パター
ンを用いて、下位モジュールとしてのエキスパート・リ
カレント・ニューラル・ネットワーク250−1…がそれ
ぞれ生成する運動パターンを重み付けて組み合わせるこ
とによって、教示運動パターンを再構成することができ
る。
【0131】このようにして再構成された運動パターン
を用いて、脚式移動ロボット1の運動制御を行うこと
で、教示運動を再現することができる。
【0132】[追補]以上、特定の実施例を参照しなが
ら、本発明について詳解してきた。しかしながら、本発
明の要旨を逸脱しない範囲で当業者が該実施例の修正や
代用を成し得ることは自明である。
【0133】本発明の要旨は、必ずしも「ロボット」と
称される製品には限定されない。すなわち、電気的若し
くは磁気的な作用を用いて人間の動作に似せた運動を行
う機械装置であるならば、例えば玩具等のような他の産
業分野に属する製品であっても、同様に本発明を適用す
ることができる。
【0134】要するに、例示という形態で本発明を開示
してきたのであり、限定的に解釈されるべきではない。
本発明の要旨を判断するためには、冒頭に記載した特許
請求の範囲の欄を参酌すべきである。
【0135】
【発明の効果】以上詳記したように、本発明によれば、
モーション・キャプチャなどの教示作業を介して運動学
的整合性や、ZMP安定度判別規範などの動力学的整合
性を満たした運動パターンの教示を行うことができる、
優れた脚式移動ロボット及びその運動教示方法、並びに
記憶媒体を提供することができる。
【0136】また、本発明によれば、人間の教示作業に
より与えられた運動パターンを階層型リカレント・ニュ
ーラル・ネットワークを用いて自動的に時系列分節し
て、それらを組み合わせて機体の運動制御を行うこと
で、さまざまな運動パターンを生成することができる、
優れた脚式移動ロボット及びその運動教示方法、並びに
記憶媒体を提供することができる。
【0137】本発明によれば、あらかじめ学習されたロ
ボットにおいて実行可能な運動パターンを利用して、人
間の教示による多様な動作を人間型ロボットに行なわせ
ることができる。
【図面の簡単な説明】
【図1】本発明の実施に供される脚式歩行ロボット1の
外観構成を示した図である。
【図2】脚式移動ロボット1の自由度構成モデルを模式
的に示した図である。
【図3】脚式歩行ロボット1の電気・制御系統の構成図
を模式的に示した図である。
【図4】制御部20の構成をさらに詳細に示した図であ
る。
【図5】ロボット1上で稼動するソフトウェア制御構成
を模式的に示した図である。
【図6】ミドルウェア層の内部構成を模式的に示した図
である。
【図7】アプリケーション層の内部構成を模式的に示し
た図である。
【図8】本実施形態に係る階層型リカレント・ニューラ
ル・ネットワークの構成を模式的に示した図である。
【図9】階層型リカレント・ニューラル・ネットワークの
下位モジュールを構成するエキスパート・リカレント・ニ
ューラル・ネットワーク250の構成例を模式的に示し
た図である。
【図10】クローズド・モード下で動作するエキスパー
ト・リカレント・ニューラル・ネットワーク250の構成
例を模式的に示した図である。
【図11】階層型リカレント・ニューラル・ネットワーク
の上位モジュールを構成するリカレント・ニューラル・
ネットワーク250の構成例を模式的に示した図であ
る。
【図12】クローズド・モード下で動作するゲーティン
グ・リカレント・ニューラル・ネットワーク250の構成
例を模式的に示した図である。
【図13】本実施形態に係る脚式移動ロボット1におけ
る学習プロセスについて説明するための図であり、より
具体的には、制御対象となる脚式移動ロボット1におい
て実行可能な3種類の運動パターン・データA,B,並
びにCを描写した図である。
【図14】本実施形態に係る脚式移動ロボット1におけ
る学習プロセスについて説明するための図であり、より
具体的には、エキスパート・リカレント・ニューラル・ネ
ットワーク250に入力として時刻tにおける関節角制
御指令値ベクトルem(t)を与えると、出力として時
刻t+1における関節角制御指令値ベクトルem(t+
1)の予測値を生成する様子を示した図である。
【図15】本実施形態に係る脚式移動ロボット1におけ
る学習プロセスについて説明するための図であり、より
具体的には、エキスパート・リカレント・ニューラル・ネ
ットワーク250が閉ループを形成して、学習した運動
パターンを自律的に生成する様子を示した図である。
【図16】本実施形態に係る脚式移動ロボット100に
おける学習プロセスについて説明するための図であり、
より具体的には、運動教示手段としてモーション・キャ
プチャを用いて人間(オペレータ)の運動から教示運動
パターン・データを取得する様子を示した図である。
【図17】本実施形態に係る脚式移動ロボット100に
おける学習プロセスについて説明するための図であり、
より具体的には、階層型リカレント・ニューラル・ネット
ワーク200を用いた時系列データの分節化学習時にお
ける下位モジュールであるエキスパート・リカレント・ニ
ューラル・ネットワーク250−1…の振る舞いを示し
た図である。
【図18】本実施形態に係る脚式移動ロボット100に
おける学習プロセスについて説明するための図であり、
より具体的には、階層型リカレント・ニューラル・ネット
ワーク200がゲーティング・リカレント・ニューラル・
ネットワーク270が生成するゲート値パターンとして
教示運動パターンを再構成するために必要な下位モジュ
ールの組み合わせ表現を学習する様子を示した図であ
る。
【図19】本実施形態に係る脚式移動ロボット100に
おける学習プロセスについて説明するための図であり、
より具体的には、ゲーティング・リカレント・ニューラル
・ネットワーク270が生成するゲート値パターンを用
いて下位モジュールとしてのエキスパート・リカレント・
ニューラル・ネットワーク250−1…がそれぞれ生成
する運動パターンを重み付けて組み合わせることによっ
て教示運動パターンを再構成する様子を示した図であ
る。
【符号の説明】
1…脚式移動ロボット 15…CCDカメラ 16…マイクロフォン 17…スピーカ 18…タッチセンサ 20…制御部 21…CPU 22…RAM 23…ROM 24…不揮発メモリ 25…インターフェース 26…無線通信インターフェース 27…ネットワーク・インターフェース・カード 28…バス 29…キーボード 40…入出力部 50…駆動部 51…モータ(関節アクチュエータ) 52…エンコーダ(関節角度センサ) 53…ドライバ 60…電源部 61…充電バッテリ 62…充放電制御部 100…外部のホスト・コンピュータ 200…階層型リカレント・ニューラル・ネットワーク 250…エキスパート・リカレント・ニューラル・ネット
ワーク(下位モジュール) 251…入力部,252…コンテキスト部 253…隠れ部 254…出力部,255…コンテキスト部 270…ゲーティング・リカレント・ニューラル・ネット
ワーク(上位モジュール) 271入力部,272…コンテキスト部 273…隠れ部 274…出力部,275…コンテキスト部

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】複数の関節自由度を持つ駆動部を備えた脚
    式移動ロボットであって、 外部から運動パターンを入力する運動パターン入力部
    と、 局所的な各関節自由度に関する実行可能な運動パターン
    をあらかじめ記憶しておくとともに、前記運動パターン
    入力部から入力された運動パターンと該記憶しておいた
    運動パターンとの一致を判定する複数の判定部と、 前記の各判定部における判定結果をゲートするゲート部
    と、 前記ゲート部による出力を合成して、前記脚式移動ロボ
    ットの機体における大局的な運動パターンを生成する合
    成部と、 前記合成部における合計結果を教示された運動パターン
    ・データとして保存し、及び/又は、前記脚式移動ロボ
    ットの機体上で再現する教示運動パターン実現部と、を
    具備することを特徴とする脚式移動ロボット。
  2. 【請求項2】前記運動パターン入力部は、オペレータの
    全身の各部位に取り付けた測定点をカメラで捕捉し、そ
    れらの動きを追跡していくことで、教示すべき運動パタ
    ーンを実現するための骨格の動作を得るモーション・キ
    ャプチャ装置、若しくは該モーション・キャプチャ装置
    を介して得られた運動パターン・データを入力する装置
    で構成される、ことを特徴とする請求項1に記載の脚式
    移動ロボット。
  3. 【請求項3】前記運動パターン入力部は、ティーチング
    ・ペンダントを介して得られた運動パターン・データを入
    力する装置で構成される、ことを特徴とする請求項1に
    記載の脚式移動ロボット。
  4. 【請求項4】前記運動パターン入力部は、前記脚式移動
    ロボットの機体に対して直接印加される直接教示を介し
    て得られた運動パターン・データを入力する装置で構成
    される、ことを特徴とする請求項1に記載の脚式移動ロ
    ボット。
  5. 【請求項5】実行可能な運動パターンは、前記脚式移動
    ロボットの機体において運動学的整合性及び/又は動力
    学的整合性が保証されている運動パターンである、こと
    を特徴とする請求項1に記載の脚式移動ロボット。
  6. 【請求項6】前記の各判定部は、入力データが入力され
    るユニット群である入力層と、ネットワークの出力を出
    すユニット群である出力層と、それら以外のユニット群
    である中間層からなるリカレント・ニューラル・ネットワ
    ークで構成され、 前記入力層は、前記脚式移動ロボットの機体の局所的な
    時系列状の運動パターンが入力される入力部と、コンテ
    キスト部で構成され、 前記中間層は、隠れ部で構成され、 前記出力層は、該局所的な時系列状の運動パターンの予
    測を出力する出力部と、コンテキスト部で構成され、 前記出力層の出力の一部がコンテキスト・ループを介し
    て前記入力層のコンテキスト部にフィードバックされる
    ことで、時系列状の運動パターンの学習を行なう、こと
    を特徴とする請求項1に記載の脚式移動ロボット。
  7. 【請求項7】前記ゲート部は、入力データが入力される
    ユニット群である入力層と、ネットワークの出力を出す
    ユニット群である出力層と、それら以外のユニット群で
    ある中間層からなるリカレント・ニューラル・ネットワー
    クで構成され、 前記入力層は、前記の各判定部に対する重みとなるゲー
    トが入力される入力部と、コンテキスト部で構成され、 前記中間層は、隠れ部で構成され、 前記出力層は、前記の各判定部に対する重みとなるゲー
    トを出力する出力部と、コンテキスト部で構成され、 前記出力層の出力の一部がコンテキスト・ループを介し
    て前記入力層のコンテキスト部にフィードバックされる
    ことで、時系列状のゲートの学習を行なう、ことを特徴
    とする請求項1に記載の脚式移動ロボット。
  8. 【請求項8】複数の関節自由度を持つ駆動部を備えた脚
    式移動ロボットの運動教示方法であって、 外部から運動パターンを入力する運動パターン入力ステ
    ップと、 局所的な各関節自由度に関する実行可能な運動パターン
    をあらかじめ記憶しておくとともに、前記運動パターン
    入力ステップにおいて入力された運動パターンと該記憶
    しておいた運動パターンとの一致を判定する複数の判定
    ステップと、 前記の各判定ステップにおける判定結果をゲートするゲ
    ート・ステップと、 前記ゲートステップによる出力を合成して、前記脚式移
    動ロボットの機体における大局的な運動パターンを生成
    する合成ステップと、 前記合成ステップにおける合計結果を教示された運動パ
    ターン・データとして保存し、及び/又は、前記脚式移
    動ロボットの機体上で再現する教示運動パターン実現ス
    テップと、を具備することを特徴とする脚式移動ロボッ
    トの運動教示方法。
  9. 【請求項9】前記運動パターン入力ステップは、オペレ
    ータの全身の各部位に取り付けた測定点をカメラで捕捉
    し、それらの動きを追跡していくことで、教示すべき運
    動パターンを実現するための骨格の動作を得るモーショ
    ン・キャプチャを介して得られた運動パターン・データを
    入力する装置で構成される、ことを特徴とする請求項8
    に記載の脚式移動ロボットの運動教示方法。
  10. 【請求項10】前記運動パターン入力ステップでは、テ
    ィーチング・ペンダントを介して得られた運動パターン・
    データを入力する、 ことを特徴とする請求項8に記載の脚式移動ロボットの
    運動教示方法。
  11. 【請求項11】前記運動パターン入力ステップでは、前
    記脚式移動ロボットの機体に対して直接印加される直接
    教示を介して得られた運動パターン・データを入力す
    る、ことを特徴とする請求項8に記載の脚式移動ロボッ
    トの運動教示方法。
  12. 【請求項12】実行可能な運動パターンは、前記脚式移
    動ロボットの機体において運動学的整合性及び/又は動
    力学的整合性が保証されている運動パターンである、こ
    とを特徴とする請求項8に記載の脚式移動ロボットの運
    動教示方法。
  13. 【請求項13】前記の各判定ステップは、入力データが
    入力されるユニット群である入力層と、ネットワークの
    出力を出すユニット群である出力層と、それら以外のユ
    ニット群である中間層からなるリカレント・ニューラル・
    ネットワークで構成され、 前記入力層は、前記脚式移動ロボットの機体の局所的な
    時系列状の運動パターンが入力される入力部と、コンテ
    キスト部で構成され、 前記中間層は、隠れ部で構成され、 前記出力層は、該局所的な時系列状の運動パターンの予
    測を出力する出力部と、コンテキスト部で構成され、 前記出力層の出力の一部がコンテキスト・ループを介し
    て前記入力層のコンテキスト部にフィードバックされる
    ことで、時系列状の運動パターンの学習を行なう、こと
    を特徴とする請求項8に記載の脚式移動ロボットの運動
    教示方法。
  14. 【請求項14】前記ゲート・ステップは、入力データが
    入力されるユニット群である入力層と、ネットワークの
    出力を出すユニット群である出力層と、それら以外のユ
    ニット群である中間層からなるリカレント・ニューラル・
    ネットワークで構成され、 前記入力層は、前記の各判定部に対する重みとなるゲー
    トが入力される入力部と、コンテキスト部で構成され、 前記中間層は、隠れ部で構成され、 前記出力層は、前記の各判定部に対する重みとなるゲー
    トを出力する出力部と、コンテキスト部で構成され、 前記出力層の出力の一部がコンテキスト・ループを介し
    て前記入力層のコンテキスト部にフィードバックされる
    ことで、時系列状のゲートの学習を行なう、ことを特徴
    とする請求項8に記載の脚式移動ロボットの運動教示方
    法。
  15. 【請求項15】複数の関節自由度を持つ駆動部を備えた
    脚式移動ロボットの運動教示をコンピュータ・システム
    上で実行するように記述されたコンピュータ・ソフトウ
    ェアをコンピュータ可読形式で物理的に格納した記憶媒
    体であって、前記コンピュータ・ソフトウェアは、 外部から運動パターンを入力する運動パターン入力ステ
    ップと、 局所的な各関節自由度に関する実行可能な運動パターン
    をあらかじめ記憶しておくとともに、前記運動パターン
    入力ステップにおいて入力された運動パターンと該記憶
    しておいた運動パターンとの一致を判定する複数の判定
    ステップと、 前記の各判定ステップにおける判定結果をゲートするゲ
    ート・ステップと、 前記ゲートステップによる出力を合成して、前記脚式移
    動ロボットの機体における大局的な運動パターンを生成
    する合成ステップと、 前記合成ステップにおける合計結果を教示された運動パ
    ターン・データとして保存し、及び/又は、前記脚式移
    動ロボットの機体上で再現する教示運動パターン実現ス
    テップと、を具備することを特徴とする記憶媒体。
JP2001104557A 2001-04-03 2001-04-03 脚式移動ロボット及びその運動教示方法、並びに記憶媒体 Abandoned JP2002301674A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2001104557A JP2002301674A (ja) 2001-04-03 2001-04-03 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
US10/297,222 US7024276B2 (en) 2001-04-03 2002-04-02 Legged mobile robot and its motion teaching method, and storage medium
CN02801750A CN1463215A (zh) 2001-04-03 2002-04-02 有腿移动机器人及其动作教学方法和存储介质
PCT/JP2002/003288 WO2002081157A1 (en) 2001-04-03 2002-04-02 Legged mobile robot and its motion teaching method, and storage medium
KR1020027016426A KR20030007841A (ko) 2001-04-03 2002-04-02 각식 이동 로봇 및 그 운동교시 방법, 및 기억매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001104557A JP2002301674A (ja) 2001-04-03 2001-04-03 脚式移動ロボット及びその運動教示方法、並びに記憶媒体

Publications (1)

Publication Number Publication Date
JP2002301674A true JP2002301674A (ja) 2002-10-15

Family

ID=18957396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001104557A Abandoned JP2002301674A (ja) 2001-04-03 2001-04-03 脚式移動ロボット及びその運動教示方法、並びに記憶媒体

Country Status (5)

Country Link
US (1) US7024276B2 (ja)
JP (1) JP2002301674A (ja)
KR (1) KR20030007841A (ja)
CN (1) CN1463215A (ja)
WO (1) WO2002081157A1 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003043788A1 (fr) * 2001-11-19 2003-05-30 Japan Science And Technology Corporation Robot a forme humaine de type automoteur bipede
JP2005056340A (ja) * 2003-08-07 2005-03-03 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP2006026828A (ja) * 2004-07-16 2006-02-02 Toyota Motor Corp ロボットの動作計画方法
JP2006293442A (ja) * 2005-04-05 2006-10-26 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008036761A (ja) * 2006-08-04 2008-02-21 Toyota Motor Corp 動作データ作成装置及びその方法
JP2008307640A (ja) * 2007-06-14 2008-12-25 Honda Motor Co Ltd 運動制御システム、運動制御方法および運動制御プログラム
JP2009018411A (ja) * 2007-07-13 2009-01-29 Honda Research Inst Europe Gmbh ロボットを制御する方法および装置
JP2009245236A (ja) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理方法、およびプログラム
WO2011065034A1 (ja) * 2009-11-24 2011-06-03 株式会社豊田自動織機 ロボットの動作を制御する方法およびロボットシステム
US8290620B2 (en) 2007-04-16 2012-10-16 Toyota Jidosha Kabushiki Kaisha Route creation method and route creation device
WO2015137157A1 (ja) * 2014-03-13 2015-09-17 三菱重工業株式会社 ロボット、及びロボットの制御方法
KR20170061686A (ko) * 2014-09-02 2017-06-05 엠비엘 리미티드 전자 미소 조작 라이브러리들을 갖춘 기구화된 환경에서 도메인 고유의 애플리케이션을 실행하기 위한 로봇 조작 방법 및 시스템
JP2022149702A (ja) * 2021-03-25 2022-10-07 トヨタ自動車株式会社 ロボットの動作データ生成システム、動作データ生成方法、及び動作データ生成プログラム
WO2025150532A1 (ja) * 2024-01-12 2025-07-17 ソフトバンクグループ株式会社 ロボット
JP7774437B2 (ja) 2016-07-21 2025-11-21 オートデスク,インコーポレイテッド モーションキャプチャを介したロボットカメラ制御

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003011535A1 (fr) * 2001-08-01 2003-02-13 Sony Corporation Robot mobile dote de jambes et procede de commande de fonctionnement de ce robot
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
JP2004074370A (ja) * 2002-08-21 2004-03-11 Ntt Docomo Inc 二足歩行ロボットの遠隔操作システム及び遠隔操作装置
US7152051B1 (en) * 2002-09-30 2006-12-19 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
JP4079792B2 (ja) * 2003-02-06 2008-04-23 松下電器産業株式会社 ロボットの教示方法と教示機能付きロボット
JP4587738B2 (ja) 2003-08-25 2010-11-24 ソニー株式会社 ロボット装置及びロボットの姿勢制御方法
US7519452B2 (en) * 2004-04-15 2009-04-14 Neurosciences Research Foundation, Inc. Mobile brain-based device for use in a real world environment
US7702420B2 (en) * 2004-07-07 2010-04-20 Panasonic Corporation Method for making mobile unit accompany objective person
US8000837B2 (en) * 2004-10-05 2011-08-16 J&L Group International, Llc Programmable load forming system, components thereof, and methods of use
US7664571B2 (en) * 2005-04-18 2010-02-16 Honda Motor Co., Ltd. Controlling a robot using pose
USD536010S1 (en) * 2005-06-02 2007-01-30 Ssd Company Limited Robot
WO2007057390A2 (en) * 2005-11-16 2007-05-24 Abb Ab Method and device for controlling motion of an industrial robot with a position switch
JP4818716B2 (ja) * 2005-12-27 2011-11-16 富士通株式会社 ロボット制御装置
JP4812426B2 (ja) * 2005-12-27 2011-11-09 富士通株式会社 ロボット制御装置
KR100752098B1 (ko) * 2006-03-07 2007-08-24 한국과학기술연구원 신경망 기반 로봇 시스템
KR100835354B1 (ko) * 2006-07-05 2008-06-04 삼성전자주식회사 보행로봇 및 그의 제어방법
US7966093B2 (en) * 2007-04-17 2011-06-21 Yefim Zhuk Adaptive mobile robot system with knowledge-driven architecture
JP5632609B2 (ja) * 2007-08-21 2014-11-26 富士通株式会社 ロボット制御装置およびロボット制御方法
TWI392983B (zh) * 2008-10-06 2013-04-11 松翰科技股份有限公司 利用音調的自動控制方法及其裝置
US8554370B2 (en) * 2009-05-15 2013-10-08 Honda Motor Co., Ltd Machine learning approach for predicting humanoid robot fall
US8291788B2 (en) 2009-09-22 2012-10-23 GM Global Technology Operations LLC Rotary series elastic actuator
KR101667032B1 (ko) * 2009-10-30 2016-10-17 삼성전자 주식회사 로봇의 경로 계획 장치 및 그 방법
JP2011110621A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの教示データを作成する方法およびロボット教示システム
WO2011080949A1 (ja) * 2009-12-28 2011-07-07 本田技研工業株式会社 ロボットの制御装置
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
KR101378752B1 (ko) * 2010-11-08 2014-03-28 한국과학기술연구원 전시용 로봇 및 그 제어 방법
JP4991023B2 (ja) * 2010-11-12 2012-08-01 パナソニック株式会社 移動経路探索装置および移動経路探索方法
KR20120069924A (ko) * 2010-12-21 2012-06-29 삼성전자주식회사 보행 로봇 및 그 제어 방법
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
JP5991857B2 (ja) * 2011-06-10 2016-09-14 三星電子株式会社Samsung Electronics Co.,Ltd. ロボットの均衡制御装置及びその制御方法
US9573276B2 (en) * 2012-02-15 2017-02-21 Kenneth Dean Stephens, Jr. Space exploration with human proxy robots
EP2831759A2 (en) * 2012-03-30 2015-02-04 Sony Corporation Data processing apparatus, data processing method, and program
US8965580B2 (en) 2012-06-21 2015-02-24 Rethink Robotics, Inc. Training and operating industrial robots
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
WO2014201422A2 (en) * 2013-06-14 2014-12-18 Brain Corporation Apparatus and methods for hierarchical robotic control and robotic training
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9792546B2 (en) * 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
CN103832504B (zh) * 2014-02-26 2017-01-25 南京航空航天大学 仿生足式机器人综合仿真方法
US9841749B2 (en) * 2014-04-01 2017-12-12 Bot & Dolly, Llc Runtime controller for robotic manufacturing system
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
CN105437236A (zh) * 2014-08-30 2016-03-30 赵德朝 一种仿人工程机器人
US9623556B1 (en) * 2014-09-03 2017-04-18 X Development Llc Robotic sole joint
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US11080587B2 (en) 2015-02-06 2021-08-03 Deepmind Technologies Limited Recurrent neural networks for data item generation
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US10166680B2 (en) * 2015-07-31 2019-01-01 Heinz Hemken Autonomous robot using data captured from a living subject
US9676098B2 (en) 2015-07-31 2017-06-13 Heinz Hemken Data collection from living subjects and controlling an autonomous robot using the data
US11112781B2 (en) * 2015-07-31 2021-09-07 Heinz Hemken Training an autonomous robot using previously captured data
JP5892531B1 (ja) * 2015-11-16 2016-03-23 プレンプロジェクト・ホールディングス有限会社 リンク列マッピング装置、リンク列マッピング方法、及びプログラム
CN105619408B (zh) * 2016-02-24 2017-10-27 中国科学院自动化研究所 一种类人机器人上肢运动模型的类神经精准控制方法
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
CN109195754A (zh) * 2016-05-20 2019-01-11 夏普株式会社 机器人、机器人的动作方法以及程序
CN106022305A (zh) * 2016-06-07 2016-10-12 北京光年无限科技有限公司 一种用于智能机器人的动作对比方法以及机器人
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
US10183590B2 (en) * 2016-09-23 2019-01-22 Faraday&Future Inc. Electric vehicle battery monitoring system
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
US10001780B2 (en) 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
CN108115678B (zh) * 2016-11-28 2020-10-23 深圳光启合众科技有限公司 机器人及其动作控制方法和装置
CN108229640B (zh) * 2016-12-22 2021-08-20 山西翼天下智能科技有限公司 情绪表达的方法、装置和机器人
US10377040B2 (en) 2017-02-02 2019-08-13 Brain Corporation Systems and methods for assisting a robotic apparatus
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
CN107030704A (zh) * 2017-06-14 2017-08-11 郝允志 基于神经元网络的教育机器人控制设计
US10546408B2 (en) * 2018-03-20 2020-01-28 Adobe Inc. Retargeting skeleton motion sequences through cycle consistency adversarial training of a motion synthesis neural network with a forward kinematics layer
CN109968355A (zh) * 2019-03-08 2019-07-05 北京工业大学 一种仿人机器人步态平衡模型建立的方法
US11104001B2 (en) 2019-03-13 2021-08-31 Sony Interactive Entertainment Inc. Motion transfer of highly dimensional movements to lower dimensional robot movements
KR102675346B1 (ko) * 2019-06-14 2024-06-17 가부시키가이샤 로보 가레지 박형 휴대 통신 단말과 그 제어 방법 및 제어 프로그램
DE102019216229B4 (de) * 2019-10-07 2022-11-10 Robert Bosch Gmbh Vorrichtung und Verfahren zum Steuern einer Robotervorrichtung
US11691292B2 (en) * 2019-10-14 2023-07-04 Boston Dynamics, Inc. Robot choreographer
CN112894794B (zh) * 2019-11-19 2022-08-05 深圳市优必选科技股份有限公司 人体手臂动作模仿方法、装置、终端设备及存储介质
KR102310757B1 (ko) * 2020-03-30 2021-10-08 한국과학기술원 순차적 네트워크를 이용한 사람 모션 생성 방법 및 그 장치
EP3933698A1 (en) * 2020-07-03 2022-01-05 Honda Research Institute Europe GmbH Method and control unit for generating stylized motion of an object, such as a robot or a virtual avatar
JP7766205B2 (ja) * 2022-02-01 2025-11-07 エニボティクス アーゲー 静電放電用組立体を伴う脚式ロボット、ロボット脚部、および第1の静電放電組立体の使用
US12384046B2 (en) * 2022-02-14 2025-08-12 International Business Machines Corporation Robotic assistance continuity using pedestrian gait recognition
KR102607493B1 (ko) * 2023-04-04 2023-11-29 주식회사 아임토리 로봇의 모션 분석 방법 및 장치
US12403611B2 (en) 2023-04-17 2025-09-02 Figure Ai Inc. Head and neck assembly for a humanoid robot
US12365094B2 (en) * 2023-04-17 2025-07-22 Figure Ai Inc. Head and neck assembly for a humanoid robot
US12420434B1 (en) 2024-01-04 2025-09-23 Figure Ai Inc. Kinematics of a mechanical end effector

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3148828B2 (ja) 1992-04-30 2001-03-26 本田技研工業株式会社 脚式移動ロボットの歩行制御装置
US5432417A (en) * 1992-04-30 1995-07-11 Honda Giken Kogyo Kabushiki Kaisha Locomotion control system for legged mobile robot
JP3273443B2 (ja) * 1992-05-22 2002-04-08 本田技研工業株式会社 ロボットのリンクなどの軌道生成方法及び装置
JP3662996B2 (ja) * 1996-01-25 2005-06-22 本田技研工業株式会社 脚式移動ロボットの歩行制御装置
US5872893A (en) * 1996-07-25 1999-02-16 Honda Giken Kogyo Kabushiki Kaisha Gait generation system of legged mobile robot
JPH10133733A (ja) * 1996-10-31 1998-05-22 Kokoro:Kk アミューズメントロボットの動作教示方法及び動作教示装置
DE69840655D1 (de) * 1997-01-31 2009-04-23 Honda Motor Co Ltd Steuerungssystem eines beweglichen Roboters mit Beinen
JP3667914B2 (ja) * 1997-01-31 2005-07-06 本田技研工業株式会社 脚式移動ロボットの遠隔制御システム
JP3922407B2 (ja) * 1997-10-22 2007-05-30 ソニー株式会社 データ処理装置および方法
JPH11206152A (ja) * 1998-01-09 1999-07-30 Sony Corp 超音波モータの制御方法および制御装置
US6289265B1 (en) * 1998-04-20 2001-09-11 Honda Giken Kogyo Kabushiki Kaisha Controller for legged mobile robot
WO2000068879A1 (en) * 1999-05-10 2000-11-16 Sony Corporation Robot device, its control method, and recorded medium
JP3555107B2 (ja) * 1999-11-24 2004-08-18 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの動作制御方法
JP3615702B2 (ja) * 1999-11-25 2005-02-02 ソニー株式会社 脚式移動ロボットの動作制御装置及び動作制御方法、並びに、脚式移動ロボット
JP2001260063A (ja) * 2000-03-21 2001-09-25 Sony Corp 多関節型ロボット及びその動作制御方法

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003043788A1 (fr) * 2001-11-19 2003-05-30 Japan Science And Technology Corporation Robot a forme humaine de type automoteur bipede
JP2005056340A (ja) * 2003-08-07 2005-03-03 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP2006026828A (ja) * 2004-07-16 2006-02-02 Toyota Motor Corp ロボットの動作計画方法
JP2006293442A (ja) * 2005-04-05 2006-10-26 Sony Corp 情報処理装置および方法、並びにプログラム
JP2008036761A (ja) * 2006-08-04 2008-02-21 Toyota Motor Corp 動作データ作成装置及びその方法
US8290620B2 (en) 2007-04-16 2012-10-16 Toyota Jidosha Kabushiki Kaisha Route creation method and route creation device
JP2008307640A (ja) * 2007-06-14 2008-12-25 Honda Motor Co Ltd 運動制御システム、運動制御方法および運動制御プログラム
US8315740B2 (en) 2007-06-14 2012-11-20 Honda Motor Co., Ltd. Motion control system, motion control method, and motion control program
JP2009018411A (ja) * 2007-07-13 2009-01-29 Honda Research Inst Europe Gmbh ロボットを制御する方法および装置
JP2009245236A (ja) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理方法、およびプログラム
WO2011065034A1 (ja) * 2009-11-24 2011-06-03 株式会社豊田自動織機 ロボットの動作を制御する方法およびロボットシステム
JP2011110620A (ja) * 2009-11-24 2011-06-09 Toyota Industries Corp ロボットの動作を制御する方法およびロボットシステム
JP2015174155A (ja) * 2014-03-13 2015-10-05 三菱重工業株式会社 ロボット、ロボットの制御方法、及びロボットの制御プログラム
WO2015137157A1 (ja) * 2014-03-13 2015-09-17 三菱重工業株式会社 ロボット、及びロボットの制御方法
KR20170061686A (ko) * 2014-09-02 2017-06-05 엠비엘 리미티드 전자 미소 조작 라이브러리들을 갖춘 기구화된 환경에서 도메인 고유의 애플리케이션을 실행하기 위한 로봇 조작 방법 및 시스템
JP2017536247A (ja) * 2014-09-02 2017-12-07 エムビーエル リミテッド 電子小規模操作ライブラリを用いて計装環境内でドメイン特定アプリケーションを実行するためのロボット操作方法及びシステム
KR102286200B1 (ko) 2014-09-02 2021-08-06 엠비엘 리미티드 전자 미소 조작 라이브러리들을 갖춘 기구화된 환경에서 도메인 고유의 애플리케이션을 실행하기 위한 로봇 조작 방법 및 시스템
JP7117104B2 (ja) 2014-09-02 2022-08-12 エムビーエル リミテッド 電子小規模操作ライブラリを用いて計装環境内でドメイン特定アプリケーションを実行するためのロボット操作方法及びシステム
JP7774437B2 (ja) 2016-07-21 2025-11-21 オートデスク,インコーポレイテッド モーションキャプチャを介したロボットカメラ制御
JP2022149702A (ja) * 2021-03-25 2022-10-07 トヨタ自動車株式会社 ロボットの動作データ生成システム、動作データ生成方法、及び動作データ生成プログラム
JP7540379B2 (ja) 2021-03-25 2024-08-27 トヨタ自動車株式会社 二足歩行ロボットの動作データ生成システム、動作データ生成方法、及び動作データ生成プログラム
WO2025150532A1 (ja) * 2024-01-12 2025-07-17 ソフトバンクグループ株式会社 ロボット

Also Published As

Publication number Publication date
US20040036437A1 (en) 2004-02-26
KR20030007841A (ko) 2003-01-23
CN1463215A (zh) 2003-12-24
WO2002081157A1 (en) 2002-10-17
US7024276B2 (en) 2006-04-04

Similar Documents

Publication Publication Date Title
JP2002301674A (ja) 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP3714268B2 (ja) ロボット装置
US8145492B2 (en) Robot behavior control system and method, and robot apparatus
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
JP4086024B2 (ja) ロボット装置及びその行動制御方法
JP4179230B2 (ja) ロボット装置及びその動作制御方法
JP2001277163A (ja) ロボットの制御装置及び制御方法
JP2005193331A (ja) ロボット装置及びその情動表出方法
KR20030007533A (ko) 로봇 장치의 동작 제어 방법, 프로그램, 기록 매체 및로봇 장치
KR20040050055A (ko) 로봇 장치 및 그 제어 방법
JP2002086378A (ja) 脚式ロボットに対する動作教示システム及び動作教示方法
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP2002086380A (ja) 脚式ロボット及びその制御方法
JP2006110707A (ja) ロボット装置
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2003266348A (ja) ロボット装置及びその制御方法
JP4506249B2 (ja) ロボット装置及びその動作比較方法
JP2002337075A (ja) 脚式移動ロボット及びその学習方法
JP2002331481A (ja) ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体
JP2003266352A (ja) ロボット装置及びロボット装置の制御方法
JP4552490B2 (ja) ロボット装置及びその情動制御方法
JP2002205290A (ja) 脚式移動ロボットの制御装置及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080306

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090818