[go: up one dir, main page]

JP2002283261A - ロボット装置及びその制御方法、並びに記憶媒体 - Google Patents

ロボット装置及びその制御方法、並びに記憶媒体

Info

Publication number
JP2002283261A
JP2002283261A JP2001091029A JP2001091029A JP2002283261A JP 2002283261 A JP2002283261 A JP 2002283261A JP 2001091029 A JP2001091029 A JP 2001091029A JP 2001091029 A JP2001091029 A JP 2001091029A JP 2002283261 A JP2002283261 A JP 2002283261A
Authority
JP
Japan
Prior art keywords
state
dialogue
internal state
external
external state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001091029A
Other languages
English (en)
Inventor
Rika Hasegawa
里香 長谷川
Masahiro Fujita
雅博 藤田
Atsushi Okubo
厚志 大久保
Kenta Kawamoto
献太 河本
Gabriel Costa
コスタ ガブリエル
Masaki Fukuchi
正樹 福地
Osamu Hanagata
理 花形
Kotaro Sabe
浩太郎 佐部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001091029A priority Critical patent/JP2002283261A/ja
Priority to PCT/JP2002/002889 priority patent/WO2002076687A1/ja
Priority to EP02705497A priority patent/EP1407859A1/en
Priority to CN02800911A priority patent/CN1460051A/zh
Priority to US10/296,403 priority patent/US7251606B2/en
Priority to KR1020027015875A priority patent/KR20030007685A/ko
Publication of JP2002283261A publication Critical patent/JP2002283261A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

(57)【要約】 【課題】 ロボット装置等の内部状態に応じた文章を生
成して発話することで内部状態を表現する。 【解決手段】 ロボット装置等は、外部状態を認識する
手段と、内部状態を基に情動を発生させる手段を備え、
情動の変化を対話に反映させる。内部状態は文章に付随
しているものではなく、システムに独立して存在し、さ
まざまな外部入力とシステムの内部変化から常に変動す
る。したがって、ロボット装置等に同じ質問を与えたと
しても、そのときの内部状態において応える内容は区々
で、答え方も内部状態によって相違する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ユーザからの指令
や周囲の環境に応じて動作する歩行型のロボット装置、
多関節ロボット、あるいはコンピュータ・グラフィック
ス(CG)で動作するキャラクタを用いたアニメーショ
ンなど(ロボット装置等)に関して適用される対話装置
及び方法、並びに記憶媒体に係り、特に、文章を生成し
て発話することによってユーザと会話ベースでコミュニ
ケーションを行うロボット装置及びその制御方法、並び
に記憶媒体に関する。
【0002】更に詳しくは、本発明は、ロボット装置等
の感情に基づく文章を生成して発話するロボット装置及
びその制御方法、並びに記憶媒体に係り、特に、ロボッ
ト装置等の内部状態に応じた文章を生成して発話するこ
とで内部状態を表現するロボット装置及びその制御方
法、並びに記憶媒体に関する。
【0003】
【従来の技術】従来、ユーザからの指令や周囲の環境に
応じて動作する歩行型のロボット装置、多関節ロボッ
ト、あるいはコンピュータ・グラフィックス(CG)で
動作するキャラクタを用いたアニメーションなどに関し
て、数多の提案がなされ、開発されている。このような
ロボット装置あるいはアニメーション(以下では、これ
らをまとめて「ロボット装置等」とも呼ぶ)は、ユーザ
からの指令に応答して一連の動作を行う。
【0004】例えば、イヌのような4足歩行動物に類似
された形状・構造のロボット装置、すなわち「ペット・ロ
ボット」においては、ユーザからの「伏せ」という命令
(例えば音声入力)に応答して伏せの姿勢をとったり、
自分の口の前にユーザが手を差し出すと「お手」の動作
をしたりする。
【0005】このようにイヌやヒトなどの現実の動物を
模したロボット装置等は、できるだけ本物の動物がする
動作や感情表現に近いことが望ましい。また、ユーザか
らの指令や外部環境に基づいてあらかじめ決められた動
作を行うだけでなく、本物の動物と同じように自律的に
動作することが望ましい。何故ならば、ロボット装置等
が現実とはかけ離れた同じ動作を繰り返しているとユー
ザは飽きてしまい、また、同じ住環境下での人間との共
生という、ロボット装置等の開発の究極目的を達成し得
ないからである。
【0006】最近のインテリジェントなロボット装置等
は、音声入出力、音声認識、音声合成などの機能を搭載
し、音声ベースでユーザと会話・対話を行うことができ
る。この会話・発生においても、ユーザからの指令や外
部環境に基づいて定められた動作を行うだけでなく、本
物の動物と同じように自律的に動作することが望まれて
いる。
【0007】ところで、従来の会話発声システムとして
は、例えば、特開平10−247194号公報、特開平
8−339446号公報、特開平9−16800号公報
などを挙げることができる。
【0008】特開平10−247194号公報には、既
翻訳の誤り発話意図などの違いに対して適切な用例を検
索して文全体としての整合性を保って翻訳して音声合成
することができる自動通訳装置について開示されてい
る。また、特開平8−339446号公報には、ユーザ
の多様な感情を検出し、この感情に応じて、コンピュー
タ側から情報を出力することにより、親しみの持てる対
話装置について開示されている。また、特開平9−16
800号公報には、発話テーマの変更にも容易に対応し
得る、実用的で且つユーザとの自然な対話が可能な顔画
像付き音声対話システムについて開示されている。
【0009】しかしながら、これら従来の会話発声シス
テムは、基本的には、話者すなわちユーザの音声認識と
ともに表情からの感情抽出を行い、あくまで話者の話題
に沿って、話者の感情に合わせた文章を生成するもので
ある。
【0010】また、特開平9−16800号公報に記載
の顔画像付き音声対話システムは、あらかじめ発話に対
応する応答内容をテーブルとしてあらかじめ定義してお
くシステムであり、その応答内容に感情情報を含んでい
るが、これは返事とそのときの感情があらかじめ決めら
れていることに他ならない。
【0011】インテリジェントなロボット装置等は、感
情などからなる内部状態を備えており、この内部状態を
外部に出力することによって、ユーザとより深いレベル
でのコミュニケーションを実現することができる。
【0012】しかしながら、いままでのロボット装置等
では、内部状態を表現する手段は四肢の動作などに限定
されたものしかなく、誰にでも見て分るというものでは
なかった。
【0013】
【発明が解決しようとする課題】本発明の目的は、ユー
ザからの指令や周囲の環境に応じて動作する歩行型のロ
ボット装置、た関節ロボット、あるいはコンピュータ・
グラフィックス(CG)で動作するキャラクタを用いた
アニメーションなどのロボット装置等に関して適用する
ことができる、優れたロボット装置及びその制御方法、
並びに記憶媒体を提供することにある。
【0014】本発明の更なる目的は、ロボット装置等の
感情に基づく文章を生成して発話することができる、優
れたロボット装置及びその制御方法、並びに記憶媒体を
提供することにある。
【0015】本発明の更なる目的は、ロボット装置等の
内部状態に応じた文章を生成して発話することで内部状
態を表現することができる、優れたロボット装置及びそ
の制御方法、並びに記憶媒体を提供することにある。
【0016】
【課題を解決するための手段及び作用】本発明は、上記
課題を参酌してなされたものであり、その第1の側面
は、ユーザとの対話機能を備えたロボット装置又はその
制御方法であって、外部状態を入力する外部状態入力手
段又はステップと、内部状態を管理する内部状態管理手
段又はステップと、内部状態の変化をユーザとの対話に
反映させる対話制御手段又はステップと、を具備するこ
とを特徴とするロボット装置又はその制御方法である。
【0017】本発明の第1の側面に係るロボット装置又
はその制御方法によれば、ロボット装置等は、外部状態
を認識するとともに、情動などの内部状態を変化させ、
この内部状態の変化を対話に反映させることができる。
内部状態は文章に付随しているものではなく、システム
に独立して存在し、さまざまな外部入力とシステムの内
部変化から常に変動する。
【0018】したがって、ロボット装置等に同じ質問を
与えたとしても、そのときの内部状態において応える内
容は区々で、答え方も内部状態によって相違する。すな
わち、ロボット装置等は言葉を使用した内部状態の表現
が可能となる。
【0019】この結果、誰でもロボット装置等の内部状
態を容易に把握することができ、例えば、ロボットの嗜
好を理解したりより深いコミュニケーションが可能とな
る。また、人間とロボット装置等との対話の幅が広がっ
たり、親近感が沸き、より感情移入し易く、ロボット装
置等を身近に感じることができるようになるので、人間
とロボット装置等との共存が容易になる。
【0020】また、ロボット装置等はリアルワールドと
のインターラクションによって変化する感情を言葉によ
って表現することができるので、誰にでも判り易く親し
み易いロボット装置等を設計・製作することが可能とな
り、ロボット装置等の娯楽性、エンターティンメント性
をより強くすることができる。
【0021】また、ロボット装置等は、内部状態によっ
て文章を発声させることによって、ユーザからの質問と
いう外部刺激だけでなく、さまざまな内部刺激、若しく
は内部状態によって文章を作成することが可能となる。
【0022】また、ロボット装置等は、内部状態の変化
要因などを文章に反映させるなど、バリエーションも可
能である。その他、名詞についての情報以外にも動詞や
形容詞について、内部状態を反映させた文章及び内部状
態を説明する文章を作成することが可能となる。
【0023】また、本発明の第2の側面は、ユーザとの
対話機能を備えたロボット装置又はその制御方法であっ
て、外部状態を入力する外部状態入力手段又はステップ
と、該入力された外部状態を認識する外部状態認識手段
又はステップと、該認識された外部状態の意味内容を文
章形式で理解する外部状態理解手段又はステップと、内
部状態を管理する内部状態管理手段又はステップと、内
部状態に照らし合わせて外部状態の認識結果に沿った対
話文を生成する対話文生成手段又はステップと、該生成
された対話文を外部出力する出力手段又はステップと、
を具備することを特徴とするロボット装置又はその制御
方法である。
【0024】本発明の第2の側面に係るロボット装置又
はその制御方法によれば、ロボット装置等は、外部状態
を認識するとともに、情動などの内部状態を変化させ、
この内部状態の変化を対話に反映させることができる。
内部状態は文章に付随しているものではなく、システム
に独立して存在し、さまざまな外部入力とシステムの内
部変化から常に変動する。
【0025】したがって、ロボット装置等に同じ質問を
与えたとしても、そのときの内部状態において応える内
容は区々で、答え方も内部状態によって相違する。すな
わち、ロボット装置等は言葉を使用した内部状態の表現
が可能となる。
【0026】ここで、内部状態は例えばロボット装置の
情動で構成される。
【0027】また、前記内部状態管理手段又はステップ
は、外部状態の変化に応答して内部状態を変化させる。
【0028】また、ロボット装置等は、外部状態をクラ
ス化した結果を内部状態とともに記憶するデータベース
を備えていてもよい。このような場合、前記対話文生成
手段又はステップは、データベースを用いて対話文を生
成することができる。
【0029】また、内部状態に照らし合わせて外部状態
の認識結果に沿った機体の動作又は行動を生成する動作
・行動生成手段又はステップと、 該生成された機体動
作又は行動を実現する機体制御手段又はステップとを備
えていてもよい。このような場合、ロボット装置等は、
内部状態の変化を、対話だけではなく機体動作を用いて
発現することができる。
【0030】また、本発明の第3の側面は、ユーザとの
対話を行う対話装置又は対話制御方法であって、外部状
態を入力する外部状態入力手段又はステップと、内部状
態を管理する内部状態管理手段又はステップと、内部状
態の変化をユーザとの対話に反映させる対話制御手段又
はステップと、を具備することを特徴とする対話装置又
は対話制御方法である。
【0031】本発明の第3の側面に係る対話装置又は対
話制御方法によれば、外部状態を認識するとともに、情
動などの内部状態を変化させ、この内部状態の変化を対
話に反映させることができる。内部状態は文章に付随し
ているものではなく、システムに独立して存在し、さま
ざまな外部入力とシステムの内部変化から常に変動す
る。
【0032】したがって、ユーザが同じ質問を与えたと
しても、そのときの内部状態において応える内容は区々
で、答え方も内部状態によって相違し、使用した内部状
態の表現が可能となる。
【0033】また、本発明の第4の側面は、ユーザとの
対話を行う対話装置又は対話制御方法であって、外部状
態を入力する外部状態入力手段又はステップと、該入力
された外部状態を認識する外部状態認識手段又はステッ
プと、該認識された外部状態の意味内容を文章形式で理
解する外部状態理解手段又はステップと、内部状態を管
理する内部状態管理手段又はステップと、内部状態に照
らし合わせて外部状態の認識結果に沿った対話文を生成
する対話文生成手段又はステップと、該生成された対話
文を外部出力する出力手段又はステップと、を具備する
ことを特徴とする対話装置又は対話制御方法である。
【0034】本発明の第4の側面に係る対話装置又は対
話制御方法によれば、外部状態を認識するとともに、情
動などの内部状態を変化させ、この内部状態の変化を対
話に反映させることができる。内部状態は文章に付随し
ているものではなく、システムに独立して存在し、さま
ざまな外部入力とシステムの内部変化から常に変動す
る。
【0035】したがって、ユーザが同じ質問を与えたと
しても、そのときの内部状態において応える内容は区々
で、答え方も内部状態によって相違し、使用した内部状
態の表現が可能となる。
【0036】ここで、前記内部状態管理手段又はステッ
プは、外部状態の変化に応答して内部状態を変化させる
ようにしてもよい。
【0037】また、対話装置は、外部状態をクラス化し
た結果を内部状態とともに記憶するデータベースをさら
に備えていてもよい。このような場合、前記対話文生成
手段又はステップは、データベースに記憶された情報を
用いて対話文を生成することができる。
【0038】また、本発明の第5の側面は、ユーザとの
対話機能を備えたロボット装置の制御をコンピュータ・
システム上で実行するように記述されたコンピュータ・
ソフトウェアをコンピュータ可読形式で物理的に格納し
た記憶媒体であって、前記コンピュータ・ソフトウェア
は、外部状態を入力する外部状態入力ステップと、該入
力された外部状態を認識する外部状態認識ステップと、
該認識された外部状態の意味内容を文章形式で理解する
外部状態理解ステップと、内部状態を管理する内部状態
管理ステップと、内部状態に照らし合わせて外部状態の
認識結果に沿った対話文を生成する対話文生成ステップ
と、該生成された対話文を外部出力する出力ステップ
と、を具備することを特徴とする記憶媒体である。
【0039】また、本発明の第6の側面は、ユーザとの
対話処理をコンピュータ・システム上で実行するように
記述されたコンピュータ・ソフトウェアをコンピュータ
可読形式で物理的に格納した記憶媒体であって、前記コ
ンピュータ・ソフトウェアは、外部状態を入力する外部
状態入力ステップと、該入力された外部状態を認識する
外部状態認識ステップと、該認識された外部状態の意味
内容を文章形式で理解する外部状態理解ステップと、内
部状態を管理する内部状態管理ステップと、内部状態に
照らし合わせて外部状態の認識結果に沿った対話文を生
成する対話文生成ステップと、該生成された対話文を外
部出力する出力ステップと、を具備することを特徴とす
る記憶媒体である。
【0040】本発明の第5並びに第6の各側面に係る記
憶媒体は、例えば、様々なプログラム・コードを実行可
能な汎用コンピュータ・システムに対して、コンピュー
タ・ソフトウェアをコンピュータ可読な形式で提供する
媒体である。このような媒体は、例えば、CD(Compac
t Disc)やFD(Floppy Disk)、MO(Magneto-Optic
al disc)などの着脱自在で可搬性の記憶媒体である。
あるいは、ネットワーク(ネットワークは無線、有線の
区別を問わない)などの伝送媒体などを経由してコンピ
ュータ・ソフトウェアを特定のコンピュータ・システム
に提供することも技術的に可能である。
【0041】このような記憶媒体は、コンピュータ・シ
ステム上で所定のコンピュータ・ソフトウェアの機能を
実現するための、コンピュータ・ソフトウェアと記憶媒
体との構造上又は機能上の協働的関係を定義したもので
ある。換言すれば、本発明の第5並びに第6の各側面に
係る記憶媒体を介して所定のコンピュータ・ソフトウェ
アをコンピュータ・システムにインストールすることに
よって、コンピュータ・システム上では協働的作用が発
揮され、本発明の第2の側面に係るロボット装置及びそ
の制御方法、並びに、本発明の第4の側面に係る対話装
置及び対話制御方法の各々と同様の作用効果を得ること
ができる。
【0042】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
【0043】
【発明の実施の形態】以下、図面を参照しながら本発明
の実施例を詳解する。
【0044】図1には、本発明を実施に供される、四肢
による脚式歩行を行う移動ロボット1の外観構成を示し
ている。図示の通り、該ロボット1は、四肢を有する動
物の形状や構造をモデルにして構成された多関節型の移
動ロボットである。とりわけ本実施例の移動ロボット1
は、愛玩動物の代表例であるイヌの形状及び構造を模し
てデザインされたペット型ロボットという側面を有し、
例えば人間の住環境において人間と共存するとともに、
ユーザ操作に応答した動作表現することができる。
【0045】移動ロボット1は、胴体部ユニット2と、
頭部ユニット3と、尻尾4と、四肢すなわち脚部ユニッ
ト6A〜6Dで構成される。
【0046】胴体部ユニット2には、機体動作を統括的
にコントロールする制御ユニット(後述:図1には図示
せず)や、機体の主電源であるバッテリ21(図1には
図示しない)が収容されている。
【0047】頭部ユニット3は、ロール、ピッチ及びヨ
ーの各軸方向(図示)の自由度を持つ首関節7を介し
て、胴体部ユニット2の略前上端に配設されている。ま
た、頭部ユニット3には、イヌの「目」に相当するCC
D(Charge Coupled Device:電荷結合素子)カメラな
どの画像認識部15と、「耳」に相当するマイクロフォ
ン16と、「口」に相当するスピーカ17と、触感に相
当するタッチセンサ18と、複数のLEDインジケータ
19と、ユーザからリモート・コントローラ(図示しな
い)を介して送信される指令を受信するリモート・コン
トローラ受信部20が搭載されている。これら以外に
も、生体の五感を構成するセンサを含んでいても構わな
い。
【0048】尻尾4は、ロール及びピッチ軸の自由度を
持つ尻尾関節8を介して、胴体部ユニット2の略後上端
に湾曲若しくは揺動自在に取り付けられている。
【0049】脚部ユニット6A及び6Bは前足を構成
し、脚部ユニット6C及び6Dは後足を構成する。各脚
部ユニット6A〜6Dは、それぞれ、大腿部ユニット9
A〜9D及び脛部ユニット10A〜10Dの組み合わせ
で構成され、胴体部ユニット2の底面の前後左右の各隅
部に取り付けられている。大腿部ユニット9A〜9D
は、ロール、ピッチ、ヨーの各軸の自由度を持つ股関節
11A〜11Dによって、胴体部ユニット2の各々の所
定部位に連結されている。また、大腿部ユニット9A〜
9Dと脛部ユニット10A〜10Dの間は、ロール及び
ピッチ軸の自由度を持つ膝関節12A〜12Dによって
連結されている。
【0050】図示のように構成された脚式移動ロボット
1は、後述する制御部からの指令により各関節アクチュ
エータを駆動することによって、例えば、頭部ユニット
3を上下左右に振らせたり、尻尾4を振らせたり、各足
部ユニット6A〜6Dを同期協調的に駆動させて歩行や
走行などの動作を実現することができる。
【0051】なお、移動ロボット1の関節自由度は、実
際には各軸毎に配備され関節アクチュエータ(図示しな
い)の回転駆動によって提供される。また、脚式移動ロ
ボット1が持つ関節自由度の個数は任意であり、本発明
の要旨を限定するものではない。
【0052】図2には、この移動ロボット1の動作を制
御する制御ユニットのハードウェア構成を模式的に示し
ている。
【0053】頭部3は、マイク16及びリモート・コン
トローラ受信部20からなるコマンド受信部30と、画
像認識部15及びタッチ・センサ18からなる外部セン
サ31と、スピーカ17と、LEDインジケータ19と
を有している。
【0054】また、胴体部2は、主電源としてのバッテ
リ21を収容するとともに、移動ロボット1全体の動作
を統括的にコントロールするコントローラ32と、バッ
テリ21の残存容量を検出するためのバッテリ・センサ
33と、機体内部で発生する熱を検出するための熱セン
サ34からなる内部センサ35とを備えている。
【0055】さらに、移動ロボット1の各部(例えば駆
動関節部分)には、複数のアクチュエータ23A〜23
Nがそれぞれ配設されている。
【0056】コマンド受信部30は、リモート・コント
ローラ受信部20やマイク16などで構成され、ユーザ
が移動ロボット1に与える指令、例えば「歩け」、「伏
せ」、「ボールを追いかけろ」などの指令を受信するこ
とができる。
【0057】リモート・コントローラ受信部20は、ユ
ーザ操作によりリモート・コントローラ(図示しない)
に入力された指令を受信して、受信信号S1Aを生成し
て、こをコントローラ32に送出する。例えば、リモー
ト・コントローラからの指令は、赤外線データ通信(I
rDA)や、bluetoothなどの近距離無線デー
タ通信などの技術を用いて転送される。
【0058】マイクロフォン16は、ユーザが所望の指
令に応じた音声を発すると、これを集音して音声信号S
1Bを生成して、コントローラ32に送出する。
【0059】外部センサ31のタッチ・センサ18は、
ユーザから移動ロボット1への働きかけ、例えば「なで
る」、「たたく」などの働きかけを検出する。例えば、
ユーザによりタッチ・センサ18が触れられて所望の働
きかけがなされると、これに応じた接触検出信号S2A
を生成して、コントローラ32に送出する。
【0060】外部センサ31の画像認識部15は、移動
ロボット1の周囲の環境を識別した結果、例えば「暗
い」、「お気に入りのオモチャがある」などの周囲の環
境情報を検出したり、あるいは、「他のロボットが走っ
ている」などの他の移動ロボットの動きを検出したりす
る。この画像認識部15は、周囲の画像を撮影した結果
得られる画像信号S2Bをコントローラ32に送出す
る。
【0061】内部センサ35は、移動ロボット1自身の
内部状態、例えば、バッテリの残存容量が低下したこと
を意味する「お腹が空いた」、「熱がある」などの内部
状態を検出するためのものであり、バッテリ・センサ3
3と熱センサ34を含んでいる。
【0062】バッテリ・センサ33は、機体の主電源で
あるバッテリ21の残存容量を検出して、その結果であ
るバッテリ容量検出信号S3Aをコントローラ32に送
出する。また、熱センサ34は、機体内部の熱を検出し
て、その結果である熱検出信号S3Bをコントローラ3
2に送出する。
【0063】コントローラ32は、コマンド受信部30
から供給される指令信号S1と、外部センサ31から供
給される外部情報信号S2と、内部センサ35から供給
される内部情報信号S3に基づいて、各アクチュエータ
23A〜23Nを駆動させるための制御信号S5A〜S
5Nを生成して、これらをそれぞれのアクチュエータ2
3A〜23Nに向けて送出することによって、機体の動
作を統括的にコントロールする。
【0064】その際、コントローラ32は、外部に出力
するための音声信号S10や発光信号S11を必要に応
じて生成する。このうち音声信号S10を、スピーカ1
7を介して外部に出力し、また、発光信号S11をLE
Dインジケータ19に送出して、所望の発光出力(例え
ば、点滅したり色を変化させたりする)を行うことによ
り、ユーザに機体の内部状態などの情報をフィードバッ
クすることができる。例えば、発光出力により、ユーザ
に自己の感情を知らせるようにすることができる。な
お、LEDインジケータ19に替えて、画像を表示する
画像表示部(図示しない)を備えるようにしてもよい。
これにより、所望の画像表示を介して、ユーザに自己の
感情などの情報をより正確且つ詳細にユーザに提示する
ことができる。
【0065】次いで、コントローラ32による機体の制
御について説明する。
【0066】図3には、コントローラ32の機能構成を
模式的に図解している。同図に示すように、コントロー
ラ32は、信号認識部41と、感情・本能モデル部42
と、行動決定機構部43と、姿勢遷移機構部44と、制
御機構部45という各機能モジュールで構成される。こ
れらの機能モジュールは、実際には、所定のプログラム
・コードを実行するという、コンピュータ上でのソフト
ウェア処理により実現することができる。
【0067】信号認識部41では、内部状態並びに外部
環境を示す各入力信号を認識・理解する処理が行われ
る。図4には、信号認識部41の機能構成を模式的に示
している。以下、この図を参照しながら、信号認識部4
1の機能について説明する。
【0068】タッチ・センサ18は、例えば移動ロボッ
ト1の全身に分散して配置された接触センサや感圧セン
サで構成される。例えば、ユーザが移動ロボット1に対
して「なでる」や「叩く」などの外力を印加したときに
は、そのセンサ入力信号S2Aが意味変換部52に供給
される。意味変換処理部51では、「なでる」や「叩
く」などのユーザ操作が包含する意味内容を解釈又は推
定して、テキスト形式の意味変換データとして言語処理
部56に出力する。
【0069】画像認識部15は、例えばCCD(Charge
Coupled Device)などの撮像装置で構成されている。
例えば、ユーザの動作・挙動(ジェスチャなど)を捕捉
した画像入力信号S2Bは、意味変換処理部52に供給
される。意味変換処理部56では、ユーザの動作・挙動
が包含する意味内容を解釈又は推定して、テキスト形式
の意味変換データとして言語処理部56に出力する。ま
た、言語形式の意味があらかじめ定義されている視認性
識別情報(例えば「サイバーコード」やランドマークな
ど)を画像入力する場合には、画像認識結果と一義の意
味変換処理を行うことができる。
【0070】マイクロフォン16からの音声入力信号S
1Bは、頭部に搭載されている。音声認識処理部53
は、音声入力部53を介して入力されるユーザの音声を
テキストとして認識されて、言語処理部56に出力す
る。
【0071】バッテリ・センサ33は、機体の主電源で
あるバッテリ21の残存容量を検出して、その結果であ
るバッテリ容量検出信号S3Aは、意味変換処理部54
に供給される。意味変換処理部54では、「お腹が空い
た」などのバッテリ21の残存容量が包含する意味内容
を解釈又は推定して、テキスト形式の意味変換データと
して言語処理部56に出力する。
【0072】熱センサ34は、機体内部の熱を検出し
て、その結果である熱検出信号S3Bは、意味変換処理
部55に供給される。意味変換処理部55では、「熱が
ある」などの機体の熱が包含する意味内容を解釈又は推
定して、テキスト形式の意味変換データとして言語処理
部56に出力する。
【0073】言語処理部56は、言語データベース57
を利用しながら、外部センサ31や内部センサ35など
からの入力結果が持つ意味・内容を解析して、言語すな
わち文章形式で理解する。また、言語処理部56は、外
部センサ31や内部センサ35からの入力情報の認識結
果を、文章形式又は他の形式で、感情・本能モデル部4
2に送出する。
【0074】言語データベース57は、移動ロボット1
において認識又は発現することのできる事柄をデータベ
ース化して蓄積している。本実施形態では、言語データ
ベース57は、後述するように、外部状態をクラス化し
た結果を、情動とともにデータベース管理している。言
語データベース57の記憶内容は、経験や学習により変
更する。
【0075】言語処理部56では、移動ロボット1の中
でのその事柄についての快不快とその意味合いも、言語
データベース57を照合することで処理する。また、そ
れらの事柄と意味合いによって分解した言葉とを照らし
合わせ、文の内容に沿った文章を作成する。作成された
文章は、例えば、スピーカ17のような出力装置を介し
て表出される。
【0076】再び図3に戻って、コントローラ32によ
る制御について説明する。感情・本能モデル部42は、
移動ロボット1における内部状態を構成する感情や本能
をモデル化して取り扱い、信号認識部41を介して得ら
れる機体内外での環境変化に基づいて感情モデルや本能
モデルに変化を与える。
【0077】行動決定機構部43は、指令信号S1、外
部情報信号S2、及び、内部情報信号S3に加えて、感
情・本能モデル部42により得られた感情・本能状態情報
S10に基づいて、移動ロボット1が実行する次の動作
(行動)を決定する。
【0078】姿勢遷移機構部44は、行動決定機構部4
3により決定された次の動作(行動)に遷移するための
姿勢の遷移計画を立てる。なお、行動決定機構部43に
より決定された動作(行動)に関する情報は、感情・本
能モデル部42にフィードバックされて、感情・本能モ
デル部42では、決定された動作(行動)を参照して感
情や本能の状態を決定することができる。
【0079】制御機構部45は、姿勢遷移機構部44か
ら姿勢遷移計画に基づいて送られてくる姿勢遷移情報S
18に基づいて、アクチュエータ23A〜23Nなどの
各駆動部の動作を制御して、実際に姿勢を遷移させてか
ら、行動決定機構部43にて決定された次の動作(行
動)を実行させる。
【0080】図5には、感情・本能モデル部42の機能
構成を模式的に示している。同図に示すように、感情・
本能モデル部42は、感情モデル(Emotion)を構成す
る情動群60と、感情モデルとは属性の異なるモデルと
して用意された本能モデル(Instinct)を構成する欲求
群61に大別される。
【0081】ここで、感情モデルはある値を有する感情
パラメータによって構成され、移動ロボット1に規定さ
れた感情を感情パラメータの値に応じた動作を表出させ
るためのモデルである。感情パラメータは、主に、圧力
センサや視覚センサなどのセンサによって検出された
「叩かれた」、「怒られた」といった外部入力信号(外
的要因)に基づいて値が上下変動する。勿論、感情パラ
メータは、バッテリ残存容量や体内温度などの内部入力
信号(内的要因)に基づいても変化する。
【0082】また、本能モデルは、ある値を有する本能
パラメータによって構成され、移動ロボット1に規定さ
れた本能(欲求)を本能パラメータの値に応じた動作を
介して表出させるためのモデルである。本能パラメータ
は、主に、行動履歴に基づいた「運動がしたい」、ある
いは、バッテリ残存容量に基づく「充電がしたい(お腹
が空いた)」といった内部入力信号に基づいて値が上下
変動する。勿論、本能パラメータも、感情パラメータと
同様、外部入力信号(外的要因)に基づいても変化す
る。
【0083】これら感情モデル及び本能モデルは、それ
ぞれ同一属性とされる複数種類のモデルによって構成さ
れている。すなわち、情動群60が同一属性からなる独
立した感情モデルとしての情動ユニット60A〜60F
を有し、欲求群61が同一属性からなる独立した欲求モ
デルとしての欲求ユニット61A〜61Dを有してい
る。
【0084】情動群60としては、「うれしさ」の感情
を示す情動ユニット60A、「悲しさ」の感情を示す情
動ユニット60B、「怒り」の感情を示す情動ユニット
60C、「驚き」の感情を示す情動ユニット60D、
「恐れ」の感情を示す情動ユニット60E、並びに「嫌
悪」の感情を示す情動ユニット60Fなどが挙げられ
る。また、欲求群61としては、「運動欲(Movement I
nstinct)」の欲求を示す欲求ユニット61A、「愛情
欲(Love Instinct)」の欲求を示す欲求ユニット61
B、「食欲(Recharge Instinct)」の欲求を示す欲求
ユニット61C、「好奇心(Search Instinct)」の欲
求を示す欲求ユニット61Dなどが挙げられる。
【0085】情動ユニット60A〜60Fは、情動の度
合いを例えば0〜100レベルまでの強度(感情パラメ
ータ値)によってそれぞれ表し、供給される指令信号S
1、外部情報信号S2、及び内部情報信号S3に基づい
て情動の強度をそれぞれ時々刻々と変化させる。かくし
て、感情・本能モデル42は、時々刻々と変化する情動
ユニット60A〜60Fの強度を組み合わせることによ
り、移動ロボット1の感情の状態を表現し、感情の時間
変化をモデル化している。
【0086】さらに、所望の情動ユニットどうしが相互
に影響し合って強度が変化するようにもなされている。
例えば、情動ユニットどうしを相互抑制的又は相互刺激
的に結合し、相互に影響し合って強度が変化するように
している。
【0087】本実施形態に係る移動ロボット1は、外部
状態を文章ベースで認識するとともに、内部状態を基に
情動を発生させて、情動の変化をユーザとの対話に反映
させることができる。ここで言う内部状態は、文章に付
随しているものではなく、システムに独立して存在し、
さまざまな外部入力とシステムの内部変化から常に変動
する。すなちわ、移動ロボット1は、自身の内部状態に
よって文章を発声するなどの表出動作を行うので、ユー
ザからの質問という外部刺激だけ出なく、さまざまな内
部刺激や内部状態によって文章を作成し、ユーザとの対
話という形態で表出することができる。したがって、ロ
ボット装置等に同じ質問を与えたとしても、その時々に
おける内部状態において応える内容は区々で、答え方も
内部状態によって相違する。
【0088】図6には、本実施形態に係る移動ロボット
1上で提供される対話メカニズム70を模式的に示して
いる。同図に示すように、この対話メカニズム70は、
認識オブジェクト71と、理解オブジェクト72と、言
語データベース57と、内部状態オブジェクト73と、
生成オブジェクト74と、実行オブジェクト75とで構
成される。
【0089】認識オブジェクト71は、マイクロフォン
16やタッチ・センサ18などのハードウェアからの入
力を認識し得る形でシステム内に取り込む。
【0090】理解オブジェクト72は、認識オブジェク
ト71によって取り込まれた形に対して、意味を与え
る。例えば、圧力80に対して"HIT"という意味を与
えたり、角が3つに対して「三角形」という意味を与え
る。
【0091】理解オブジェクト72は、言語データベー
ス57を参照して、認識・発現できる事柄をここから探
索する。言語データベース57は、移動ロボット1にお
いて認識又は発現することのできる事柄をデータベース
化して蓄積している。言語データベース57は、より好
ましくは、外部状態をクラス化した結果を情動とともに
データベース管理している。移動ロボット1の中でのそ
の事柄についての快不快とその意味合いも、言語データ
ベース57を参照することによって処理される。言語デ
ータベース57は、経験や学習により変更する。言語デ
ータベース57は、文章テンプレートも備え、それらの
事柄と意味合いによって分解した言葉とを照らし合わ
せ、文の内容に沿った文章を作成することができる。
【0092】認識オブジェクト71と、理解オブジェク
ト72と、言語データベース57は、信号認識部41
(図3を参照のこと)内で構成される。
【0093】内部状態オブジェクト73は、例えば、本
能・感情モデル部42(図3を参照のこと)によって構
成され、理解オブジェクトによって付けられた意味合い
に基づいて移動ロボット1の内部状態を変化させる。
【0094】生成オブジェクト74は、行動決定機構部
43(図3を参照のこと)によって構成され、理解オブ
ジェクト72並びに内部状態オブジェクト73の出力に
基づいて、移動ロボット1の次の動作(行動)を決定す
る。本実施形態では、生成オブジェクト74は、機体動
作で発現する行動、並びに文章という形式で次の動作を
生成する。
【0095】実行オブジェクト75は、生成オブジェク
ト74により生成されたオブジェクトを実行して外部出
力する。生成されたオブジェクトが行動であった場合に
は、アクチュエータ23A〜23Nの駆動による機体動
作によって実行される。また、生成されたオブジェクト
が文章であった場合には、スピーカ17を介した発声に
よって実行される。実行オブジェクトは、姿勢遷移機構
部44と制御機構部45(図3を参照のこと)によって
構成される。
【0096】また、実行オブジェクト75による外部出
力の実行結果は、内部状態オブジェクト73にフィード
バックされ、内部状態を変化させる。
【0097】次いで、移動ロボット1の対話メカニズム
70の動作例について説明する。
【0098】図7には、移動ロボット1がユーザに尋ね
られて答える場合の対話メカニズム70の動作例を示し
ている。
【0099】移動ロボット1は、認識・発現できるもの
のデータベースを備えている。ユーザが移動ロボット1
に対して、「ボールは好きですか?」と尋ねると、移動
ロボット1は、その人間の言葉をマイクロフォン16で
集音して、認識オブジェクト71においてHMM(Hidd
en Markov Model:隠れマルコフ・モデル)などにより音
声認識し、その意味合いにより文章を分解する(隠れマ
ルコフ・モデルは、音素や単語などの音声の単位を統計
的にモデル化したもので、状態遷移構造を持つ)。さら
に、理解オブジェクト72により、音声入力された文章
が疑問文であること、並びに、主語(S)、述語
(V)、及びこの文章がSに対しての嗜好の疑問である
ことを判別する。
【0100】ここで、データベース57から「ボール」
を引き出して、「ボール」は快が高い、すなわち「好
き」な物だと判断する。よって、生成オブジェクト74
では、「SはVですか?」という質問に対する答え「S
はV」、つまり「ボールは好き」という文章を作成す
る。そして、実行オブジェクト75において、生成され
た文章の発音列を作成してその波形を生成して、スピー
カ17から発生することによって、嗜好に対する受け答
えが実現される。
【0101】「なぜボールが好きなのですか?」という
入力があった場合も同様に、認識オブジェクト71にお
いて分割された文章に基づき、理解オブジェクト72に
より入力された文章が疑問文であること、主語(S)、
述語(V)、この文章がSがVであることの理由の疑問
であることを判別する。
【0102】ここで、データベース57から「ボール」
を引き出し、その快不快が決定した要因「蹴れる」を取
り出す。そして、「Sは○○だからV」という理由を示
す文章に対して、生成オブジェクト74は「ボールは蹴
れるから好き」というような答えの文章を生成する。そ
して、実行オブジェクト75において生成された文章の
発音列を作成してその波形を生成して、スピーカ17か
ら発生することによって嗜好の理由に対する受け答えが
実現される。
【0103】主語Sの部分には、名詞だけでなく、動詞
を名詞化したもの(「遊ぶこと」など)や形容詞を名詞
化したもの(「きれいなもの」、「たのしいこと」な
ど)などを使用することによって、文章表現の幅が拡張
される。
【0104】また、ユーザがボールを指差しながら、
「これは好きですか?」と質問した場合には、認識オブ
ジェクト71によって入力された文章を分割した後、理
解オブジェクト72では、この文章のSに当る「これ」
が指示代名詞であることを理解する。そこで、移動ロボ
ット1は、ユーザが指差しているものが何であるかを画
像入力を基に判別して、「これ」と「ボール」を結び付
ける。このように指示代名詞を特定の物と結び付けた上
で、上述と同じ処理を実行すればよい。
【0105】また、図8には、移動ロボット1がカメラ
で対象物を認識した場合の対話メカニズム70の動作例
を示している。
【0106】例えば、ボールのように認識可能な物を移
動ロボット1の視界に置いた場合、移動ロボット1は、
カメラ15によってその物体の画像を取り込む。そし
て、認識オブジェクト71によって取り込んだ画像がボ
ールであることを判別する。
【0107】理解オブジェクト72は、データベース5
7を参照して「ボール」を引き出し、「ボール」は快が
高い、つまり「好き」な物だと判断する。
【0108】これに応答して、生成オブジェクト74で
は、「SはV」、つまり「ボールは好き」という文章を
作成する。そして、実行オブジェクト75において、生
成された文章の発音列を作成してその波形を生成して、
スピーカ17から発生することによって、移動ロボット
1自身の嗜好表現が実現される。
【0109】最後に、本実施形態に係る対話メカニズム
70を適用して生成される文章例を以下に示しておく。
【0110】(1)名前の判らない物を見て、「これは
何ですか?」と質問する
【0111】(2)名前の分かる物を見て、「これは○
○です」と言う。
【0112】(3)自分の本能モデル(Instinct)、感
情モデル(Emotion)のパラメータ値を基に、「○○が
××だ」と伝える。 例)食欲(Hunger)が高くなって、「お腹が減った」と
言う。 例)うれしさ(Joy)が高くなって、「私はうれしい」
と伝える。
【0113】(4)自分の本能、感情を満足させるもの
を「(○○を)××したい」と伝える。 例)運動欲(Exercise)を満足させるために「ボールを
蹴りたい」と伝える。 例)食欲(Thirst)を満足させるために「水を飲みた
い」と伝える。
【0114】(5)「○○しなさい」と人間から言われ
たことに対して、命令文だと理解して、「○○します」
と答える。
【0115】[追補]以上、特定の実施例を参照しなが
ら、本発明について詳解してきた。しかしながら、本発
明の要旨を逸脱しない範囲で当業者が該実施例の修正や
代用を成し得ることは自明である。
【0116】本明細書では、ペット・ロボットに対して
本発明を適用した実施形態を主として説明してきたが、
本発明の要旨は、必ずしも「ロボット」と称される製品
には限定されない。すなわち、電気的若しくは磁気的な
作用を用いて人間の動作に似せた運動を行う機械装置で
あるならば、例えば玩具等のような他の産業分野に属す
る製品であっても、同様に本発明を適用することができ
る。また、勿論、コンピュータ・グラフィックス(C
G)で動作するキャラクタを用いたアニメーションなど
に対しても本発明を適用することができる。
【0117】要するに、例示という形態で本発明を開示
してきたのであり、限定的に解釈されるべきではない。
本発明の要旨を判断するためには、冒頭に記載した特許
請求の範囲の欄を参酌すべきである。
【0118】
【発明の効果】以上詳記したように、本発明によれば、
ユーザからの指令や周囲の環境に応じて動作する歩行型
のロボット装置、多関節ロボット、あるいはコンピュー
タ・グラフィックス(CG)で動作するキャラクタを用
いたアニメーションなどのロボット装置等に関して適用
することができる、優れたロボット装置及びその制御方
法、並びに記憶媒体を提供することができる。
【0119】また、本発明によれば、ロボット装置等の
内部状態に応じた文章を生成して発話することで内部状
態を表現することができる、優れたロボット装置及びそ
の制御方法、並びに記憶媒体を提供することができる。
【0120】本発明に係るロボット装置及びその制御方
法によれば、ロボット装置等は言葉を使用した内部状態
の表現が可能となる。この結果、誰でもロボット装置等
の内部状態を容易に把握することができ、例えば、ロボ
ットの嗜好を理解したりより深いコミュニケーションが
可能となる。また、人間とロボット装置等との対話の幅
が広がったり、親近感が沸き、より感情移入し易く、ロ
ボット装置等を身近に感じることができるようになるの
で、人間とロボット装置等との共存が容易になる。
【0121】また、本発明に係るロボット装置及びその
制御方法によれば、ロボット装置等はリアルワールドと
のインターラクションによって変化する感情を言葉によ
って表現することができるので、誰にでも判り易く親し
み易いロボット装置等を設計・製作することが可能とな
り、ロボット装置等の娯楽性、エンターティンメント性
をより強くすることができる。
【0122】本発明に係るロボット装置及びその制御方
法では、内部状態(感情は内部状態の一部とみなす)は
文章に付随しているものではなく、システムに独立して
存在し、さまざまな外部入力とシステムの内部変化から
常に変動するものである。したがって、ロボット装置等
に同じ質問を与えたとしても、そのときの内部状態にお
いて応える内容は区々であり、答え方もロボット装置等
の内部状態によって相違する。内部状態は文章によるも
のではなく、内部状態によって文章を作成する、という
点に充分留意されたい。
【0123】また、本発明に係るロボット装置及びその
制御方法では、内部状態によって文章を発声させること
によって、ユーザからの質問という外部刺激だけでな
く、さまざまな内部刺激、若しくは内部状態によって文
章を作成することが可能である。また、内部状態の変化
要因などを文章に反映させるなど、バリエーションも可
能である。その他、名詞についての情報以外にも動詞や
形容詞について、内部状態を反映させた文章及び内部状
態を説明する文章を作成することが可能である。
【図面の簡単な説明】
【図1】本発明を実施に供される四肢による脚式歩行を
行う移動ロボット1の外観構成を示した図である。
【図2】移動ロボット1の動作を制御する制御ユニット
のハードウェア構成を模式的に示した図である。
【図3】コントローラ32の機能構成を模式的に示した
図である。
【図4】信号認識部41の機能構成を模式的に示した図
である。
【図5】感情・本能モデル部42の機能構成を模式的に
示した図である。
【図6】本実施形態に係る移動ロボット1の対話メカニ
ズム70を模式的に示した図である。
【図7】移動ロボット1がユーザに尋ねられて答える場
合の対話メカニズム70の動作例を示した図である。
【図8】移動ロボット1が物を認識して話す場合の対話
メカニズム70の動作例を示した図である。
【符号の説明】
1…移動ロボット 2…胴体部ユニット 3…頭部ユニット 4…尻尾 6A〜6D…脚部ユニット 7…首関節 8…尻尾関節 9A〜9D…大腿部ユニット 10A〜10D…脛部ユニット 11A〜11D…股関節 12A〜12D…膝関節 15…カメラ(画像認識部) 16…マイクロフォン 17…スピーカ 18…タッチセンサ 19…LEDインジケータ 20…リモート・コントローラ受信部 21…バッテリ 23…アクチュエータ 30…コマンド受信部 31…外部センサ 32…コントローラ 33…バッテリ・センサ 34…熱センサ 35…内部センサ 41…信号認識部 42…感情・本能モデル部 43…行動決定機構部 44…姿勢遷移機構部 45…制御機構部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 535Z 15/22 551H 571U (72)発明者 大久保 厚志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 河本 献太 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 ガブリエル コスタ 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 福地 正樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 花形 理 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 佐部 浩太郎 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 CA01 CA02 CA04 DA04 DA05 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF07 EF13 EF16 EF23 EF28 EF29 EF33 EF36 3C007 AS36 BS09 CS08 HS09 KS27 KS31 KS33 KS39 KT02 KT11 KV18 LT06 LV01 LV18 LW03 MT14 WA04 WA14 WB14 WB16 WB19 WB25 WC07 WC13 5D015 HH00 KK02 KK04 LL12 5D045 AA07 AB11

Claims (22)

    【特許請求の範囲】
  1. 【請求項1】ユーザとの対話機能を備えたロボット装置
    であって、 外部状態を入力する外部状態入力手段と、 内部状態を管理する内部状態管理手段と、 内部状態の変化をユーザとの対話に反映させる対話制御
    手段と、を具備することを特徴とするロボット装置。
  2. 【請求項2】ユーザとの対話機能を備えたロボット装置
    であって、 外部状態を入力する外部状態入力手段と、 該入力された外部状態を認識する外部状態認識手段と、 該認識された外部状態の意味内容を文章形式で理解する
    外部状態理解手段と、 内部状態を管理する内部状態管理手段と、 内部状態に照らし合わせて外部状態の認識結果に沿った
    対話文を生成する対話文生成手段と、 該生成された対話文を外部出力する出力手段と、を具備
    することを特徴とするロボット装置。
  3. 【請求項3】内部状態は前記ロボット装置の情動で構成
    される、ことを特徴とする請求項2に記載のロボット装
    置。
  4. 【請求項4】前記内部状態管理手段は、外部状態の変化
    に応答して内部状態を変化させる、ことを特徴とする請
    求項2に記載のロボット装置。
  5. 【請求項5】外部状態をクラス化した結果を内部状態と
    ともに記憶する記憶手段をさらに備え、 前記対話文生成手段は、前記記憶手段に記憶された情報
    を用いて対話文を生成する、ことを特徴とする請求項2
    に記載のロボット装置。
  6. 【請求項6】内部状態に照らし合わせて外部状態の認識
    結果に沿った機体の動作又は行動を生成する動作・行動
    生成手段と、 該生成された機体動作又は行動を実現する機体制御手段
    と、をさらに備えることを特徴とする請求項2に記載の
    ロボット装置。
  7. 【請求項7】ユーザとの対話機能を備えたロボット装置
    の制御方法であって、 外部状態を入力する外部状態入力ステップと、 内部状態を管理する内部状態管理ステップと、 内部状態の変化をユーザとの対話に反映させる対話制御
    ステップと、を具備することを特徴とするロボット装置
    の制御方法。
  8. 【請求項8】ユーザとの対話機能を備えたロボット装置
    の制御方法であって、 外部状態を入力する外部状態入力ステップと、 該入力された外部状態を認識する外部状態認識ステップ
    と、 該認識された外部状態の意味内容を文章形式で理解する
    外部状態理解ステップと、 内部状態を管理する内部状態管理ステップと、 内部状態に照らし合わせて外部状態の認識結果に沿った
    対話文を生成する対話文生成ステップと、 該生成された対話文を外部出力する出力ステップと、を
    具備することを特徴とするロボット装置の制御方法。
  9. 【請求項9】内部状態は前記ロボット装置の情動で構成
    される、ことを特徴とする請求項8に記載のロボット装
    置の制御方法。
  10. 【請求項10】前記内部状態管理ステップでは、外部状
    態の変化に応答して内部状態を変化させる、ことを特徴
    とする請求項8に記載のロボット装置の制御方法。
  11. 【請求項11】前記対話文生成ステップでは、外部状態
    をクラス化した結果を内部状態とともに記憶するデータ
    ベースを用いて対話文を生成する、ことを特徴とする請
    求項8に記載のロボット装置の制御方法。
  12. 【請求項12】内部状態に照らし合わせて外部状態の認
    識結果に沿った機体の動作又は行動を生成する動作・行
    動生成ステップと、 該生成された機体動作又は行動を実現する機体制御ステ
    ップと、をさらに備えることを特徴とする請求項8に記
    載のロボット装置の制御方法。
  13. 【請求項13】ユーザとの対話を行う対話装置であっ
    て、 外部状態を入力する外部状態入力手段と、 内部状態を管理する内部状態管理手段と、 内部状態の変化をユーザとの対話に反映させる対話制御
    手段と、を具備することを特徴とする対話装置。
  14. 【請求項14】ユーザとの対話を行う対話装置であっ
    て、 外部状態を入力する外部状態入力手段と、 該入力された外部状態を認識する外部状態認識手段と、 該認識された外部状態の意味内容を文章形式で理解する
    外部状態理解手段と、 内部状態を管理する内部状態管理手段と、 内部状態に照らし合わせて外部状態の認識結果に沿った
    対話文を生成する対話文生成手段と、 該生成された対話文を外部出力する出力手段と、を具備
    することを特徴とする対話装置。
  15. 【請求項15】前記内部状態管理手段は、外部状態の変
    化に応答して内部状態を変化させる、ことを特徴とする
    請求項14に記載の対話装置。
  16. 【請求項16】外部状態をクラス化した結果を内部状態
    とともに記憶する記憶手段をさらに備え、 前記対話文生成手段は、前記記憶手段に記憶された情報
    を用いて対話文を生成する、ことを特徴とする請求項1
    4に記載の対話装置。
  17. 【請求項17】ユーザとの対話を行う対話制御方法であ
    って、 外部状態を入力する外部状態入力ステップと、 内部状態を管理する内部状態管理ステップと、 内部状態の変化をユーザとの対話に反映させる対話制御
    ステップと、を具備することを特徴とする対話制御方
    法。
  18. 【請求項18】ユーザとの対話を行う対話制御方法であ
    って、 外部状態を入力する外部状態入力ステップと、 該入力された外部状態を認識する外部状態認識ステップ
    と、 該認識された外部状態の意味内容を文章形式で理解する
    外部状態理解ステップと、 内部状態を管理する内部状態管理ステップと、 内部状態に照らし合わせて外部状態の認識結果に沿った
    対話文を生成する対話文生成ステップと、 該生成された対話文を外部出力する出力ステップと、を
    具備することを特徴とする対話制御方法。
  19. 【請求項19】前記内部状態管理ステップでは、外部状
    態の変化に応答して内部状態を変化させる、ことを特徴
    とする請求項18に記載の対話制御方法。
  20. 【請求項20】前記対話文生成手段は、外部状態をクラ
    ス化した結果を内部状態とともに記憶するデータベース
    を用いて対話文を生成する、ことを特徴とする請求項1
    8に記載の対話制御方法。
  21. 【請求項21】ユーザとの対話機能を備えたロボット装
    置の制御をコンピュータ・システム上で実行するように
    記述されたコンピュータ・ソフトウェアをコンピュータ
    可読形式で物理的に格納した記憶媒体であって、前記コ
    ンピュータ・ソフトウェアは、 外部状態を入力する外部状態入力ステップと、 該入力された外部状態を認識する外部状態認識ステップ
    と、 該認識された外部状態の意味内容を文章形式で理解する
    外部状態理解ステップと、 内部状態を管理する内部状態管理ステップと、 内部状態に照らし合わせて外部状態の認識結果に沿った
    対話文を生成する対話文生成ステップと、 該生成された対話文を外部出力する出力ステップと、を
    具備することを特徴とする記憶媒体。
  22. 【請求項22】ユーザとの対話処理をコンピュータ・シ
    ステム上で実行するように記述されたコンピュータ・ソ
    フトウェアをコンピュータ可読形式で物理的に格納した
    記憶媒体であって、前記コンピュータ・ソフトウェア
    は、 外部状態を入力する外部状態入力ステップと、 該入力された外部状態を認識する外部状態認識ステップ
    と、 該認識された外部状態の意味内容を文章形式で理解する
    外部状態理解ステップと、 内部状態を管理する内部状態管理ステップと、 内部状態に照らし合わせて外部状態の認識結果に沿った
    対話文を生成する対話文生成ステップと、 該生成された対話文を外部出力する出力ステップと、を
    具備することを特徴とする記憶媒体。
JP2001091029A 2001-03-27 2001-03-27 ロボット装置及びその制御方法、並びに記憶媒体 Pending JP2002283261A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2001091029A JP2002283261A (ja) 2001-03-27 2001-03-27 ロボット装置及びその制御方法、並びに記憶媒体
PCT/JP2002/002889 WO2002076687A1 (fr) 2001-03-27 2002-03-26 Dispositif robot et son procede de commande, et support de stockage
EP02705497A EP1407859A1 (en) 2001-03-27 2002-03-26 Robot device and control method therefor, and storage medium
CN02800911A CN1460051A (zh) 2001-03-27 2002-03-26 机器人装置及其控制方法和存储介质
US10/296,403 US7251606B2 (en) 2001-03-27 2002-03-26 Robot device with changing dialogue and control method therefor and storage medium
KR1020027015875A KR20030007685A (ko) 2001-03-27 2002-03-26 로봇 장치 및 그 제어 방법과 기억 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001091029A JP2002283261A (ja) 2001-03-27 2001-03-27 ロボット装置及びその制御方法、並びに記憶媒体

Publications (1)

Publication Number Publication Date
JP2002283261A true JP2002283261A (ja) 2002-10-03

Family

ID=18945727

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001091029A Pending JP2002283261A (ja) 2001-03-27 2001-03-27 ロボット装置及びその制御方法、並びに記憶媒体

Country Status (6)

Country Link
US (1) US7251606B2 (ja)
EP (1) EP1407859A1 (ja)
JP (1) JP2002283261A (ja)
KR (1) KR20030007685A (ja)
CN (1) CN1460051A (ja)
WO (1) WO2002076687A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
WO2005057549A1 (ja) * 2003-12-12 2005-06-23 Nec Corporation 情報処理システム、情報処理方法および情報処理用プログラム
JP2009223172A (ja) * 2008-03-18 2009-10-01 Advanced Telecommunication Research Institute International 物品推定システム
JP2013031897A (ja) * 2011-08-02 2013-02-14 Sony Corp 制御装置、制御方法、プログラム、及びロボット制御システム
CN105835064A (zh) * 2016-05-03 2016-08-10 北京光年无限科技有限公司 一种智能机器人的多模态输出方法和智能机器人系统
WO2018174290A1 (ja) * 2017-03-24 2018-09-27 株式会社 ゼンショーホールディングス 対話制御装置およびロボット制御システム
JP2022541883A (ja) * 2019-07-08 2022-09-28 ソウル マシーンズ リミティド 具現化されたエージェントの記憶

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004287016A (ja) * 2003-03-20 2004-10-14 Sony Corp 音声対話装置及び方法並びにロボット装置
JP2006039120A (ja) * 2004-07-26 2006-02-09 Sony Corp 対話装置および対話方法、並びにプログラムおよび記録媒体
WO2006028223A1 (ja) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. 情報処理端末
US7912720B1 (en) * 2005-07-20 2011-03-22 At&T Intellectual Property Ii, L.P. System and method for building emotional machines
US7574361B2 (en) * 2005-09-30 2009-08-11 Motorola, Inc. Radio audio indicator
CN101411946B (zh) * 2007-10-19 2012-03-28 鸿富锦精密工业(深圳)有限公司 玩具恐龙
US8948906B2 (en) * 2008-08-14 2015-02-03 Spectra Logic Corporation Robotic storage library with queued move instructions and method of queuing such instructions
US8457778B2 (en) * 2008-08-15 2013-06-04 Spectra Logic Corp. Robotic storage library with queued move instructions and method of queuing such instructions
US8340810B2 (en) * 2008-10-31 2012-12-25 Spectra Logic Corp. Robotic storage library with queued move instructions and method of queuing such instructions
US8666537B2 (en) * 2008-10-31 2014-03-04 Spectra Logic, Corporation Robotic storage library with queued move instructions and method of queing such instructions
EP2299440B1 (en) * 2009-09-11 2012-10-31 Vodafone Holding GmbH Method and Device for automatic recognition of given keywords and/or terms within voice data
US8682471B2 (en) 2010-09-27 2014-03-25 Spectra Logic Corporation Efficient magazine moves
US8615322B2 (en) 2010-09-27 2013-12-24 Spectra Logic Corporation Efficient moves via dual pickers
JP5066242B2 (ja) * 2010-09-29 2012-11-07 株式会社東芝 音声翻訳装置、方法、及びプログラム
SG182033A1 (en) * 2011-01-03 2012-07-30 Katotec Pte Ltd Singapore Robot controllers and content files therefor
US11561762B2 (en) * 2011-08-21 2023-01-24 Asensus Surgical Europe S.A.R.L. Vocally actuated surgical control system
US10866783B2 (en) * 2011-08-21 2020-12-15 Transenterix Europe S.A.R.L. Vocally activated surgical control system
US9320074B2 (en) * 2012-04-06 2016-04-19 Suitable Technologies, Inc. Method for wireless connectivity continuity and quality
CN107257403A (zh) 2012-04-09 2017-10-17 英特尔公司 使用交互化身的通信
US20140303982A1 (en) * 2013-04-09 2014-10-09 Yally Inc. Phonetic conversation method and device using wired and wiress communication
JP6145302B2 (ja) * 2013-05-14 2017-06-07 シャープ株式会社 電子機器
CN107077315B (zh) * 2014-11-11 2020-05-12 瑞典爱立信有限公司 用于选择要在与用户通信期间使用的语音的系统和方法
EP3410399A1 (en) 2014-12-23 2018-12-05 Intel Corporation Facial gesture driven animation of non-facial features
WO2016101131A1 (en) 2014-12-23 2016-06-30 Intel Corporation Augmented facial animation
CN107209953A (zh) 2014-12-23 2017-09-26 英特尔公司 用于渲染3d模型化身的略图选择
US20160275546A1 (en) * 2015-03-19 2016-09-22 Yahoo Japan Corporation Information processing apparatus and information processing method
WO2017101094A1 (en) 2015-12-18 2017-06-22 Intel Corporation Avatar animation system
JP6517762B2 (ja) * 2016-08-23 2019-05-22 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
CN108472811B (zh) * 2017-07-14 2021-06-04 达闼机器人有限公司 机器人性格设定方法、装置和机器人
CN108608439A (zh) * 2018-06-29 2018-10-02 华南理工大学广州学院 一种儿童情感宣泄机器人及方法
KR20200043902A (ko) * 2018-10-18 2020-04-28 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US11037576B2 (en) 2018-11-15 2021-06-15 International Business Machines Corporation Distributed machine-learned emphatic communication for machine-to-human and machine-to-machine interactions
CN112506197A (zh) * 2020-12-09 2021-03-16 深圳市优必选科技股份有限公司 一种导览机器人的控制方法、装置、电子设备及存储介质
CN115422338B (zh) * 2022-09-13 2025-08-08 中国建设银行股份有限公司 对话处理方法、对话处理装置、服务器及存储介质
CN115738260A (zh) * 2022-11-01 2023-03-07 北京可以科技有限公司 一种机器人交互游戏方法、系统和计算机可读介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000015396A1 (en) * 1998-09-10 2000-03-23 Sony Corporation Robot apparatus, method of controlling robot apparatus, method of display, and medium
CN1161700C (zh) * 1999-04-30 2004-08-11 索尼公司 网络系统
JP2001154681A (ja) * 1999-11-30 2001-06-08 Sony Corp 音声処理装置および音声処理方法、並びに記録媒体
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001212783A (ja) 2000-02-01 2001-08-07 Sony Corp ロボット装置及びその制御方法
WO2001058649A1 (en) * 2000-02-14 2001-08-16 Sony Corporation Robot system, robot device and method for controlling the same, and information processing device and method
US6510417B1 (en) * 2000-03-21 2003-01-21 America Online, Inc. System and method for voice access to internet-based information
US7027975B1 (en) * 2000-08-08 2006-04-11 Object Services And Consulting, Inc. Guided natural language interface system and method
TWI236610B (en) * 2000-12-06 2005-07-21 Sony Corp Robotic creature device
CN1236422C (zh) * 2001-05-02 2006-01-11 索尼公司 机器人装置、字符识别方法和装置
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2005161469A (ja) * 2003-12-03 2005-06-23 Sony Corp ロボット装置及びロボット装置のための過電流保護装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
US8433580B2 (en) 2003-12-12 2013-04-30 Nec Corporation Information processing system, which adds information to translation and converts it to voice signal, and method of processing information for the same
WO2005057549A1 (ja) * 2003-12-12 2005-06-23 Nec Corporation 情報処理システム、情報処理方法および情報処理用プログラム
JPWO2005057549A1 (ja) * 2003-12-12 2008-04-17 日本電気株式会社 情報処理システム、情報処理方法および情報処理用プログラム
EP2267697A2 (en) 2003-12-12 2010-12-29 Nec Corporation Information processing system, method of processing information, and program for processing information
US8473099B2 (en) 2003-12-12 2013-06-25 Nec Corporation Information processing system, method of processing information, and program for processing information
JP2009223172A (ja) * 2008-03-18 2009-10-01 Advanced Telecommunication Research Institute International 物品推定システム
JP2013031897A (ja) * 2011-08-02 2013-02-14 Sony Corp 制御装置、制御方法、プログラム、及びロボット制御システム
US9766604B2 (en) 2011-08-02 2017-09-19 Sony Corporation Control device, control method, computer program product, and robot control system
US10890884B2 (en) 2011-08-02 2021-01-12 Sony Corporation Control device, control method, computer program product, and robot control system
CN105835064A (zh) * 2016-05-03 2016-08-10 北京光年无限科技有限公司 一种智能机器人的多模态输出方法和智能机器人系统
WO2018174290A1 (ja) * 2017-03-24 2018-09-27 株式会社 ゼンショーホールディングス 対話制御装置およびロボット制御システム
JP2022541883A (ja) * 2019-07-08 2022-09-28 ソウル マシーンズ リミティド 具現化されたエージェントの記憶

Also Published As

Publication number Publication date
US7251606B2 (en) 2007-07-31
KR20030007685A (ko) 2003-01-23
EP1407859A1 (en) 2004-04-14
CN1460051A (zh) 2003-12-03
WO2002076687A1 (fr) 2002-10-03
US20030182122A1 (en) 2003-09-25

Similar Documents

Publication Publication Date Title
JP2002283261A (ja) ロボット装置及びその制御方法、並びに記憶媒体
JP2002283259A (ja) ロボット装置のための動作教示装置及び動作教示方法、並びに記憶媒体
KR100843822B1 (ko) 로봇 장치, 로봇 장치의 동작 제어 방법 및 로봇 장치의동작 제어 시스템
KR102736479B1 (ko) 사용자의 표정이나 발화를 고려하여 마사지 동작을 제어하는 인공 지능 마사지 장치 및 그 방법
JP4150198B2 (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
JP2003271174A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
WO2002091356A1 (en) Obot device, character recognizing apparatus and character reading method, and control program and recording medium
JP4687936B2 (ja) 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
JP2002049385A (ja) 音声合成装置、疑似感情表現装置及び音声合成方法
CN119311119A (zh) 一种全双工互动问答数字人的情感理解与反馈方法
JP2002318594A (ja) 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体
JP2002304188A (ja) 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
KR100813668B1 (ko) 안드로이드 로봇의 감정표현 방법
JP2002219677A (ja) ロボット装置及びロボット装置の行動制御方法
JP4433273B2 (ja) ロボット装置及びロボット装置の制御方法
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JP2003044080A (ja) ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体
JP2002331481A (ja) ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体
JP4016316B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002321177A (ja) 脚式移動ロボット及びその制御方法
JP2002318590A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2001038658A (ja) ロボットにおける触覚表現システム