JP2003076398A - Robot apparatus, robot control method, recording medium, and program - Google Patents
Robot apparatus, robot control method, recording medium, and programInfo
- Publication number
- JP2003076398A JP2003076398A JP2001266703A JP2001266703A JP2003076398A JP 2003076398 A JP2003076398 A JP 2003076398A JP 2001266703 A JP2001266703 A JP 2001266703A JP 2001266703 A JP2001266703 A JP 2001266703A JP 2003076398 A JP2003076398 A JP 2003076398A
- Authority
- JP
- Japan
- Prior art keywords
- melody data
- scale
- voice
- unit
- melody
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】
【課題】 ユーザからの発話に応じて、より好適な応答
を行うことができるようにする。
【解決手段】 音声認識部24は、マイクロフォン11
で集音された音声の特徴パラメータを取得したとき、音
声認識を行う。そして、音声認識部24は、所定のキー
ワードを検出したとき、それを旋律生成部32等に通知
する。音声ピッチ分析部28は、旋律生成部32からの
指示に基づいて、キーワードの音声を分析し、その音声
のピッチ周波数を抽出する。音声ピッチ分析部28は、
抽出したピッチ周波数に対応する音階を選択し、それを
旋律生成部32に通知する。旋律生成部32は、旋律デ
ータ記憶部33に記憶されている旋律データを読み出
し、その旋律データを、音声ピッチ分析部28から通知
されてきた音階に基づいて変換する。旋律生成部32に
より生成された新たな旋律データは、音声合成部34に
より再生され、スピーカ14から出力される。
(57) [Summary] [PROBLEMS] To provide a more suitable response in response to an utterance from a user. SOLUTION: A voice recognition unit 24 includes a microphone 11
When the feature parameter of the voice collected in step is acquired, voice recognition is performed. When detecting the predetermined keyword, the voice recognition unit 24 notifies the melody generation unit 32 and the like of the keyword. The voice pitch analysis unit 28 analyzes the voice of the keyword based on the instruction from the melody generation unit 32 and extracts the pitch frequency of the voice. The voice pitch analysis unit 28
The musical scale corresponding to the extracted pitch frequency is selected and notified to the melody generating unit 32. The melody generator 32 reads the melody data stored in the melody data storage 33 and converts the melody data based on the scale notified from the voice pitch analyzer 28. The new melody data generated by the melody generation unit 32 is reproduced by the voice synthesis unit 34 and output from the speaker 14.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、ロボット装置およ
びロボット制御方法、記録媒体、並びにプログラムに関
し、特に、ユーザからの発話に応じて、より好適な応答
を行うことができるようにするロボット装置およびロボ
ット制御方法、記録媒体、並びにプログラムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot device, a robot control method, a recording medium, and a program, and more particularly, to a robot device and a robot device which enable a more suitable response in response to an utterance from a user. The present invention relates to a robot control method, a recording medium, and a program.
【0002】[0002]
【従来の技術】近年、例えば、周囲の環境や、自らの内
部状態に応じて自律的に各種の行動をとる、エンターテ
イメント用のペットロボットが実現されている。2. Description of the Related Art In recent years, pet robots for entertainment have been realized which autonomously take various actions according to the surrounding environment and the internal state of the pet.
【0003】そして、このようなペットロボットは、例
えば、使用者から話しかけられたときに、それに応答す
る音を出したり、使用者から頭を叩かれたときに怒って
いることを表わす音を出すようになされている。また、
ユーザがあまり遊んでくれずに、その内部状態が「さみ
しい」という感情になったとき、「さみしい」ことを表
わす(遊んで欲しいことを知らせる)音を出すようにな
されている。Such a pet robot, for example, emits a sound in response to the user's speech, or a sound indicating anger when the user's head is hit. It is done like this. Also,
When the user does not play much and the internal state becomes an emotion of "lonely", a sound indicating "lonely" (notifying that he wants to play) is output.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、このよ
うにペットロボットから出力される音のデータは、ペッ
トロボットに予め用意されているものであるため、内蔵
されている記憶容量などの観点から、その種類が制限さ
れてしまうという課題があった。すなわち、出力される
音がパターン化されてしまうことになる。However, since the sound data output from the pet robot is prepared in advance in the pet robot as described above, the sound data is stored in consideration of the built-in storage capacity. There was a problem that the types were limited. That is, the output sound is patterned.
【0005】従って、しばらくの間その行動を観察すれ
ば、ユーザは、次に、ペットロボットから発せられる音
を容易に予測できるようになってしまい、ペットロボッ
トとのコミュニケーションが面白みの欠けたものとなっ
てしまう。Therefore, by observing the behavior for a while, the user can easily predict the next sound to be emitted from the pet robot, which makes communication with the pet robot uninteresting. turn into.
【0006】本発明はこのような状況に鑑みてなされた
ものであり、ユーザからの呼びかけに応じて、より好適
な応答を行うことができるようにしたものである。The present invention has been made in view of such a situation, and is to make it possible to provide a more suitable response in response to a call from a user.
【0007】[0007]
【課題を解決するための手段】本発明の第1のロボット
装置は、第1の音階から構成される第1の旋律データを
記憶する記憶手段と、入力された音声のピッチ周波数を
抽出する抽出手段と、抽出手段により抽出されたピッチ
周波数に基づいて第2の音階を選択する選択手段と、記
憶手段により記憶されている第1の旋律データを構成す
る第1の音階を、選択手段により選択された第2の音階
に変換して第2の旋律データを生成する生成手段と、生
成手段により生成された第2の旋律データを再生する再
生手段とを備えることを特徴とする。A first robot apparatus according to the present invention comprises a storage means for storing first melody data composed of a first scale and an extraction for extracting a pitch frequency of an inputted voice. Means, selection means for selecting a second scale based on the pitch frequency extracted by the extraction means, and first scale constituting the first melody data stored in the storage means by the selection means. It is characterized in that it is provided with a generating means for converting the generated second melody data by converting the generated second melody data and a reproducing means for reproducing the second melody data generated by the generating means.
【0008】抽出手段は、所定のキーワードを表わす音
声のピッチ周波数を抽出するようにすることができる。The extracting means can extract the pitch frequency of the voice representing a predetermined keyword.
【0009】抽出手段は、母音を含む音声のピッチ周波
数を抽出するようにすることができる。The extracting means may extract the pitch frequency of the voice containing the vowel.
【0010】抽出手段は、音声の所定の期間に検出され
たピッチ周波数の平均値をピッチ周波数として抽出する
ようにすることができる。The extracting means may extract the average value of the pitch frequencies detected during a predetermined period of the voice as the pitch frequency.
【0011】生成手段は、第2の音階を、所定の数のオ
クターブだけ遷移させて第2の旋律データを生成するよ
うにすることができる。The generating means can generate the second melody data by transitioning the second scale by a predetermined number of octaves.
【0012】本発明の第1のロボット装置のロボット制
御方法は、第1の音階から構成される第1の旋律データ
を記憶する記憶ステップと、入力された音声のピッチ周
波数を抽出する抽出ステップと、抽出ステップの処理に
より抽出されたピッチ周波数に基づいて第2の音階を選
択する選択ステップと、記憶ステップの処理により記憶
されている第1の旋律データを構成する第1の音階を、
選択ステップの処理により選択された第2の音階に変換
して第2の旋律データを生成する生成ステップと、生成
ステップの処理により生成された第2の旋律データを再
生する再生ステップとを含むことを特徴とする。A first robot control method for a robot apparatus according to the present invention comprises a storage step of storing first melody data composed of a first scale, and an extraction step of extracting a pitch frequency of an input voice. , A selection step of selecting a second scale based on the pitch frequency extracted by the processing of the extraction step, and a first scale constituting the first melody data stored by the storage step,
A generation step of converting the second scale selected by the processing of the selection step to generate second melody data; and a reproduction step of reproducing the second melody data generated by the processing of the generation step Is characterized by.
【0013】本発明の第1の記録媒体のプログラムは、
第1の音階から構成される第1の旋律データの記憶を制
御する記憶制御ステップと、入力された音声のピッチ周
波数の抽出を制御する抽出ステップと、抽出ステップの
処理により抽出されたピッチ周波数に基づいて第2の音
階を選択する選択ステップと、記憶制御ステップの処理
により記憶されている第1の旋律データを構成する第1
の音階を、選択ステップの処理により選択された第2の
音階に変換して第2の旋律データを生成する生成ステッ
プと、生成ステップの処理により生成された第2の旋律
データの再生を制御する再生制御ステップとを含むこと
を特徴とする。The program of the first recording medium of the present invention is
A storage control step for controlling storage of the first melody data composed of the first scale, an extraction step for controlling extraction of the pitch frequency of the input voice, and a pitch frequency extracted by the processing of the extraction step. A selection step for selecting a second scale based on the first scale, and a first step constituting the first melody data stored by the processing of the storage control step.
Of the second melody data generated by the process of the generating step, and controlling the reproduction of the second melody data generated by the process of the selecting step. And a reproduction control step.
【0014】本発明の第1のプログラムは、第1の音階
から構成される第1の旋律データの記憶を制御する記憶
制御ステップと、入力された音声のピッチ周波数の抽出
を制御する抽出ステップと、抽出ステップの処理により
抽出されたピッチ周波数に基づいて第2の音階を選択す
る選択ステップと、記憶制御ステップの処理により記憶
されている第1の旋律データを構成する第1の音階を、
選択ステップの処理により選択された第2の音階に変換
して第2の旋律データを生成する生成ステップと、生成
ステップの処理により生成された第2の旋律データの再
生を制御する再生制御ステップとを含むことを特徴とす
る。A first program of the present invention comprises a storage control step of controlling storage of first melody data composed of a first scale, and an extraction step of controlling extraction of a pitch frequency of input voice. A selection step of selecting a second scale based on the pitch frequency extracted by the processing of the extraction step, and a first scale constituting the first melody data stored by the processing of the storage control step,
A generation step of converting the second scale selected by the processing of the selection step to generate the second melody data, and a reproduction control step of controlling reproduction of the second melody data generated by the processing of the generation step. It is characterized by including.
【0015】本発明の第2のロボット装置は、第1の音
階から構成される第1の旋律データを記憶する記憶手段
と、自らの内部状態を管理する管理手段と、管理手段に
より管理される内部状態が変化したとき、内部状態の変
化に対応する第2の音階を選択する選択手段と、記憶手
段により記憶されている第1の旋律データを構成する第
1の音階を、選択手段により選択された第2の音階に変
換して第2の旋律データを生成する生成手段と、生成手
段により生成された第2の旋律データを再生する再生手
段とを備えることを特徴とする。The second robot device of the present invention is managed by the storage means for storing the first melody data composed of the first scale, the management means for managing its own internal state, and the management means. When the internal state changes, the selecting means selects the second scale corresponding to the change in the internal state, and the first scale forming the first melody data stored in the storage means is selected by the selecting means. It is characterized in that it is provided with a generating means for converting the generated second melody data by converting the generated second melody data and a reproducing means for reproducing the second melody data generated by the generating means.
【0016】生成手段は、第2の音階を、所定の数のオ
クターブだけ遷移させて第2の旋律データを生成するよ
うにすることができる。The generating means can generate the second melody data by transitioning the second scale by a predetermined number of octaves.
【0017】本発明の第2のロボット装置のロボット制
御方法は、第1の音階から構成される第1の旋律データ
を記憶する記憶ステップと、自らの内部状態を管理する
管理ステップと、管理ステップの処理により管理される
内部状態が変化したとき、内部状態の変化に対応する第
2の音階を選択する選択ステップと、記憶ステップの処
理により記憶されている第1の旋律データを構成する第
1の音階を、選択ステップの処理により選択された第2
の音階に変換して第2の旋律データを生成する生成ステ
ップと、生成ステップの処理により生成された第2の旋
律データを再生する再生ステップとを含むことを特徴と
する。A second robot control method for a robot apparatus according to the present invention comprises a storage step of storing first melody data composed of a first scale, a management step of managing its own internal state, and a management step. When the internal state managed by the process of 1 changes, the selection step of selecting the second scale corresponding to the change of the internal state and the first melody data which is stored by the processing of the storing step Of the second scale selected by the processing in the selection step.
And a reproducing step of reproducing the second melody data generated by the processing of the generating step.
【0018】本発明の第2の記録媒体のプログラムは、
第1の音階から構成される第1の旋律データの記憶を制
御する記憶制御ステップと、自らの内部状態を管理する
管理ステップと、管理ステップの処理により管理される
内部状態が変化したとき、内部状態の変化に対応する第
2の音階を選択する選択ステップと、記憶制御ステップ
の処理により記憶されている第1の旋律データを構成す
る第1の音階を、選択ステップの処理により選択された
第2の音階に変換して第2の旋律データを生成する生成
ステップと、生成ステップの処理により生成された第2
の旋律データの再生を制御する再生制御ステップとを含
むことを特徴とする。The program of the second recording medium of the present invention is
A storage control step for controlling storage of the first melody data composed of a first scale, a management step for managing the internal state of itself, and an internal state when the internal state managed by the processing of the management step changes. The selection step of selecting the second scale corresponding to the change in the state, and the first scale constituting the first melody data stored by the processing of the memory control step are selected by the processing of the selection step. A second step generated by the process of the generating step, which generates the second melody data by converting into the second scale.
And a reproduction control step for controlling reproduction of the melody data of.
【0019】本発明の第2のプログラムは、第1の音階
から構成される第1の旋律データの記憶を制御する記憶
制御ステップと、自らの内部状態を管理する管理ステッ
プと、管理ステップの処理により管理される内部状態が
変化したとき、内部状態の変化に対応する第2の音階を
選択する選択ステップと、記憶制御ステップの処理によ
り記憶されている第1の旋律データを構成する第1の音
階を、選択ステップの処理により選択された第2の音階
に変換して第2の旋律データを生成する生成ステップ
と、生成ステップの処理により生成された第2の旋律デ
ータの再生を制御する再生制御ステップとを含むことを
特徴とする。The second program of the present invention is a storage control step for controlling storage of the first melody data composed of the first scale, a management step for managing the internal state of itself, and processing of the management step. When the internal state managed by the change occurs, the selection step of selecting the second scale corresponding to the change of the internal state, and the first melody data forming the first melody data stored by the processing of the storage control step. A generation step of converting the scale into the second scale selected by the processing of the selection step to generate the second melody data, and a reproduction for controlling reproduction of the second melody data generated by the processing of the generation step. And a control step.
【0020】本発明の第1のロボット装置およびロボッ
ト制御方法、並びにプログラムにおいては、第1の音階
から構成される第1の旋律データが記憶され、入力され
た音声のピッチ周波数が抽出され、抽出されたピッチ周
波数に基づいて第2の音階が選択される。また、記憶さ
れている第1の旋律データを構成する第1の音階が、選
択された第2の音階に変換されて第2の旋律データが生
成され、第2の旋律データが再生される。In the first robot apparatus, the robot control method, and the program of the present invention, the first melody data composed of the first scale is stored, and the pitch frequency of the inputted voice is extracted and extracted. A second scale is selected based on the pitch frequency of the selected pitch. Further, the first scale constituting the stored first melody data is converted into the selected second scale to generate the second melody data, and the second melody data is reproduced.
【0021】本発明の第2のロボット装置およびロボッ
ト制御方法、並びにプログラムにおいては、第1の音階
から構成される第1の旋律データが記憶され、自らの内
部状態が管理され、管理される内部状態が変化したと
き、内部状態の変化に対応する第2の音階が選択され
る。また、記憶されている第1の旋律データを構成する
第1の音階が、選択された第2の音階に変換されて第2
の旋律データが生成され、生成された第2の旋律データ
が再生される。In the second robot apparatus, the robot control method, and the program of the present invention, the first melody data composed of the first scale is stored, the internal state of itself is managed, and the managed internal When the state changes, the second scale corresponding to the internal state change is selected. In addition, the first scale that constitutes the stored first melody data is converted into the selected second scale, and the second scale is converted into the second scale.
Is generated, and the generated second melody data is reproduced.
【0022】[0022]
【発明の実施の形態】図1は、本発明を適用したペット
ロボット1の外観構成の例を示す斜視図である。1 is a perspective view showing an example of the external configuration of a pet robot 1 to which the present invention is applied.
【0023】図に示すように、例えば、ペットロボット
1は、四つ足の犬形状のものとされており、胴体部ユニ
ット2の前後左右に、それぞれ脚部ユニット3A,3
B,3C,3Dが連結されるとともに、胴体部ユニット
2の前端部と後端部に、それぞれ頭部ユニット4と尻尾
部ユニット5が連結されている。As shown in the figure, for example, the pet robot 1 is in the shape of a dog with four legs, and the leg units 3A, 3 are provided on the front, rear, left and right of the body unit 2, respectively.
B, 3C, and 3D are connected, and a head unit 4 and a tail unit 5 are connected to the front end and the rear end of the body unit 2, respectively.
【0024】尻尾部ユニット5は、胴体部ユニット2の
上面に設けられたベース部5Bから、2自由度をもっ
て、湾曲または揺動自在に引き出されている。The tail unit 5 is drawn out from the base portion 5B provided on the upper surface of the body unit 2 so as to be curved or swingable with two degrees of freedom.
【0025】このような外観構成を有するペットロボッ
ト1には、後に詳述するように、例えば、ユーザから
「おはよう」などと呼びかけられた場合に、それに応答
するための旋律(メロディ)データが用意されている。
そして、ペットロボット1は、ユーザからの音声を分析
し、その分析結果に基づいて、用意されている旋律デー
タを変換し、変換後に得られた旋律データを再生する。
すなわち、ユーザ毎、或いはその発話毎に旋律データが
変換されて、出力されることになる。As will be described later in detail, the pet robot 1 having such an external structure has melody (melody) data for responding to, for example, when a user calls "Good morning". Has been done.
Then, the pet robot 1 analyzes the voice from the user, converts the prepared melody data based on the analysis result, and reproduces the melody data obtained after the conversion.
That is, the melody data is converted and output for each user or each utterance.
【0026】従って、1種類の旋律データであっても、
毎回、ユーザからの発話に応じた旋律データに変換され
るため、ユーザの歌いかけに対応した音が、ペットロボ
ット1から出力されることになる。これにより、ペット
ロボット1との相互理解度が深まり、コミュニケーショ
ンに飽きてしまうといったことを抑制することができ、
より好適なコミュニケーションを図ることができる。Therefore, even with one kind of melody data,
Since it is converted into melody data according to the utterance from the user every time, the pet robot 1 outputs a sound corresponding to the user's singing. As a result, the degree of mutual understanding with the pet robot 1 is deepened, and it is possible to prevent the user from getting tired of communication.
More suitable communication can be achieved.
【0027】図2は、図1のペットロボット1の内部構
成の例を示すブロック図である。FIG. 2 is a block diagram showing an example of the internal configuration of the pet robot 1 of FIG.
【0028】胴体部ユニット2には、ペットロボット1
の全体を制御するコントローラ10が格納されている。
このコントローラ10には、基本的に、CPU(Central Pr
ocessing Unit)10A、およびCPU10Aが各部を制御
するためのプログラムが記憶されているメモリ10Bが
設けられている。The torso unit 2 includes a pet robot 1
A controller 10 for controlling the whole is stored.
The controller 10 basically includes a CPU (Central Pr
There is provided a memory 10B in which a program for the CPU 10A to control each unit is stored.
【0029】また、胴体部ユニット2には、コントロー
ラ10の他、例えば、ペットロボット1の動力源となる
バッテリ(図示せず)等も格納されている。In addition to the controller 10, the body unit 2 also stores, for example, a battery (not shown) which is a power source of the pet robot 1.
【0030】図2に示すように、頭部ユニット4には、
外部からの刺激を感知するセンサとしての、音を感知す
る「耳」に相当するマイクロフォン11、CCD(Charge C
oupled Device)やCMOS(Complementary Metal Oxide Sem
iconductor)イメージセンサなどから構成され、光を感
知する「目」に相当するカメラ12、およびユーザがふ
れることによる圧力等を感知する触覚に相当するタッチ
センサ13が、それぞれ所定の位置に設けられている。
また、頭部ユニット4には、ペットロボット1の「口」
に相当するスピーカ14が、所定の位置に設置されてい
る。As shown in FIG. 2, the head unit 4 includes:
Microphone 11, CCD (Charge C) that corresponds to the "ear" that senses sound as a sensor that senses an external stimulus
Oupled Device) and CMOS (Complementary Metal Oxide Sem)
A camera 12 corresponding to an “eye” that senses light and a touch sensor 13 that corresponds to a tactile sensation such as pressure caused by a user's touch are provided at predetermined positions. There is.
In addition, the head unit 4 has a “mouth” of the pet robot 1.
The speaker 14 corresponding to is installed at a predetermined position.
【0031】脚部ユニット3A乃至3Dのそれぞれの関
節部分、脚部ユニット3A乃至3Dのそれぞれと胴体部
ユニット2の連結部分、頭部ユニット4と胴体部ユニッ
ト2の連結部分、並びに尻尾部ユニット5と胴体部ユニ
ット2の連結部分などには、アクチュエータが設置され
ている。アクチュエータは、コントローラ10からの指
示に基づいて各部を動作させる。Joint parts of the leg units 3A to 3D, connecting parts of the leg units 3A to 3D and the body unit 2, connecting parts of the head unit 4 and the body unit 2, and a tail unit 5 respectively. An actuator is installed at a connecting portion between the body unit 2 and the body unit 2. The actuator operates each part based on an instruction from the controller 10.
【0032】図2の例においては、脚部ユニット3Aに
は、アクチュエータ3AA1乃至3AAkが設けられ、脚
部ユニット3Bには、アクチュエータ3BA1乃至3B
Akが設けられている。また、脚部ユニット3Cには、
アクチュエータ3CA1乃至3CAkが設けられ、脚部ユ
ニット3Dには、アクチュエータ3DA1乃至3DA kが
設けられている。さらに、頭部ユニット4には、アクチ
ュエータ4A1乃至4ALが設けられており、尻尾部ユニ
ット5には、アクチュエータ5A1および5A 2がそれぞ
れ設けられている。In the example of FIG. 2, the leg unit 3A is
Is the actuator 3AA1Through 3AAkProvided with legs
The unit 3B includes an actuator 3BA1Through 3B
AkIs provided. Also, in the leg unit 3C,
Actuator 3CA1To 3 CAkIs installed on the leg
Actuator 3DA for knit 3D1Through 3DA kBut
It is provided. Furthermore, the head unit 4 is
Player 4A1Through 4ALIs provided and the tail uni
The actuator 5A1And 5A 2Is that
It is provided.
【0033】頭部ユニット4に設置されるマイクロフォ
ン11は、ユーザからの発話を含む周囲の音声(音)を
集音し、得られた音声信号をコントローラ10に出力す
る。カメラ12は、周囲の状況を撮像し、得られた画像
信号を、コントローラ10に出力する。タッチセンサ1
3は、例えば、頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出し、その検出結果を
圧力検出信号としてコントローラ10に出力する。The microphone 11 installed in the head unit 4 collects the surrounding voice (sound) including the utterance from the user and outputs the obtained voice signal to the controller 10. The camera 12 captures an image of the surrounding situation and outputs the obtained image signal to the controller 10. Touch sensor 1
3 is provided on the upper part of the head unit 4, detects the pressure received by a physical action such as "stroking" or "striking" from the user, and the detection result is used as a pressure detection signal in the controller 10 Output to.
【0034】コントローラ10は、マイクロフォン1
1、カメラ12、およびタッチセンサ13から与えられ
る音声信号、画像信号、圧力検出信号に基づいて、周囲
の状況や、ユーザからの指令、ユーザからの働きかけな
どの有無を判断し、その判断結果に基づいて、ペットロ
ボット1が次にとる行動を決定する。そして、コントロ
ーラ10は、その決定に基づいて、必要なアクチュエー
タを駆動させ、これにより、頭部ユニット4を上下左右
に振らせたり、尻尾部ユニット5を動かせたり、脚部ユ
ニット3A乃至3Dのそれぞれを駆動して、ペットロボ
ット1を歩行させるなどの行動をとらせる。The controller 10 is the microphone 1
1. Based on the audio signal, the image signal, and the pressure detection signal provided from the camera 12, the touch sensor 13, the presence / absence of the surrounding condition, the instruction from the user, the action from the user, and the like are determined, and the determination result is used. Based on this, the next action taken by the pet robot 1 is determined. Then, the controller 10 drives the necessary actuator based on the determination, thereby swinging the head unit 4 vertically and horizontally, moving the tail unit 5, and each of the leg units 3A to 3D. To drive the pet robot 1 to walk.
【0035】その他にも、コントローラ10は、ペット
ロボット1の「目」の位置に設けられたLED(Light Emit
ting Diode)41(図3参照)を点灯、消灯または点滅
させるなどの処理を行う。In addition, the controller 10 is an LED (Light Emit) provided at the position of the "eye" of the pet robot 1.
(Ting Diode) 41 (see FIG. 3) is turned on, turned off, or blinked.
【0036】図3は、図2のコントローラ10の機能的
構成例を示すブロック図である。なお、図3に示す各機
能は、メモリ10Bに記憶されている制御プログラムをC
PU10Aが実行することで実現される。FIG. 3 is a block diagram showing a functional configuration example of the controller 10 shown in FIG. In addition, each function shown in FIG. 3 is a control program stored in the memory 10B.
It is realized by the execution of the PU 10A.
【0037】マイクロフォン11からの音声信号は、AD
(Analog Digital)変換部21に供給される。AD変換部2
1は、マイクロフォン11から供給されてきた音声信号
をサンプリング、および量子化し、音声データに変換す
る。AD変換部21により取得された音声データは、音声
特徴量分析部22、および音声ピッチ分析部28に供給
される。The audio signal from the microphone 11 is AD
It is supplied to the (Analog Digital) converter 21. AD converter 2
1 samples and quantizes the audio signal supplied from the microphone 11, and converts it into audio data. The voice data acquired by the AD conversion unit 21 is supplied to the voice feature amount analysis unit 22 and the voice pitch analysis unit 28.
【0038】音声特徴量分析部22は、入力される音声
データについて、適当なフレーム毎に、例えば、MFCC(M
el Frequency Cepstrum Coefficient)分析を行い、その
分析結果を、特徴パラメータ(特徴ベクトル)として、
音声区間検出部23に出力する。なお、音声特徴量分析
部22では、その他、例えば、線形予測係数、ケプスト
ラム係数、線スペクトル対、所定の周波数帯域ごとのパ
ワー(フィルタバンクの出力)等を、特徴パラメータと
して抽出することが可能である。The voice feature quantity analysis unit 22 receives, for example, MFCC (M
el Frequency Cepstrum Coefficient) analysis, and the analysis result is used as a feature parameter (feature vector).
It is output to the voice section detection unit 23. In addition, the voice feature amount analysis unit 22 can also extract, for example, a linear prediction coefficient, a cepstrum coefficient, a pair of line spectra, a power (output of a filter bank) for each predetermined frequency band, as a feature parameter. is there.
【0039】音声区間検出部23は、音声特徴量分析部
22から供給される特徴パラメータに基づいて、例え
ば、所定の閾値以上の値をとるパワーが所定の期間継続
して検出されたか否かに基づいて音声区間を検出する。
そして、音声区間検出部23は、検出した音声区間情報
を、音声特徴量分析部22から供給されてきた特徴パラ
メータとともに音声認識部24に出力する。また、音声
区間検出部23により検出された音声区間情報は、音声
ピッチ分析部28にも供給されている。Based on the characteristic parameters supplied from the speech characteristic amount analyzing section 22, the voice section detecting section 23 determines whether or not power having a value equal to or larger than a predetermined threshold value is continuously detected for a predetermined period. Based on this, the voice section is detected.
Then, the voice section detection unit 23 outputs the detected voice section information to the voice recognition unit 24 together with the feature parameter supplied from the voice feature amount analysis unit 22. The voice section information detected by the voice section detecting unit 23 is also supplied to the voice pitch analyzing unit 28.
【0040】音声認識部24は、音声認識する音声の言
語における個々の音素や音節などの音響的な特徴を表す
音響モデル、認識対象の各単語について、その発音に関
する情報(音韻情報)が記述された単語辞書、および、
単語辞書に登録されている各単語が、どのように連鎖す
る(つながる)のかを記述した文法規則を記憶してい
る。ここで、文法規則としては、例えば、文脈自由文法
(CFG)や、統計的な単語連鎖確率(N-gram)などに基
づく規則を用いることができる。The speech recognition unit 24 describes an acoustic model representing acoustic features such as individual phonemes and syllables in the language of speech to be recognized, and information (phonological information) about pronunciation of each word to be recognized. Word dictionary, and
It stores grammatical rules that describe how the words registered in the word dictionary are chained (connected). Here, as the grammar rule, for example, a rule based on context-free grammar (CFG), statistical word chain probability (N-gram), or the like can be used.
【0041】そして、音声認識部24は、音声特徴量分
析部22からの特徴パラメータを用いて、そのような音
響モデル、単語辞書、および文法規則を必要に応じて参
照しながら、マイクロフォン11に入力された音声を、
例えば、連続分布HMM(HiddenMarkov Model)法に基づい
て音声認識する。Then, the voice recognition unit 24 uses the feature parameters from the voice feature amount analysis unit 22 to input to the microphone 11 while referring to such an acoustic model, word dictionary, and grammar rules as needed. The voice
For example, speech recognition is performed based on the continuous distribution HMM (Hidden Markov Model) method.
【0042】具体的には、音声認識部24は、単語辞書
を参照し、音響モデルを接続することで、単語の音響モ
デル(単語モデル)を構成する。また、音声認識部24
は、幾つかの単語モデルを、文法規則を参照することに
より接続し、そのようにして接続された単語モデルと特
徴パラメータに基づき、連続分布HMM法によって、マイ
クロフォン11に入力された音声を認識する。即ち、音
声認識部24は、音声特徴量分析部22(音声区間検出
部23)が出力する時系列の特徴パラメータが観測され
るスコア(尤度)が最も高い単語モデルの系列を検出
し、その単語モデルの系列に対応する単語列を、音声の
認識結果として出力する。Specifically, the voice recognition unit 24 constructs an acoustic model of a word (word model) by referring to the word dictionary and connecting acoustic models. In addition, the voice recognition unit 24
Connects several word models by referring to the grammar rules, and recognizes the speech input to the microphone 11 by the continuous distribution HMM method based on the word model and the feature parameters thus connected. . That is, the voice recognition unit 24 detects the word model sequence having the highest score (likelihood) at which the time-series feature parameters output by the voice feature amount analysis unit 22 (voice section detection unit 23) are detected, and A word string corresponding to a series of word models is output as a speech recognition result.
【0043】つまり、音声認識部24は、接続された単
語モデルに対応する単語列について、音声特徴量分析部
22からの特徴パラメータの出現確率を累積し、その累
積値をスコアとして、そのスコアを最も高くする単語列
を、音声認識結果として出力する。That is, the voice recognition unit 24 accumulates the appearance probability of the feature parameter from the voice feature amount analysis unit 22 for the word string corresponding to the connected word model, and uses the accumulated value as a score to obtain the score. The highest word string is output as the voice recognition result.
【0044】例えば、音声認識部24は、「歩け」、
「伏せ」、「ボールを追いかけろ」等の指令その他を、
音声認識情報として、本能・感情管理部26、行動管理
部27に通知する。また、音声認識部24は、所定のキ
ーワードを認識したとき、それを旋律生成部32等に通
知する。For example, the voice recognition unit 24 is "walking",
Commands such as "prone" and "follow the ball"
The instinct / emotion management unit 26 and the behavior management unit 27 are notified as voice recognition information. In addition, when the voice recognition unit 24 recognizes a predetermined keyword, the voice recognition unit 24 notifies the melody generation unit 32 or the like of it.
【0045】カメラ12により撮像された画像信号、お
よびタッチセンサ13により検出された圧力検出信号
は、センサデータ処理部25に出力される。センサデー
タ処理部25には、カメラ12から供給されてきた画像
信号に基づいて画像認識を行う画像認識部、およびタッ
チセンサ13から供給されてきた圧力検出信号を処理す
るタッチセンサ入力処理部(いずれも図示せず)が設け
られている。The image signal picked up by the camera 12 and the pressure detection signal detected by the touch sensor 13 are output to the sensor data processing section 25. The sensor data processing unit 25 includes an image recognition unit that performs image recognition based on the image signal supplied from the camera 12, and a touch sensor input processing unit that processes the pressure detection signal supplied from the touch sensor 13 (whichever Is also provided).
【0046】この画像認識部は、カメラ12から与えら
れる画像信号を用いて、画像認識を行い、その処理の結
果、例えば、「赤い丸いもの」や、「地面に対して垂直
な、かつ、所定の高さ以上の平面」等を検出したときに
は、「ボールがある」や、「壁がある」等の画像認識結
果を画像認識情報として、本能・感情管理部26、およ
び行動管理部27に出力する。This image recognition unit performs image recognition using the image signal supplied from the camera 12, and as a result of the processing, for example, "a red round object" or "a perpendicular to the ground and a predetermined value. When detecting a "plane equal to or higher than the height of", the image recognition result such as "there is a ball" or "there is a wall" is output to the instinct / emotion management unit 26 and the behavior management unit 27 as image recognition information. To do.
【0047】タッチセンサ入力処理部は、タッチセンサ
13から与えられる圧力検出信号を処理し、その処理の
結果、所定の閾値以上で、かつ、短時間の圧力を検出し
たときには、「叩かれた(しかられた)」と認識し、所
定の閾値未満で、かつ、長時間の圧力を検出したときに
は、「なでられた(ほめられた)」と認識して、その認
識結果を、状態認識情報として、本能・感情管理部2
6、および行動管理部27に出力する。The touch sensor input processing unit processes the pressure detection signal given from the touch sensor 13, and when the pressure detection signal which is equal to or higher than a predetermined threshold value for a short period of time is detected as a result of the processing, it is "stripped ( If the pressure is below a predetermined threshold for a long time, it is recognized as "stroked (praised)" and the recognition result is used as state recognition information. As instinct / emotion management unit 2
6 and the behavior management unit 27.
【0048】本能・感情管理部26は、ペットロボット
1の本能、または感情を表わすパラメータを管理し、本
能の状態、または感情の状態を所定のタイミングで行動
管理部27に出力する。The instinct / emotion management unit 26 manages parameters representing the instinct or emotion of the pet robot 1, and outputs the state of instinct or the state of emotion to the behavior management unit 27 at a predetermined timing.
【0049】図4は、図3の本能・感情管理部26の機
能構成例を模式的に示す図であり、図4に示すように、
本能・感情管理部26は、ペットロボット1の感情を表
現する感情モデル51と、本能を表現する本能モデル5
2を記憶し、管理している。FIG. 4 is a diagram schematically showing an example of the functional configuration of the instinct / emotion management unit 26 shown in FIG. 3. As shown in FIG.
The instinct / emotion management unit 26 includes an emotion model 51 that expresses the emotion of the pet robot 1 and an instinct model 5 that expresses the instinct.
2 is stored and managed.
【0050】感情モデル51は、例えば、「うれし
さ」、「悲しさ」、「怒り」、「驚き」、「恐れ」、
「嫌悪」等の感情の状態(度合い)を、所定の範囲(例
えば、0乃至100等)の感情パラメータによってそれ
ぞれ表し、音声認識部24、およびセンサデータ処理部
25からの出力や時間経過等に基づいて、その値を変化
させる。The emotion model 51 includes, for example, "joy", "sadness", "anger", "surprise", "fear",
The emotional state (degree) such as "disgust" is expressed by emotion parameters in a predetermined range (for example, 0 to 100), and the output from the voice recognition unit 24 and the sensor data processing unit 25, the passage of time, etc. Based on that, the value is changed.
【0051】この例においては、感情モデル51は、
「うれしさ」を表わす感情ユニット51A、「悲しさ」
を表わす感情ユニット51B、「怒り」を表わす感情ユ
ニット51C、「驚き」を表わす感情ユニット51D、
「恐れ」を表わす感情ユニット51E、および、「嫌
悪」を表わす感情ユニット51Fから構成されている。In this example, the emotion model 51 is
Emotional unit 51A expressing "joy", "Sadness"
An emotional unit 51B that represents, an emotional unit 51C that represents "anger", an emotional unit 51D that represents "surprise",
It is composed of an emotion unit 51E representing "fear" and an emotion unit 51F representing "dislike".
【0052】本能モデル52は、例えば、「食欲」、
「睡眠欲」、「運動欲」等の本能による欲求の状態(度
合い)を、所定の範囲の本能パラメータによってそれぞ
れ表し、音声認識部24、およびセンサデータ処理部2
5からの出力や時間経過等に基づいて、その値を変化さ
せる。また、本能モデル52は、行動履歴に基づいて
「運動欲」を表わすパラメータを高めたり、或いは、バ
ッテリー残量に基づいて「食欲」を表わすパラメータを
高めたりする。The instinct model 52 is, for example, “appetite”,
The states (degrees) of instinct such as "sleep desire" and "exercise desire" are represented by instinct parameters in a predetermined range, and the voice recognition unit 24 and the sensor data processing unit 2
The value is changed based on the output from 5 and the passage of time. Further, the instinct model 52 enhances the parameter indicating “motility” based on the action history, or enhances the parameter indicating “appetite” based on the remaining battery level.
【0053】この例においては、本能モデル52は、
「運動欲」を表わす本能ユニット52A、「愛情欲」を
表わす本能ユニット52B、「食欲」を表わす本能ユニ
ット52C、「好奇心」を表わす本能ユニット52D、
および「睡眠欲」を表わす本能ユニット52Eから構成
されている。In this example, the instinct model 52 is
An instinct unit 52A representing "motivation", an instinct unit 52B representing "love", an instinct unit 52C representing "appetite", an instinct unit 52D representing "curiosity",
And an instinct unit 52E indicating "sleep desire".
【0054】本能・感情管理部26は、このような感情
ユニット51A乃至51Fと本能ユニット52A乃至5
2Eのパラメータを変化させることにより、ペットロボ
ット1の感情と本能の状態を表現し、その変化をモデル
化している。The instinct / emotion management section 26 has the above emotion units 51A to 51F and instinct units 52A to 5F.
By changing the parameters of 2E, the emotion and instinct of the pet robot 1 are expressed and the change is modeled.
【0055】また、感情ユニット51A乃至51Fと本
能ユニット52A乃至52Eのパラメータは、外部から
の入力だけでなく、図の矢印で示すように、それぞれの
ユニット同士が相互に影響しあうことによっても変化さ
れる。Further, the parameters of the emotion units 51A to 51F and the instinct units 52A to 52E are changed not only by external input, but also by mutual influence of the respective units as shown by arrows in the figure. To be done.
【0056】例えば、「うれしさ」を表現する感情ユニ
ット51Aと「悲しさ」を表現する感情ユニット51B
が相互抑制的に結合することにより、本能・感情管理部
26は、ユーザにほめてもらったときには「うれしさ」
を表現する感情ユニット51Aのパラメータを大きくす
るとともに、「悲しさ」を表現する感情ユニット51B
のパラメータを小さくするなどして、表現する感情を変
化させる。For example, an emotional unit 51A expressing "joy" and an emotional unit 51B expressing "sadness".
Instinct / emotion management unit 26 is "joyful" when the user compliments each other due to the mutual inhibition.
The emotion unit 51B that expresses "sadness" while increasing the parameter of the emotion unit 51A that expresses
Change the emotion to be expressed, for example, by reducing the parameter of.
【0057】また、感情モデル51を構成する各ユニッ
ト同士、および本能モデル52を構成する各ユニット同
士だけでなく、双方のモデルを超えて、それぞれのユニ
ットのパラメータが変化される。Further, the parameters of the respective units constituting the emotion model 51 and the units constituting the instinct model 52 are changed not only between the respective units but also over both models.
【0058】例えば、図に示すように、本能モデル52
の「愛情欲」を表わす本能ユニット52Bや、「食欲」
を表わす本能ユニット52Cのパラメータの変化に応じ
て、感情モデル51の「悲しさ」を表現する感情ユニッ
ト51Bや「怒り」を表現する感情ユニット51Cのパ
ラメータが変化される。For example, as shown in FIG.
Instinct unit 52B that expresses "love desire" and "appetite"
The parameters of the emotional unit 51B expressing "sadness" and the emotional unit 51C expressing "anger" of the emotion model 51 are changed according to the change of the parameter of the instinct unit 52C.
【0059】具体的には、「食欲」を表わす本能ユニッ
ト52Cのパラメータが大きくなったとき、感情モデル
51の「悲しさ」を表現する感情ユニット51Bや、
「怒り」を表現する感情ユニット51Cのパラメータが
大きくなる。Specifically, when the parameter of the instinct unit 52C representing "appetite" becomes large, the emotion unit 51B expressing "sadness" of the emotion model 51,
The parameter of the emotion unit 51C expressing "anger" becomes large.
【0060】なお、より詳細には、感情モデル51や本
能モデル52だけでなく、成長モデルが本能・感情管理
部26に用意され、その成長段階によって、感情モデル
51や本能モデル52の各ユニットのパラメータが変化
される。この成長モデルは、例えば、「幼年期」、「青
年期」、「熟年期」、「老年期」等の成長の状態(度合
い)を、所定の範囲の値によってそれぞれ表し、音声認
識部24、およびセンサデータ処理部25からの出力や
時間経過等に基づいて、その値を変化させる。More specifically, not only the emotion model 51 and the instinct model 52, but also a growth model is prepared in the instinct / emotion management unit 26, and each unit of the emotion model 51 and the instinct model 52 is selected depending on the growth stage. The parameters are changed. This growth model represents, for example, growth states (degrees) such as “childhood”, “adolescence”, “mature”, “old age” by a value in a predetermined range, and the speech recognition unit 24, The value is changed based on the output from the sensor data processing unit 25, the passage of time, and the like.
【0061】本能・感情管理部26は、感情モデル、本
能モデル等のパラメータで表される感情、本能等の状態
を、内部情報として行動管理部27に出力する。The instinct / emotion management unit 26 outputs the emotions and instinct states represented by parameters such as the emotion model and the instinct model to the action management unit 27 as internal information.
【0062】なお、本能・感情管理部26には、音声認
識部24、およびセンサデータ処理部25から認識情報
が供給される他に、行動管理部27から、ペットロボッ
ト1の現在、または過去の行動、具体的には、例えば、
「長時間歩いた」などの行動の内容を示す行動情報が供
給されるようになされている。そして、本能・感情管理
部26は、同一の認識情報等が与えられた場合であって
も、行動情報により示されるペットロボット1の行動に
応じて、異なる内部情報を生成する。The instinct / emotion management unit 26 is supplied with recognition information from the voice recognition unit 24 and the sensor data processing unit 25, and the behavior management unit 27 supplies the present or past information of the pet robot 1. Actions, specifically, for example,
Behavior information indicating the content of the behavior such as "walking for a long time" is supplied. Then, the instinct / emotion management unit 26 generates different internal information according to the action of the pet robot 1 indicated by the action information even when the same recognition information or the like is given.
【0063】例えば、ペットロボット1がユーザに挨拶
をし、ユーザに頭を撫でられた場合には、ユーザに挨拶
をしたという行動情報と、頭を撫でられたという認識情
報が本能・感情管理部26に供給される。このとき、本
能・感情管理部26においては、「うれしさ」を表す感
情ユニット51Aの値が増加される。For example, when the pet robot 1 greets the user and the user pats his / her head, the instinct / emotion management section provides the action information that the user greeted the user and the recognition information that the user patted the head. 26. At this time, in the instinct / emotion management unit 26, the value of the emotion unit 51A representing “joy” is increased.
【0064】図3の説明に戻り、行動管理部27は、音
声認識部24、およびセンサデータ処理部25から供給
されてきた情報と、本能・感情管理部26から供給され
てきた内部情報、および時間経過等に基づいて次の行動
を決定し、決定した行動を表わす情報をコマンド生成部
29に通知する。Returning to the explanation of FIG. 3, the action management section 27 has information supplied from the voice recognition section 24 and the sensor data processing section 25, internal information supplied from the instinct / emotion management section 26, and The next action is determined based on the elapse of time, etc., and the command generation unit 29 is notified of information indicating the determined action.
【0065】図5は、図3の行動管理部27の機能構成
例を示す模式図である。FIG. 5 is a schematic diagram showing a functional configuration example of the behavior management unit 27 of FIG.
【0066】行動管理部27は、行動モデルライブラリ
61と行動選択部62から構成されており、行動モデル
ライブラリ61は、予め設定された条件(トリガ)に対
応させて、図に示すように、各種の行動モデルを有して
いる。The behavior management unit 27 is composed of a behavior model library 61 and a behavior selection unit 62, and the behavior model library 61 responds to preset conditions (triggers) as shown in FIG. Have a behavior model of.
【0067】図の例においては、行動モデルライブラリ
61には、ボールを検出した場合にとる行動を示すボー
ル対応行動モデル61A、ボールを見失った場合などに
とる行動を示す自律検索行動モデル61B、上述した感
情モデル51の変化を検出した場合にとる行動を示す感
情表現行動モデル61Cが用意されている。また、障害
物を検出した場合にとる行動を示す障害物回避行動モデ
ル61D、転倒したことを検出した場合にとる行動を示
す転倒復帰行動モデル61E、およびバッテリー残量が
少なくなった場合にとる行動を示すバッテリー管理行動
モデル61Fが用意されている。In the example shown in the figure, the behavior model library 61 includes a ball-corresponding behavior model 61A indicating an action to be taken when a ball is detected, an autonomous retrieval behavior model 61B indicating an action to be taken when the ball is lost, and the like. An emotion expression action model 61C indicating an action to be taken when a change in the emotion model 51 is detected is prepared. In addition, an obstacle avoidance behavior model 61D that shows an action to be taken when an obstacle is detected, a fall recovery behavior model 61E that shows an action to be taken when a fall is detected, and an action to be taken when the battery level is low. A battery management behavior model 61F indicating is shown.
【0068】そして、行動選択部62は、音声認識部2
4、センサデータ処理部25等から供給される情報と、
本能・感情管理部26から供給される内部情報、および
時間経過等を参照し、ペットロボット1が次にとる行動
を行動モデルライブラリ61に用意されている行動モデ
ルから選択する。Then, the action selecting section 62 is connected to the voice recognizing section 2
4. Information supplied from the sensor data processing unit 25 and the like,
By referring to the internal information supplied from the instinct / emotion management unit 26, the passage of time, etc., the next action to be taken by the pet robot 1 is selected from the action models prepared in the action model library 61.
【0069】なお、行動選択部62は、現在のペットロ
ボット1の状態を表わすノードから、どの状態を表わす
ノードに遷移するのかを、それぞれのノード間を結ぶア
ークに設定されている遷移確率に基づいて決定する、図
6に示すような有限確率オートマトンを用いて選択す
る。The action selection unit 62 determines which state the node representing the current state of the pet robot 1 transits to, based on the transition probability set in the arc connecting the respective nodes. The finite probability automaton as shown in FIG.
【0070】図6に示す有限確率オートマトンは、例え
ば、現在の状態がノード0(NODE0)である場合、確率P
1でノード1(NODE1)に遷移し、確率P2でノード2(NO
DE2)に遷移し、確率Pnでノードn(NODEn)に遷移する
ことを示している。また、この有限確率オートマトン
は、確率Pn-1でノード0(NODE0)に遷移すること、す
なわち、いずれのノードにも遷移しないことを示してい
る。The finite probability automaton shown in FIG. 6 has a probability P when the current state is node 0 (NODE 0 ).
Transition to node 1 (NODE 1 ) at 1 and node 2 (NODE at probability P 2
DE 2 ), with probability P n , to node n (NODE n ). Further, this finite probability automaton shows that it transits to the node 0 (NODE 0 ) with the probability P n−1 , that is, it does not transit to any node.
【0071】そして、行動モデルライブラリ61に規定
されるそれぞれの行動モデルは、複数の状態を表わすノ
ードから構成されており、それぞれのノードには、他の
ノードに遷移する確率が記述された状態遷移表が設定さ
れている。Each action model defined in the action model library 61 is composed of nodes representing a plurality of states, and each node has a state transition in which the probability of transition to another node is described. The table is set.
【0072】図7は、行動モデルライブラリ61に規定
される、所定の行動モデルに属するノード100(NODE
100)の状態遷移表の例を示す図である。FIG. 7 shows a node 100 (NODE) belonging to a predetermined behavior model defined in the behavior model library 61.
It is a figure which shows the example of the state transition table of 100 ).
【0073】図7においては、他のノード(または自ら
のノード)に遷移する条件としての入力イベントが「入
力イベント名」の欄に記載されており、遷移する条件と
して規定される「入力イベント名」についての、さらな
る条件が「データ名」、および「データ範囲」の欄に記
載されている。In FIG. 7, the input event as a condition for transition to another node (or its own node) is described in the column of "input event name", and the "input event name" defined as the transition condition is specified. Are described in the columns of “data name” and “data range”.
【0074】図の例において、ID「1」が設定されてい
る情報は、「ボールを検出した」(入力イベント名「BA
LL」)ことに関する情報が行動管理部27に通知され、
かつ、検出されたボールの大きさが「0乃至1000」
の範囲であるとき、「30パーセント」の確率でノード
100からノード120に遷移することを示している。In the example of the figure, the information having the ID "1" is "ball detected" (input event name "BA
LL ”) information about that is notified to the behavior management unit 27,
And the size of the detected ball is "0 to 1000".
In the range of, the transition from the node 100 to the node 120 is shown with a probability of “30%”.
【0075】また、ID「2」が設定されている情報は、
「頭を軽く叩かれた」(入力イベント名「PAT」)こと
に関する情報が行動管理部27に通知されてきたとき、
「40パーセント」の確率でノード100からノード1
50に遷移することを示している。Further, the information to which the ID "2" is set is
When the action management unit 27 is notified of information regarding "slapped on the head" (input event name "PAT"),
Node 40 to node 1 with a probability of “40%”
The transition to 50 is shown.
【0076】さらに、ID「3」が設定されている情報
は、「頭を強く叩かれた」(入力イベント名「HIT」)
ことに関する情報が行動管理部27に通知されてきたと
き、「20パーセント」の確率でノード100からノー
ド150に遷移することを示している。Furthermore, the information for which the ID "3" is set is "Head hit hard" (input event name "HIT").
When the behavior management unit 27 is notified of the information regarding the thing, it indicates that the transition from the node 100 to the node 150 is made with a probability of “20%”.
【0077】ID「4」が設定されている情報は、「障害
物を検出した」(入力イベント名「OBSTACLE」)ことに
関する情報が行動管理部27に通知され、かつ、その障
害物までの距離が「0乃至100」の範囲であることが
通知されてきたとき、「100パーセント」の確率でノ
ード100からノード1000に遷移することを示して
いる。As for the information having the ID "4", the information about "obstacle detected" (input event name "OBSTACLE") is notified to the action management unit 27, and the distance to the obstacle is detected. Indicates that the node 100 is transitioned from the node 100 to the node 1000 with a probability of “100%” when it is notified that the value is in the range of “0 to 100”.
【0078】また、この例においては、音声認識部24
やセンサデータ処理部25等からの入力がない場合であ
っても、感情モデル51や本能モデル52のパラメータ
に応じて他のノードに遷移するようになされている。Further, in this example, the voice recognition unit 24
Even when there is no input from the sensor data processing unit 25 or the like, the transition is made to another node according to the parameters of the emotion model 51 or the instinct model 52.
【0079】例えば、ID5が設定されている情報は、感
情モデル51の「うれしさ(JOY)」を表わす感情ユニ
ット51Aのパラメータが「50乃至100」の範囲に
あるとき、「5パーセント」の確率でノード120に遷
移し、「30パーセント」の確率でノード150に遷移
することを示している。For example, when the parameter of the emotion unit 51A representing the "joy (JOY)" of the emotion model 51 is in the range of "50 to 100", the information in which ID5 is set has a probability of "5%". Indicates that a transition is made to the node 120 and a transition is made to the node 150 with a probability of “30%”.
【0080】ID6が設定されている情報は、感情モデル
51の「驚き(SURPRISE)」を表わす感情ユニット51
Dのパラメータが「50乃至100」の範囲にあると
き、「15パーセント」の確率でノード1000に遷移
することを示しており、ID7が設定されている情報は、
感情モデル51の「悲しみ(SUDNESS)」を表わす感情
ユニット51Bのパラメータが「50乃至100」の範
囲にあるとき、「50パーセント」の確率でノード12
0に遷移することを示している。The information to which the ID 6 is set is the emotion unit 51 representing “SURPRISE” of the emotion model 51.
When the parameter of D is in the range of “50 to 100”, it indicates that the node 1000 is transited to the node 1000 with a probability of “15%”.
When the parameter of the emotion unit 51B representing “SUDNESS” of the emotion model 51 is in the range of “50 to 100”, the node 12 has a probability of “50%”.
This indicates that the transition to 0 is made.
【0081】また、図7の状態遷移表には、それぞれの
ノードに遷移したとき、そこで出力される行動が「出力
行動」の欄に記述されており、例えば、ノード120に
遷移したとき、そこで出力される行動は「ACTION1」で
あり、ノード150に遷移したとき、そこで出力される
行動は「ACTION2」であり、ノード1000に遷移した
とき、そこで出力される行動は「MOVE BACK」(後退)
であるとされている。Further, in the state transition table of FIG. 7, the action output at each node when transitioning to each node is described in the column of “output action”. For example, when transitioning to node 120, The action that is output is "ACTION1", the action that is output when transitioning to the node 150 is "ACTION2", and the action that is output when transitioning to the node 1000 is "MOVE BACK" (back)
Is said to be.
【0082】行動選択部62は、このような状態遷移表
を参照することで状態を遷移させ、そのノードに設定さ
れている行動を指示する情報を、本能・感情管理部2
6、コマンド生成部29等に出力する。The action selecting section 62 makes a state transition by referring to such a state transition table, and outputs information indicating an action set in the node to the instinct / emotion managing section 2
6, output to the command generation unit 29 and the like.
【0083】そして、例えば、行動管理部27により管
理され、遷移したノードに規定されている行動が「こん
にちはを話す」である場合、コマンド生成部29は、行
動管理部27からの指示に基づいて発話コマンドを生成
し、音声合成部34に出力する。[0083] Then, for example, is managed by the behavior management unit 27, if the action is defined in the transition node is a "speak Hello", the command generating unit 29, based on an instruction from the behavior management unit 27 A speech command is generated and output to the voice synthesis unit 34.
【0084】また、遷移したノードに規定されている行
動が「後退する」である場合、コマンド生成部29は、
行動管理部27からの指示に基づいて、それを実行させ
るコマンドを生成し、制御部31に出力する。また、コ
マンド生成部29は、ペットロボット1の「目」の位置
に設けられているLED41を点灯、消灯または点滅させ
るとき、それを指示するコマンドを生成し、LED制御部
30に出力する。If the action defined for the transitioned node is "backward", the command generation unit 29
Based on the instruction from the behavior management unit 27, a command to execute it is generated and output to the control unit 31. Further, when the LED 41 provided at the position of the “eye” of the pet robot 1 is turned on, turned off, or blinks, the command generation unit 29 generates a command instructing the LED 41 and outputs the command to the LED control unit 30.
【0085】LED制御部30は、コマンド生成部29か
ら供給されてきたコマンドに基づいてLED41を制御す
る。The LED control section 30 controls the LED 41 based on the command supplied from the command generation section 29.
【0086】制御部31は、コマンド生成部29から供
給されるコマンドに基づいて、アクチュエータ3AA1
乃至5A2を制御し、ペットロボット1の姿勢を現在の
姿勢から次の姿勢に遷移させる。The controller 31 controls the actuator 3AA 1 based on the command supplied from the command generator 29.
To 5A 2 are controlled to change the posture of the pet robot 1 from the current posture to the next posture.
【0087】ここで、現在の姿勢から次に遷移可能な姿
勢は、例えば、胴体や手や足の形状、重さ、各部の結合
状態のようなペットロボット1の物理的形状と、関節が
曲がる方向や角度のようなアクチュエータ3AA1乃至
5A2の機構とによって決定される。Here, the posture to which the current posture can be changed next is, for example, the physical shape of the pet robot 1 such as the shape and weight of the body, hands and feet, and the connection state of the respective parts, and the joint bends. It is determined by the mechanism of the actuators 3AA 1 to 5A 2 such as direction and angle.
【0088】なお、姿勢には、現在の姿勢から直接遷移
可能な姿勢と、直接遷移できない姿勢がある。例えば、
4本足のペットロボット1は、手足を大きく投げ出して
寝転んでいる状態から、伏せた状態へ直接遷移すること
はできるが、立った状態へ直接遷移することはできず、
一旦、手足を胴体近くに引き寄せて伏せた姿勢になり、
それから立ち上がるという2段階の動作が必要である。
また、安全に実行できない姿勢も存在する。例えば、ペ
ットロボット1は、4本足で立っている姿勢から、両前
足を挙げてバンザイをしようとすると、簡単に転倒して
しまう。The postures include a posture that can directly make a transition from the current posture and a posture that cannot make a direct transition. For example,
The four-legged pet robot 1 can make a direct transition to a prone state from a state of lying down with its limbs largely thrown out, but cannot make a direct transition to a standing state.
Once I pulled my limbs close to my torso and fell down,
Then, a two-step operation of starting up is required.
There are also postures that cannot be safely executed. For example, the pet robot 1 easily falls when attempting to banzai with both front legs raised from a standing posture with four legs.
【0089】このため、制御部31は、直接遷移可能な
姿勢をあらかじめ登録しておき、コマンド生成部29か
ら供給されるコマンドが、直接遷移可能な姿勢を示す場
合には、それに基づいて対応するアクチュエータを駆動
する。Therefore, the control unit 31 registers in advance a posture in which direct transition is possible, and when the command supplied from the command generation unit 29 indicates a posture in which direct transition is possible, the control unit 31 responds based on that. Drive the actuator.
【0090】一方、コマンド生成部29から供給される
コマンドが、直接遷移不可能な姿勢を示す場合には、制
御部31は、遷移可能な他の姿勢に一旦遷移した後に、
目的の姿勢まで遷移させるように、対応するアクチュエ
ータを駆動する。これによりペットロボット1が、遷移
不可能な姿勢を無理に実行しようとする事態や、転倒す
るような事態を回避することができる。On the other hand, when the command supplied from the command generation unit 29 indicates a posture in which direct transition is not possible, the control unit 31 makes a transition to another posture in which transition is possible and then
The corresponding actuator is driven so as to transition to the desired posture. As a result, it is possible to avoid a situation in which the pet robot 1 is forced to execute an untransitable posture or a situation in which the pet robot 1 falls.
【0091】旋律生成部32は、音声認識部24からキ
ーワードが認識されたことが通知されてきたとき、その
キーワードのピッチ周波数を分析することを音声ピッチ
分析部28に指示する。そして、旋律生成部32は、キ
ーワードの音声が分析され、ピッチ周波数に基づいて選
択された音階が音声ピッチ分析部28から通知されてき
たとき、旋律データ記憶部33から所定の旋律データを
読み出し、通知されてきた音階に基づいて、その旋律デ
ータを変換する。When the melody generating section 32 is notified by the voice recognizing section 24 that the keyword has been recognized, the melody generating section 32 instructs the voice pitch analyzing section 28 to analyze the pitch frequency of the keyword. Then, the melody generating unit 32 reads the predetermined melody data from the melody data storage unit 33 when the voice of the keyword is analyzed and the scale selected based on the pitch frequency is notified from the voice pitch analyzing unit 28. The melody data is converted based on the notified scale.
【0092】すなわち、旋律データ記憶部33には、ペ
ットロボット1から出力される音(メロディ)の旋律デ
ータが、例えば、MIDI形式で複数用意されている。That is, in the melody data storage unit 33, a plurality of melody data of sounds (melody) output from the pet robot 1 are prepared, for example, in the MIDI format.
【0093】旋律生成部32は、例えば、旋律データの
各音階に、音声ピッチ分析部28から供給されてきた音
階で置換するなどの処理を施し、新たな旋律データを生
成する。旋律生成部32により生成された旋律データ
は、音声合成部34に出力される。The melody generating section 32 performs processing such as replacing each scale of the melody data with the scale supplied from the voice pitch analyzing section 28 to generate new melody data. The melody data generated by the melody generator 32 is output to the voice synthesizer 34.
【0094】音声ピッチ分析部28は、旋律生成部32
から指示されたとき、AD変換部21から供給されてきた
キーワードの入力音声を分析し、個々の時刻のピッチ周
波数を算出する。例えば、音声ピッチ分析部28は、ピ
ッチ周波数に対応する時間シフト量を変量とし、自己相
関係数が最大の値をとる時間シフト量に基づいて、入力
音声の個々の時刻におけるピッチ周波数を算出する。例
えば、音声ピッチ分析部28による入力音声のサンプリ
ング周波数が16kHzであり、自己相関係数が最大の値
をとる時間シフト量が118である場合、音声ピッチ分
析部28は、ピッチ周波数f(Hz)をfPITCH=160
00/118=135.59Hzと算出する。The voice pitch analysis section 28 includes a melody generation section 32.
When instructed by, the input voice of the keyword supplied from the AD conversion unit 21 is analyzed, and the pitch frequency at each time is calculated. For example, the voice pitch analysis unit 28 uses the time shift amount corresponding to the pitch frequency as a variable, and calculates the pitch frequency at each time of the input voice based on the time shift amount having the maximum value of the autocorrelation coefficient. . For example, when the sampling frequency of the input voice by the voice pitch analysis unit 28 is 16 kHz and the time shift amount at which the autocorrelation coefficient has the maximum value is 118, the voice pitch analysis unit 28 determines the pitch frequency f (Hz). F PITCH = 160
Calculated as 00/118 = 135.59 Hz.
【0095】そして、音声ピッチ分析部28は、算出し
たピッチ周波数に基づいて、音階を選択するための所定
のピッチ周波数を抽出し、抽出したピッチ周波数に対応
する音階を選択する。音声ピッチ分析部28は、例え
ば、所定の期間の平均値からなるピッチ周波数を複数抽
出し、それに基づいて複数の音階を選択する。音声ピッ
チ分析部28により選択された音階は、旋律生成部32
に通知され、旋律データを変換するために利用される。Then, the voice pitch analysis section 28 extracts a predetermined pitch frequency for selecting a scale based on the calculated pitch frequency, and selects a scale corresponding to the extracted pitch frequency. The voice pitch analysis unit 28 extracts, for example, a plurality of pitch frequencies composed of an average value of a predetermined period, and selects a plurality of scales based on the extracted pitch frequencies. The scale selected by the voice pitch analysis unit 28 is the melody generation unit 32.
Is used to convert melody data.
【0096】音声合成部34は、コマンド生成部29か
ら所定の発話コマンドと、その発話の内容を示すテキス
トデータが供給されてきたとき、内部に有する音声合成
用辞書を参照し、そのテキストデータに対応する、例え
ば、WAVフォーマットなどによる音声データを生成す
る。When the predetermined utterance command and the text data indicating the content of the utterance are supplied from the command generating unit 29, the voice synthesizing unit 34 refers to the internal voice synthesizing dictionary to convert the text data into the text data. For example, WAV format corresponding audio data is generated.
【0097】より詳細には、この音声合成用辞書には、
各単語の品詞情報や、読み、アクセント等の情報が記述
された単語辞書、その単語辞書に記述された単語につい
て、単語連鎖に関する制約等の生成用文法規則、音声情
報としての音素片データが記憶された音声情報辞書が格
納されている。More specifically, in this voice synthesis dictionary,
A word dictionary in which part-of-speech information of each word, reading, accent, etc. is described, grammatical rules for generation of restrictions on word chains, and phoneme piece data as speech information for the words described in the word dictionary. The stored voice information dictionary is stored.
【0098】音声合成部34は、単語辞書、および生成
用文法規則に基づいて、入力されるテキストの形態素解
析や、構文解析等のテキスト解析(言語解析)を行い、
音声合成に必要な情報を抽出する。音声合成に必要な情
報としては、例えば、ポーズの位置や、アクセント、イ
ントネーション、パワー等を制御するための韻律情報、
各単語の発音を表す音韻情報などがある。The voice synthesizer 34 performs morphological analysis (syntactic analysis) and other text analysis (language analysis) of the input text based on the word dictionary and the grammatical rules for generation,
Extract the information required for speech synthesis. As information necessary for voice synthesis, for example, prosodic information for controlling pose position, accent, intonation, power, etc.,
There is phonological information indicating the pronunciation of each word.
【0099】音声合成部34は、抽出した各種の情報に
基づいて、音声情報辞書を参照しながら、必要な音素片
データを接続し、さらに、音素片データの波形を加工す
ることによって、ポーズ、アクセント、イントネーショ
ン等を適切に付加し、供給されてきたテキストデータに
対応する音声データを生成する。The voice synthesizer 34 connects the necessary phoneme piece data while referring to the voice information dictionary based on the extracted various information, and further processes the waveform of the phoneme piece data to make a pause, Accents, intonations, etc. are appropriately added, and voice data corresponding to the supplied text data is generated.
【0100】音声合成部34により生成された音声デー
タは、DA変換部35においてディジタルアナログ変換さ
れ、スピーカ14から出力される。The voice data generated by the voice synthesizer 34 is digital-analog converted in the DA converter 35 and output from the speaker 14.
【0101】また、音声合成部34は、旋律生成部32
から旋律データが供給されてきたとき、それを再生し、
スピーカ14から出力させる。The voice synthesizer 34 also includes a melody generator 32.
When the melody data is supplied from, play it,
It is output from the speaker 14.
【0102】次に、以上のような構成を有するペットロ
ボット1の動作について説明する。Next, the operation of the pet robot 1 having the above configuration will be described.
【0103】始めに、図8のフローチャートを参照し
て、入力音声に基づいて選択した音階を利用して旋律デ
ータを生成し、それを再生するペットロボット1の処理
について説明する。First, the processing of the pet robot 1 for generating melody data using the scale selected based on the input voice and reproducing it will be described with reference to the flowchart of FIG.
【0104】ステップS1において、音声認識部24
は、音声認識の結果、キーワードを検出したか否かを判
定し、キーワードを検出したと判定するまで待機する。
例えば、ユーザにより発話された音声は、上述したよう
にマイクロフォン11により集音され、各処理が施され
た後、音声認識部24に供給されている。In step S1, the voice recognition unit 24
Determines whether or not a keyword is detected as a result of voice recognition, and waits until it is determined that a keyword is detected.
For example, the voice uttered by the user is collected by the microphone 11 as described above, subjected to each processing, and then supplied to the voice recognition unit 24.
【0105】音声認識部24は、複数のキーワードを記
憶しており、それに基づいて、入力されてきた音声がキ
ーワードであるか否かを判定する。このキーワードは、
例えば、周波数変化が比較的少なく、ピッチ周波数を抽
出しやすい母音(例えば、「あ」の音)からなるものと
してもよい。The voice recognition unit 24 stores a plurality of keywords, and based on this, determines whether or not the input voice is a keyword. This keyword is
For example, it may be composed of a vowel (for example, a sound of "A") whose frequency change is relatively small and whose pitch frequency is easily extracted.
【0106】そして、音声認識部24は、ステップS1
において、キーワードを検出したと判定した場合、ステ
ップS2に進み、それを行動管理部27、および旋律生
成部32に通知する。Then, the voice recognition section 24 operates in step S1.
In step S2, if it is determined that the keyword is detected, the process proceeds to step S2, and the action management unit 27 and the melody generation unit 32 are notified of the fact.
【0107】ステップS3において、旋律生成部32
は、音声ピッチ分析部28に対して、検出されたキーワ
ードの分析を行うことを指示する。In step S3, the melody generator 32
Instructs the voice pitch analysis unit 28 to analyze the detected keyword.
【0108】音声ピッチ分析部28は、ステップS4に
おいて、旋律生成部32からの指示に応じて、AD変換部
21から供給されるキーワードの波形の分析を行い、ピ
ッチ周波数を抽出する。In step S4, the voice pitch analysis section 28 analyzes the waveform of the keyword supplied from the AD conversion section 21 according to the instruction from the melody generation section 32, and extracts the pitch frequency.
【0109】図9は、ピッチ周波数を抽出する音声ピッ
チ分析部28の処理を説明する図である。なお、図9に
おいては、キーワードとして「ららら」が検出された場
合の例とされている。FIG. 9 is a diagram for explaining the processing of the voice pitch analysis unit 28 which extracts the pitch frequency. It should be noted that FIG. 9 shows an example in the case where “LaLaLa” is detected as the keyword.
【0110】そして、図9の上方に示す図は、縦軸を音
声の振幅、横軸を時刻とするキーワード「ららら」の波
形を表わしている。また、図9の下方に示す図の縦軸は
キーワード「ららら」のピッチ周波数を表わしており、
横軸は時刻を表わしている。The upper part of FIG. 9 shows the waveform of the keyword "la la la" with the vertical axis representing the amplitude of the voice and the horizontal axis representing the time. Further, the vertical axis of the diagram shown in the lower part of FIG. 9 represents the pitch frequency of the keyword “La la la”,
The horizontal axis represents time.
【0111】音声ピッチ分析部28は、図9の上方に示
すようなキーワード「ららら」の波形が供給されてきた
とき、それぞれの時刻のピッチ周波数を、上述したよう
に時間シフト量とサンプリング周波数に基づいて算出す
る。When the waveform of the keyword "La la la" as shown in the upper part of FIG. 9 is supplied, the voice pitch analysis unit 28 sets the pitch frequency at each time to the time shift amount and the sampling frequency as described above. Calculate based on
【0112】そして、音声ピッチ分析部28は、例え
ば、それぞれの「ら」の音の音声区間(t1,t2,
t3)を3等分し、3等分した音声区間のうち、中央の
区間の平均のピッチ周波数をそれぞれ抽出する。この音
声区間に関する情報は、音声区間検出部23により検出
され、供給されてきたものである。Then, the voice pitch analysis section 28, for example, uses the voice intervals (t 1 , t 2 ,
t 3 ) is equally divided into three, and the average pitch frequency of the central section is extracted from each of the three equally divided speech sections. The information regarding the voice section has been detected and supplied by the voice section detection unit 23.
【0113】図の例においては、音声区間t1が音声区
間t11,t12,t13とそれぞれ3等分され、同様に、音
声区間t2が音声区間t21,t22,t23とされ、音声区
間t3が音声区間t31,t32,t33とされている。In the example of the figure, the voice section t 1 is divided into three voice sections t 11 , t 12 , and t 13 , respectively, and similarly, the voice section t 2 is divided into voice sections t 21 , t 22 , and t 23 . The voice section t 3 is set as voice sections t 31 , t 32 , and t 33 .
【0114】そして、音声区間t12の区間におけるピッ
チ周波数の平均値が131とされ、音声区間t22の区間
におけるピッチ周波数の平均値が148とされ、音声区
間t 32の区間におけるピッチ周波数の平均値が163と
されている。Then, the voice section t12In the section
The average value of the H frequency is set to 131, and the voice section ttwenty twoSection of
The average value of the pitch frequency in
Interval t 32The average value of the pitch frequency in the section is
Has been done.
【0115】なお、このように、キーワードのそれぞれ
の音の中央の区間におけるピッチ周波数の平均値を算出
し、それを抽出するだけでなく、様々な方法によりピッ
チ周波数を抽出することもできる。ピッチ周波数の抽出
方法としては、例えば、キーワードのそれぞれの音の平
均のピッチ周波数を抽出するようにしてもよいし、所定
の区間における最大のピッチ周波数を抽出するようにし
てもよい。また、それぞれの音の中央の時刻におけるピ
ッチ周波数を抽出するようにしてもよい。As described above, not only the average value of the pitch frequencies in the central section of each sound of the keyword is calculated and extracted, but also the pitch frequency can be extracted by various methods. As a method of extracting the pitch frequency, for example, the average pitch frequency of each sound of the keyword may be extracted, or the maximum pitch frequency in a predetermined section may be extracted. Alternatively, the pitch frequency at the center time of each sound may be extracted.
【0116】そして、音声ピッチ分析部28は、ステッ
プS5において、このようにして抽出したピッチ周波数
に基づいて所定の音階を選択する。Then, in step S5, the voice pitch analysis section 28 selects a predetermined scale based on the pitch frequency thus extracted.
【0117】図10は、音声ピッチ分析部28が管理す
る、ピッチ周波数と音階の対応例を示す図である。図1
0の対応例は、「A4」を「440Hz」の音としたもの
であり、「C1」から「B7」までの音階と、それぞれの
周波数が示されている。FIG. 10 is a diagram showing an example of correspondence between pitch frequencies and scales managed by the voice pitch analysis section 28. Figure 1
A correspondence example of 0 is that "A4" is a sound of "440 Hz", and the scale from "C1" to "B7" and the respective frequencies are shown.
【0118】従って、音声ピッチ分析部28は、例え
ば、図9を参照して説明したように、「ららら」のキー
ワードから「131Hz,148Hz,163Hz」のピッチ
周波数を抽出した場合、それぞれのピッチ周波数に対応
する「C3,D3,E3」の音階を選択する。すなわ
ち、音声ピッチ分析部28は、抽出したピッチ周波数
に、最も近い周波数の音階を選択する。Therefore, for example, when the pitch frequencies of "131 Hz, 148 Hz, 163 Hz" are extracted from the keyword "Rarara" as described with reference to FIG. The scale of "C3, D3, E3" corresponding to is selected. That is, the voice pitch analysis unit 28 selects the scale having the frequency closest to the extracted pitch frequency.
【0119】なお、ペットロボット1は、図10に示し
た周波数のうち、認識の容易さから、例えば、80Hz乃
至400Hzの範囲のピッチ周波数を抽出するようになさ
れている。The pet robot 1 extracts pitch frequencies in the range of 80 Hz to 400 Hz from the frequencies shown in FIG. 10 for easy recognition.
【0120】このようにして音声ピッチ分析部28によ
り選択された音階は、旋律生成部32に通知される。The scale selected by the voice pitch analysis section 28 in this manner is notified to the melody generation section 32.
【0121】一方、行動管理部27は、ステップS6に
おいて、音声認識部24からキーワードが検出されたこ
とが通知されてきたとき、旋律生成部32に対して、旋
律データの生成を指示する。また、旋律生成部32に対
しては、その指示とともに、変換する旋律データの識別
情報も通知されている。On the other hand, the action management section 27 instructs the melody generation section 32 to generate melody data when the voice recognition section 24 notifies that the keyword is detected in step S6. In addition to the instruction, the melody generator 32 is also notified of the identification information of the melody data to be converted.
【0122】ステップS7において、旋律生成部32
は、行動管理部27から通知されてきた識別情報に対応
する旋律データを旋律データ記憶部33から読み出し、
音声ピッチ分析部28から供給されてきた音階に基づい
て、新たな旋律データを生成する。In step S7, the melody generator 32
Reads the melody data corresponding to the identification information notified from the behavior management unit 27 from the melody data storage unit 33,
New melody data is generated based on the scale supplied from the voice pitch analysis unit 28.
【0123】図11は、旋律データ記憶部33に記憶さ
れている旋律データを楽譜上に表わしたものの例を示す
図であり、この旋律データ1−1の音階1乃至9はそれ
ぞれ「C3,C3,E3,G3,C3,C3,E3,G
3,C3(+12)」である。なお、音階9は、音階1
(「C3」)を基準として、例えば、ピアノ上などで1
2鍵盤だけ上の音であることを示している。このよう
に、旋律データを構成する音階の種類が、キーワードに
より抽出された音階の数以上あるとき、旋律データを構
成する所定の音階は、他の音階を基準として表わされ
る。FIG. 11 is a diagram showing an example in which the melody data stored in the melody data storage unit 33 is represented on a musical score, and the scales 1 to 9 of this melody data 1-1 are "C3, C3," respectively. , E3, G3, C3, C3, E3, G
3, C3 (+12) ". Note that scale 9 is scale 1
Based on (“C3”), for example, 1 on a piano
It indicates that the sound is only two keys above. In this way, when the types of scales forming the melody data are equal to or larger than the number of scales extracted by the keyword, the predetermined scale forming the melody data is expressed with another scale as a reference.
【0124】そして、旋律生成部32は、新たな旋律デ
ータを生成するために、始めに、図12に示すように、
各音階を所定の文字に置換する。なお、この処理は、説
明の便宜上用いたものであり、実際には、旋律データ1
−1から旋律データ1−3(図13)に直接変換される
ようにしてもよい。Then, the melody generator 32 first generates, as shown in FIG.
Replace each scale with a given letter. It should be noted that this processing is used for convenience of explanation, and actually, the melody data 1
-1 may be directly converted into the melody data 1-3 (Fig. 13).
【0125】例えば、旋律生成部32は、旋律データ1
−1の「C3」を「X」に、「D3」を「Y」に、「E
3」を「Z」にそれぞれ置換する。これにより、旋律デ
ータ1−1は、旋律データ1−2に示すように「X,
X,Y,Z,X,X,Y,Z,X(+12)」となる。For example, the melody generator 32 uses the melody data 1
-1 "C3" to "X", "D3" to "Y", "E"
3 ”is replaced with“ Z ”. As a result, the melody data 1-1 becomes "X,
X, Y, Z, X, X, Y, Z, X (+12) ".
【0126】また、旋律生成部32は、旋律データ1−
2の各文字に対して、音声ピッチ分析部28により選択
された音階を対応付ける。図13は、音声ピッチ分析部
28により選択された音階が対応付けられて、新たな旋
律データが生成される処理を説明する図である。Further, the melody generating section 32 uses the melody data 1-
The scale selected by the voice pitch analysis unit 28 is associated with each character of 2. FIG. 13 is a diagram illustrating a process in which the scale selected by the voice pitch analysis unit 28 is associated and new melody data is generated.
【0127】例えば、上述したように、キーワード「ら
らら」に基づいて「C3,D3,E3」の音階が音声ピ
ッチ分析部28により選択された場合、旋律生成部32
は、旋律データ1−2の「X,Y,Z」に「C3,D
3,E3」をそれぞれ対応付ける。そして、旋律生成部
32は、図に示すように「C3,C3,D3,E3,C
3,C3,D3,E3,C3(+12)」の音階の並び
からなる旋律データ1−3を生成する。すなわち、この
時点において、キーワード「ららら」から抽出されたピ
ッチ周波数に基づいて、予め用意されている旋律データ
1−1が旋律データ1−3に変換されている(音階3お
よび4、並びに音階7および8が他の音階にそれぞれ変
換されている)。For example, as described above, when the scale of "C3, D3, E3" is selected by the voice pitch analysis unit 28 based on the keyword "La la la", the melody generation unit 32.
Is "C3, D" in "X, Y, Z" of melody data 1-2.
3, E3 ”are associated with each other. Then, the melody generation unit 32 displays “C3, C3, D3, E3, C
3, C3, D3, E3, C3 (+12) ”is generated to generate melody data 1-3. That is, at this point, the melody data 1-1 prepared in advance is converted into the melody data 1-3 based on the pitch frequency extracted from the keyword “La la la” (scales 3 and 4, and scale 7). And 8 are converted to other scales respectively).
【0128】さらに、旋律生成部32は、以上のように
して生成した旋律データが比較的低い音の場合、生成し
た旋律データの各音を所定の数のオクターブだけ高音に
遷移し、新たな旋律データを生成する。当然、生成した
旋律データが比較的高い音の場合、数オクターブだけ下
げるようにしてもよい。Further, when the melody data generated as described above is a relatively low tone, the melody generating section 32 transitions each tone of the generated melody data to a high pitch by a predetermined number of octaves to generate a new melody. Generate data. Of course, if the generated melody data is a relatively high-pitched sound, it may be lowered by a few octaves.
【0129】図14は、旋律データの各音階を、例え
ば、それぞれ3オクターブだけ遷移させて新たな旋律デ
ータを生成する旋律生成部32の処理を説明する図であ
る。FIG. 14 is a diagram for explaining the processing of the melody generating section 32 which generates new melody data by shifting each scale of the melody data by, for example, 3 octaves.
【0130】図に示すように、旋律データ1−3のそれ
ぞれの音階が3オクターブだけ高音に遷移しており、
「C6,C6,D6,E6,C6,C6,D6,E6,
C6(+12)」の音階の並びからなる旋律データ1−
4が生成されている。すなわち、予め用意されている旋
律データ1−1から、旋律データ1−4が新たに生成さ
れている。As shown in the figure, each scale of the melody data 1-3 has transitioned to the high pitch by 3 octaves,
"C6, C6, D6, E6, C6, C6, D6, E6
C6 (+12) ”melody data consisting of a sequence of scales 1-
4 has been generated. That is, the melody data 1-4 is newly generated from the melody data 1-1 prepared in advance.
【0131】そして、旋律生成部32により生成された
旋律データは、音声合成部34に出力される。Then, the melody data generated by the melody generating section 32 is output to the voice synthesizing section 34.
【0132】音声合成部34は、ステップS8におい
て、旋律生成部32から供給されてきた旋律データを再
生し、スピーカ14から出力させる。なお、出力される
音の長さは、旋律データ記憶部33に予め記憶されてい
る旋律データの通りでもよいし、上述したようにして抽
出されたピッチ周波数や、ピッチ周波数が検出された時
刻、或いは検出区間の範囲などに基づいて変換されるよ
うにしてもよい。The voice synthesizing unit 34 reproduces the melody data supplied from the melody generating unit 32 and outputs it from the speaker 14 in step S8. The length of the output sound may be the same as the melody data stored in advance in the melody data storage unit 33, or may be the pitch frequency extracted as described above or the time when the pitch frequency is detected, Alternatively, the conversion may be performed based on the range of the detection section or the like.
【0133】図15は、旋律データ記憶部33に記憶さ
れている他の旋律データと、その変換処理を説明する図
である。FIG. 15 is a diagram for explaining other melody data stored in the melody data storage unit 33 and the conversion processing thereof.
【0134】図15において、旋律データ2−1の音の
並びは「C3,E3,G3,E3,G3,C3(−
5),E3,G3,E3,G3」とされている。そし
て、上述したように、キーワード「ららら」から「C
3,D3,E3」の音階が選択された場合、旋律データ
2−1の「C3,E3,G3」がそれぞれ「C3,D
3,E3」に変換され(矢印の処理)、「C3,D
3,E3,D3,E3,C3(−5),D3,E3,D
3,E3」の音の並びからなる旋律データ2−2に変換
される。すなわち、この時点において、旋律データ2−
1を構成する音階2乃至5、および音階7乃至10が他
の音階にそれぞれ変換されている。In FIG. 15, the arrangement of notes in the melody data 2-1 is "C3, E3, G3, E3, G3, C3 (-
5), E3, G3, E3, G3 ". Then, as described above, from the keyword “LaLaLa” to “C
When the scale of "3, D3, E3" is selected, "C3, E3, G3" of the melody data 2-1 is changed to "C3, D", respectively.
"3, E3" (arrow processing), "C3, D
3, E3, D3, E3, C3 (-5), D3, E3, D
3, E3 ”is converted into melody data 2-2 consisting of a sequence of sounds. That is, at this point, the melody data 2-
The scales 2 to 5 and the scales 7 to 10 which form 1 are converted into other scales, respectively.
【0135】また、旋律データ2−2の各音は、旋律生
成部32により、それぞれ3オクターブだけ高音に遷移
され(矢印の処理)、「C6,D6,E6,D6,E
6,C6(−5),D6,E6,D6,E6」の音の並
びからなる旋律データ2−3が生成されている。そし
て、この旋律データ2−3が再生され、対応する音が出
力される。Further, each note of the melody data 2-2 is transitioned to a high pitch by 3 octaves by the melody generating section 32 (processed by an arrow), and "C6, D6, E6, D6, E"
6, C6 (−5), D6, E6, D6, E6 ”, the melody data 2-3 is generated. Then, the melody data 2-3 is reproduced, and the corresponding sound is output.
【0136】図16は、旋律データ記憶部33に記憶さ
れているさらに他の旋律データと、その変換処理を説明
する図である。FIG. 16 is a diagram for explaining still another melody data stored in the melody data storage unit 33 and the conversion processing thereof.
【0137】図16において、旋律データ3−1の音の
並びは「C3,E3,G3,C3(+12),C3,E
3,G3,C3(+12),C3(−5),C3(−
1)」とされている。そして、上述したように、キーワ
ード「ららら」から「C3,D3,E3」の音階が選択
された場合、旋律データ3−1の「C3,E3,G3」
がそれぞれ「C3,D3,E3」に変換され(矢印In FIG. 16, the arrangement of notes in the melody data 3-1 is "C3, E3, G3, C3 (+12), C3, E.
3, G3, C3 (+12), C3 (-5), C3 (-
1) ”. Then, as described above, when the scale of "C3, D3, E3" is selected from the keyword "Rarara", "C3, E3, G3" of the melody data 3-1.
Are converted to "C3, D3, E3" respectively (arrows
【外1】
の処理)、「C3,D3,E3,C3(+12),C
3,D3,E3,C3(+12),C3(−5),C3
(−1)」の音の並びからなる旋律データ2−2に変換
される。すなわち、この時点において、旋律データ2−
1を構成する音階2および3、並びに音階6および7が
他の音階にそれぞれ変換されている。[Outer 1] Processing), “C3, D3, E3, C3 (+12), C
3, D3, E3, C3 (+12), C3 (-5), C3
(-1) "is converted into melody data 2-2 consisting of a sequence of sounds. That is, at this point, the melody data 2-
The scales 2 and 3 constituting 1 and the scales 6 and 7 are converted into other scales, respectively.
【0138】また、旋律データ3−2の各音は、旋律生
成部32により、それぞれ3オクターブだけ高音に遷移
され(矢印Further, each note of the melody data 3-2 is transitioned to a high note by 3 octaves by the melody generating section 32 (arrows).
【外2】
の処理)、「C6,D6,E6,C6(+12),C
6,D6,E6,C6(+12),C6(−5),C6
(−1)」の音の並びからなる旋律データ3−3が生成
される。そして、この旋律データ3−3が再生され、対
応する音が出力されることになる。[Outside 2] Processing), “C6, D6, E6, C6 (+12), C
6, D6, E6, C6 (+12), C6 (-5), C6
Melody data 3-3 composed of a sequence of sounds of (-1) is generated. Then, the melody data 3-3 is reproduced and the corresponding sound is output.
【0139】以上のように、予め用意されている旋律デ
ータを、キーワードの入力音声から抽出したピッチ周波
数に基づいて変換することにより、仮に同じキーワード
を複数のユーザが順次発話した場合であっても、同じ旋
律データから、それぞれ異なる音が出力されることにな
る。As described above, by converting the prepared melody data based on the pitch frequency extracted from the input voice of the keyword, even if a plurality of users sequentially utter the same keyword. , Different sounds are output from the same melody data.
【0140】従って、ペットロボット1から出力される
音が予測のつかないものとなるため、ペットロボット1
とのコミュニケーションが、より面白みのあるものとな
る。Therefore, since the sound output from the pet robot 1 becomes unpredictable, the pet robot 1
Communication with will be more interesting.
【0141】以上においては、抽出したピッチ周波数に
対応する音階を選択し、その音階に基づいて変換した後
に得られる旋律データを、所定の数のオクターブだけ遷
移させるとしたが、当然、反対に、抽出したピッチ周波
数に対応する音階を選択し、その音階を所定の数のオク
ターブだけ遷移させたものを用いて、予め用意されてい
る旋律データを変換するようにしてもよい。In the above, the scale corresponding to the extracted pitch frequency is selected, and the melody data obtained after conversion based on the scale is transitioned by a predetermined number of octaves, but of course, conversely, It is also possible to select a scale corresponding to the extracted pitch frequency, and use the transition of that scale by a predetermined number of octaves to convert the melody data prepared in advance.
【0142】この場合、例えば、キーワード「ららら」
のピッチ周波数に基づいて選択された「C3,D3,E
3」の音階は、それぞれ3オクターブだけ高音に遷移さ
れて「C6,D6,E6」の音階とされる。そして、例
えば、図11の旋律データ1−1の「C3,E3,G
3」がそれぞれ「C6,D6,E6」により変換され
て、「C6,C6,D6,E6,C6,C6,D6,E
6,C6(+12)」の音の並びからなる旋律データ1
−4が生成される。In this case, for example, the keyword "La la la"
"C3, D3, E selected based on the pitch frequency of
The scale of "3" is transitioned to the high pitch by 3 octaves, and the scale of "C6, D6, E6" is obtained. Then, for example, "C3, E3, G" of the melody data 1-1 of FIG.
3 ”are converted by“ C6, D6, E6 ”, respectively, and“ C6, C6, D6, E6, C6, C6, D6, E
6, C6 (+12) ”sequence of notes 1
-4 is generated.
【0143】また、ピッチ周波数に基づいて選択した音
階を、単に所定の数のオクターブだけ遷移させるだけで
なく、ペットロボット1による発話の周波数領域内の音
に遷移させるようにしてもよい。Further, the scale selected based on the pitch frequency may not only be transited by a predetermined number of octaves, but may be transited to a sound within the frequency range of the utterance by the pet robot 1.
【0144】図17は、ピッチ周波数に基づいて選択さ
れた音階を、所定の周波数の範囲に遷移させる処理を説
明する図である。FIG. 17 is a diagram for explaining the processing for transitioning the scale selected based on the pitch frequency to the range of a predetermined frequency.
【0145】図17Aは、ピッチ周波数に基づいて選択
された音階の例を示す図であり、上述したように、キー
ワード「ららら」に基づいて、「C3,D3,E3」の
音階が選択されている。そして、選択された音階が、常
に、ペットロボット1の標準発話域の範囲内にあるよう
に、図17Bに示すように遷移される。FIG. 17A is a diagram showing an example of the scale selected based on the pitch frequency. As described above, the scale of "C3, D3, E3" is selected based on the keyword "La la la". There is. Then, the selected scale is always transited as shown in FIG. 17B so that it is within the standard speech range of the pet robot 1.
【0146】例えば、この例においては、選択した音階
の中央の音「D3」が「C6」の音に遷移されている。For example, in this example, the central note "D3" of the selected scale is changed to the note "C6".
【0147】従って、このようにペットロボット1の標
準発話域に遷移された音階「B5,C6,D6」に基づ
いて旋律データが変換された場合、旋律データ1−1
は、「B5,B5,C6,D6,B5,B5,C6,D
6,B5(+12)」の音の並びからなる旋律データに
変換される。すなわち、変換された旋律データの各音階
は、いずれも図17に示すペットロボット1の標準発話
領域「F5」乃至「F6」の範囲内のものとなる。Therefore, when the melody data is converted on the basis of the scale "B5, C6, D6" which has been changed to the standard utterance range of the pet robot 1 as described above, the melody data 1-1
Is "B5, B5, C6, D6, B5, B5, C6, D
6, B5 (+12) ”is converted into melody data consisting of a sequence of sounds. That is, each scale of the converted melody data is within the range of the standard speech areas “F5” to “F6” of the pet robot 1 shown in FIG.
【0148】このように、ピッチ周波数に基づいて選択
した音階を様々な領域に遷移することにより、ペットロ
ボット1から出力される音を制御することができる。こ
れにより、入力された音声の高低が、直接ペットロボッ
ト1から出力される音に現れることを抑制することがで
きる。すなわち、このような周波数領域の遷移を行わな
い場合、高い声が入力された場合、それに応じて高音が
ペットロボット1から出力されることになる。As described above, the sound output from the pet robot 1 can be controlled by transitioning the scale selected based on the pitch frequency to various regions. As a result, it is possible to prevent the pitch of the input voice from appearing directly in the sound output from the pet robot 1. That is, if such a transition in the frequency domain is not performed, and if a high voice is input, a high tone is output from the pet robot 1 accordingly.
【0149】以上においては、音声のピッチ周波数に対
応する音階に基づいて旋律データを変換するとしたが、
様々な情報に基づいて旋律データを変換し、それを出力
させることもできる。In the above description, the melody data is converted based on the scale corresponding to the pitch frequency of the voice.
It is also possible to convert the melody data based on various information and output it.
【0150】次に、図18のフローチャートを参照し
て、感情の変化に基づいて選択した音階を利用して旋律
データを生成し、それを再生するペットロボット1の処
理について説明する。Next, with reference to the flowchart of FIG. 18, the processing of the pet robot 1 for generating melody data using the scale selected based on the change in emotion and reproducing it will be described.
【0151】行動管理部27は、ステップS21におい
て、本能・感情管理部26から通知されてくる内部情報
に基づいて、ペットロボット1の感情の変化を検出した
か否かを判定し、検出したと判定するまで待機する。In step S21, the behavior management unit 27 determines whether or not a change in emotion of the pet robot 1 is detected, based on the internal information notified from the instinct / emotion management unit 26, and it is detected. Wait until the judgment.
【0152】そして、行動管理部27は、ステップS2
1において、感情の変化を検出したと判定した場合、ス
テップS22に進み、ペットロボット1の感情が変化し
たことを表わす情報を、変換する旋律データの識別情報
とともに旋律生成部32に通知する。The action management section 27 then proceeds to step S2.
When it is determined in 1 that a change in emotion has been detected, the process proceeds to step S22, and information indicating that the emotion of the pet robot 1 has changed is notified to the melody generation unit 32 together with the identification information of the melody data to be converted.
【0153】旋律生成部32は、ステップS23におい
て、行動管理部27から感情が変化したことが通知され
てきたとき、旋律データを変換するために用いる音階
を、変化した感情に基づいて選択する。In step S23, the melody generator 32 selects the scale used for converting the melody data based on the changed emotion when the behavior manager 27 is notified that the emotion has changed.
【0154】図19は、変化したペットロボット1の感
情と、音階の対応例を示す図であり、このような対応が
旋律生成部32に予め用意されている。FIG. 19 is a diagram showing an example of correspondence between the changed emotion of the pet robot 1 and the musical scale, and such correspondence is prepared in advance in the melody generation section 32.
【0155】この例においては、旋律生成部32は、感
情が「JOY(うれしさ)」に変化したとき、「C,E,
G」の音階を選択し、感情が「SAD(悲しさ)」に変化
したとき、「C,D♯,G」の音階を選択し、感情が
「ANGRY(怒り)」に変化したとき、「C,C,F」の
音階を選択するとされている。また、旋律生成部32
は、感情が「SURPRISE(驚き)」に変化したとき、
「C,D♯,F♯」の音階を選択し、感情が「DISGUST
(嫌悪)」に変化したとき、「C,F♯,C」の音階を
選択し、感情が「FEAR(おそれ)」に変化したとき、
「C,C♯,C」の音階を選択するとされている。In this example, when the emotion changes to "JOY (joy)", the melody generator 32 outputs "C, E,
When the "G" scale is selected and the emotion changes to "SAD", when the "C, D #, G" scale is selected and the emotion changes to "ANGRY", " It is said that a scale of "C, C, F" is selected. In addition, the melody generator 32
When the emotion changes to "SURPRISE",
Select the scale of "C, D #, F #" and the emotion is "DISGUST
(Aversion) ”, the scale of“ C, F #, C ”is selected, and when the emotion changes to“ FEAR ”,
It is said that the scale of "C, C #, C" is selected.
【0156】例えば、「JOY(うれしさ)」にメジャー
な音を対応付け、「SAD(悲しさ)」にマイナーな音を
対応付けることにより、ペットロボット1の感情がうれ
しいときには、一般的に明るい感じがする音が出力され
ることになり、悲しいときには、一般的に暗く悲しげな
感じがする音が出力されることになる。従って、ペット
ロボット1の感情を表現することができる。For example, when "JOY" is associated with a major sound and "SAD" is associated with a minor sound, when the pet robot 1 is happy, it generally feels bright. When the person is sad, a sound that feels dark and sad is generally output. Therefore, the emotion of the pet robot 1 can be expressed.
【0157】さらに、感情値が大きいときには、音程を
上げると自然なので、感情値が10のときは音程を+1
0シフトすることも考えられる。Further, when the emotion value is large, it is natural to raise the pitch, so when the emotion value is 10, the pitch is +1.
It is possible to shift 0.
【0158】そして、ステップS24において、旋律生
成部32は、行動管理部27から指示された旋律データ
を旋律データ記憶部33から読み出し、選択した音階に
基づいて、その旋律データを変換する。Then, in step S24, the melody generating section 32 reads out the melody data instructed by the behavior management section 27 from the melody data storage section 33, and converts the melody data based on the selected scale.
【0159】図20は、旋律データの変換処理を説明す
る図である。FIG. 20 is a diagram for explaining conversion processing of melody data.
【0160】図20においては、図11に示した旋律デ
ータ1−1を変換する場合の例とされ、また、旋律生成
部32に対して、感情が「ANGRY(怒り)」に変化した
ことが通知されてきた場合の例とされている。FIG. 20 shows an example in which the melody data 1-1 shown in FIG. 11 is converted, and the emotion is changed to “ANGRY” with respect to the melody generating section 32. It is an example of when notification is given.
【0161】従って、旋律生成部32は、図19に示し
たような対応テーブルから、「C,C,F」の音階を選
択し、それに基づいて旋律データ1−1を変換する。例
えば、旋律生成部32は、出力される音がペットロボッ
ト1の標準発話域内のものとなるように、選択した音階
「C,C,F」を「C6,C6,F6」とし、旋律デー
タ1−1の「C3,E3,G3」を、それぞれ「C6,
C6,F6」で変換する。Therefore, the melody generator 32 selects the scale of "C, C, F" from the correspondence table as shown in FIG. 19 and converts the melody data 1-1 based on the selected scale. For example, the melody generation unit 32 sets the selected scale “C, C, F” to “C6, C6, F6” so that the output sound is within the standard utterance range of the pet robot 1, and the melody data 1 -1 "C3, E3, G3" is changed to "C6, E3, G3", respectively.
Convert with "C6, F6".
【0162】そして、以上のような変換により「C6,
C6,C6,F6,C6,C6,C6,F6,C6(+
12)」の音の並びからなる旋律データ1−5が生成さ
れる。Then, by the above conversion, "C6
C6, C6, F6, C6, C6, C6, F6, C6 (+
12) ”is formed, and melody data 1-5 is generated.
【0163】また、例えば、ペットロボット1の感情が
「SAD(悲しさ)」に変化したことが通知されてきた場
合、旋律生成部32は、「C,D♯,G」の音階を選択
し、出力される音がペットロボット1の標準発話域内の
ものとなるように、その音階を「C6,D6♯,G6」
とする。そして、旋律生成部32は、「C6,D6♯,
G6」の音階を用いて旋律データ1−1を変換し、「C
6,C6,D6♯,G6,C6,C6,D6♯,G6,
C6(+12)」の音の並びからなる新たな旋律データ
を生成する。Further, for example, when it is notified that the emotion of the pet robot 1 has changed to "SAD (sadness)", the melody generating section 32 selects the scale of "C, D #, G". , So that the output sound is within the standard utterance range of the pet robot 1, the scale is “C6, D6 #, G6”.
And Then, the melody generator 32 displays “C6, D6 #,
The melody data 1-1 is converted using the scale of "G6", and "C
6, C6, D6 #, G6, C6, C6, D6 #, G6
New melody data composed of a sequence of sounds of "C6 (+12)" is generated.
【0164】このようにして生成された旋律データは、
音声合成部34に供給され、ステップS25において、
音声合成部34により再生される。The melody data generated in this way is
It is supplied to the voice synthesizer 34, and in step S25,
It is reproduced by the voice synthesizer 34.
【0165】以上のように、ペットロボット1により検
出された様々な情報に基づいて、予め用意されている旋
律データを変換し、新たな旋律データを生成することが
できる。例えば、カメラ12により撮像された画像に含
まれる、所定の色(光)の割合を抽出し、それに基づい
て音階を選択するようにしてもよいし、タッチセンサ1
3により検出された外部からの圧力のレベルに基づい
て、音階を選択し、それを利用して新たな旋律データを
生成するようにしてもよい。また、マイクロフォン11
により集音された音声などの音量に基づいて新たな旋律
データを生成することもできる。As described above, the melody data prepared in advance can be converted based on the various information detected by the pet robot 1, and new melody data can be generated. For example, the proportion of a predetermined color (light) included in the image captured by the camera 12 may be extracted, and the scale may be selected based on the extracted proportion.
It is also possible to select a scale based on the level of the external pressure detected by 3 and use it to generate new melody data. Also, the microphone 11
It is also possible to generate new melody data based on the volume of a voice or the like collected by.
【0166】これにより、ユーザの予測のできない、無
数のパターンの音(メロディ)をペットロボット1に出
力させることができる。また、予め用意しておく旋律デ
ータの数を減らすことが可能となる。As a result, the pet robot 1 can be made to output numerous patterns of sounds (melody) that cannot be predicted by the user. Further, it is possible to reduce the number of melody data prepared in advance.
【0167】上述した各種の処理は、図1に示したよう
な動物型のロボットに実行させるだけでなく、例えば、
2足歩行が可能な人間型のロボットや、コンピュータ内
で活動する仮想ロボット等に実行させるようにしてもよ
い。The above-mentioned various processes are not only executed by the animal type robot as shown in FIG.
It may be executed by a humanoid robot capable of bipedal walking, a virtual robot that operates in a computer, or the like.
【0168】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。この場合、そのソフトウェアを実
行させる情報処理装置は、例えば、図21に示されるよ
うなパーソナルコンピュータにより構成される。The series of processes described above can be executed by hardware, but can also be executed by software. In this case, the information processing device that executes the software is configured by a personal computer as shown in FIG. 21, for example.
【0169】図21において、CPU71は、ROM(Read O
nly Memory)72に記憶されているプログラム、また
は、記憶部78からRAM(Random Access Memory)73
にロードされたプログラムに従って各種の処理を実行す
る。RAM73にはまた、CPU71が各種の処理を実行する
上において必要なデータなどが適宜記憶される。In FIG. 21, the CPU 71 uses the ROM (Read O
nly Memory) 72 or a program stored in the storage unit 78 to RAM (Random Access Memory) 73
Various processes are executed according to the program loaded in. The RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
【0170】CPU71、ROM72、およびRAM73は、バ
ス74を介して相互に接続されている。このバス74に
はまた、入出力インタフェース75も接続されている。The CPU 71, ROM 72, and RAM 73 are connected to each other via a bus 74. An input / output interface 75 is also connected to the bus 74.
【0171】入出力インタフェース75には、キーボー
ド、マウスなどよりなる入力部76、CRT(Cathode Ray
Tube),LCD(Liquid Crystal Display)などよりなるディ
スプレイ、並びにスピーカなどよりなる出力部77、ハ
ードディスクなどより構成される記憶部78、モデム、
ターミナルアダプタなどより構成される通信部79が接
続されている。通信部79は、ネットワークを介しての
通信処理を行う。The input / output interface 75 includes an input unit 76 including a keyboard and a mouse and a CRT (Cathode Ray).
Tube), an LCD (Liquid Crystal Display) display, etc., and an output unit 77 including a speaker, a storage unit 78 including a hard disk, a modem,
A communication unit 79 composed of a terminal adapter or the like is connected. The communication unit 79 performs communication processing via the network.
【0172】入出力インタフェース75にはまた、必要
に応じてドライブ80が接続され、磁気ディスク81、
光ディスク82、光磁気ディスク83、或いは半導体メ
モリ84などが適宜装着される。A drive 80 is connected to the input / output interface 75 if necessary, and a magnetic disk 81,
The optical disc 82, the magneto-optical disc 83, the semiconductor memory 84, or the like is mounted as appropriate.
【0173】一連の処理をソフトウェアにより実行させ
る場合には、そのソフトウェアを構成するプログラム
が、図21に示すような汎用のパーソナルコンピュータ
などに、ネットワークや記録媒体からインストールされ
る。When a series of processes is executed by software, a program forming the software is installed in a general-purpose personal computer as shown in FIG. 21 from a network or a recording medium.
【0174】この記録媒体は、図21に示すように、装
置本体とは別に、ユーザにプログラムを提供するために
配布される、プログラムが記録されている磁気ディスク
81(フロッピディスクを含む)、光ディスク82(CD
-ROM(Compact Disk-Read Only Memory),DVD(Digital V
ersatile Disk)を含む)、光磁気ディスク83(MD(登
録商標)(Mini-Disk)を含む)、もしくは半導体メモリ
84などよりなるパッケージメディアにより構成される
だけでなく、装置本体に予め組み込まれた状態でユーザ
に提供される、プログラムが記録されているROM72
や、記憶部78に含まれるハードディスクなどで構成さ
れる。As shown in FIG. 21, this recording medium is a magnetic disk 81 (including a floppy disk) on which a program is recorded, which is distributed in order to provide the program to the user, separately from the main body of the apparatus, an optical disk. 82 (CD
-ROM (Compact Disk-Read Only Memory), DVD (Digital V
ersatile disk), a magneto-optical disk 83 (including MD (registered trademark) (Mini-Disk)), or a package medium including a semiconductor memory 84, etc. ROM 72 in which the program is recorded, which is provided to the user in the state
Or a hard disk included in the storage unit 78.
【0175】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。In the present specification, the steps for writing the program recorded on the recording medium are not limited to the processing performed in time series according to the order described, but are not necessarily performed in time series, but may be performed in parallel. Alternatively, it also includes processes that are individually executed.
【0176】[0176]
【発明の効果】本発明の第1のロボット装置およびロボ
ット制御方法、並びにプログラムによれば、第1の音階
から構成される第1の旋律データを記憶し、入力された
音声のピッチ周波数を抽出し、抽出したピッチ周波数に
基づいて第2の音階を選択する。また、記憶している第
1の旋律データを構成する第1の音階を、選択された第
2の音階に変換して第2の旋律データを生成し、第2の
旋律データを再生するようにしたので、ユーザからの発
話に応じて、より好適な応答を行うことができる。According to the first robot apparatus, the robot control method, and the program of the present invention, the first melody data composed of the first scale is stored, and the pitch frequency of the inputted voice is extracted. Then, the second scale is selected based on the extracted pitch frequency. In addition, the first scale constituting the stored first melody data is converted into the selected second scale to generate the second melody data, and the second melody data is reproduced. Therefore, it is possible to provide a more suitable response according to the utterance from the user.
【0177】本発明の第2のロボット装置およびロボッ
ト制御方法、並びにプログラムによれば、第1の音階か
ら構成される第1の旋律データを記憶し、自らの内部状
態を管理し、管理する内部状態が変化したとき、内部状
態の変化に対応する第2の音階を選択する。また、記憶
している第1の旋律データを構成する第1の音階を、選
択した第2の音階に変換して第2の旋律データを生成
し、生成した第2の旋律データを再生するようにしたの
で、ユーザが予測のできない音を発生することができ
る。According to the second robot device, the robot control method, and the program of the present invention, the first melody data composed of the first scale is stored, and the internal state of itself is managed and managed internally. When the state changes, the second scale corresponding to the change in the internal state is selected. In addition, the first scale constituting the stored first melody data is converted into the selected second scale to generate the second melody data, and the generated second melody data is reproduced. As a result, the user can generate a sound that cannot be predicted.
【図1】本発明を適用したペットロボットの外観の例を
示す斜視図である。FIG. 1 is a perspective view showing an example of the appearance of a pet robot to which the present invention is applied.
【図2】図1のペットロボットの内部構成の例を示すブ
ロック図である。FIG. 2 is a block diagram showing an example of an internal configuration of the pet robot of FIG.
【図3】図1のペットロボットの機能構成の例を示すブ
ロック図である。FIG. 3 is a block diagram showing an example of a functional configuration of the pet robot of FIG.
【図4】図3の本能・感情管理部の機能の例を模式的に
示す図である。4 is a diagram schematically showing an example of functions of an instinct / emotion management unit in FIG.
【図5】図3の行動管理部の機能の例を模式的に示す図
である。5 is a diagram schematically showing an example of functions of an action management unit shown in FIG.
【図6】有限オートマトンの例を示す図である。FIG. 6 is a diagram showing an example of a finite state automaton.
【図7】状態の遷移確率の例を示す図であるFIG. 7 is a diagram showing an example of a state transition probability.
【図8】図1のペットロボットの処理を説明するフロー
チャートである。8 is a flowchart illustrating a process of the pet robot of FIG.
【図9】ピッチ周波数を抽出する処理を説明する図であ
る。FIG. 9 is a diagram illustrating a process of extracting a pitch frequency.
【図10】音階とピッチ周波数との対応例を示す図であ
るFIG. 10 is a diagram showing an example of correspondence between musical scales and pitch frequencies.
【図11】旋律データの例を示す図である。FIG. 11 is a diagram showing an example of melody data.
【図12】旋律データを変換する処理を説明する図であ
る。FIG. 12 is a diagram illustrating a process of converting melody data.
【図13】旋律データを変換する他の処理を説明する図
である。FIG. 13 is a diagram illustrating another process of converting melody data.
【図14】旋律データを変換するさらに他の処理を説明
する図である。FIG. 14 is a diagram illustrating still another process of converting melody data.
【図15】他の旋律データを変換する処理を説明する図
である。FIG. 15 is a diagram illustrating a process of converting another piece of melody data.
【図16】さらに他の旋律データを変換する処理を説明
する図である。FIG. 16 is a diagram illustrating a process of converting still another melody data.
【図17】音階の遷移を説明する図である。FIG. 17 is a diagram for explaining transition of musical scales.
【図18】図1のペットロボットの他の処理を説明する
フローチャートである。FIG. 18 is a flowchart illustrating another process of the pet robot of FIG. 1.
【図19】感情と音階の対応例を示す図である。FIG. 19 is a diagram showing an example of correspondence between emotions and musical scales.
【図20】旋律データを変換する処理を説明する図であ
る。FIG. 20 is a diagram illustrating a process of converting melody data.
【図21】パーソナルコンピュータの例を示すブロック
図である。FIG. 21 is a block diagram showing an example of a personal computer.
10 コントローラ, 11 マイクロフォン, 14
スピーカ, 21AD変換部, 22 音声特徴量分析
部, 23 音声区間検出部, 24 音声認識部,
26 本能・感情管理部, 27 行動管理部, 28
音声ピッチ分析部, 32 旋律生成部, 33 旋
律データ記憶部, 34 音声合成部, 35 DA変換
部, 81 磁気ディスク, 82 光ディスク, 8
3 光磁気ディスク, 84 半導体メモリ10 controller, 11 microphone, 14
Speaker, 21 AD conversion unit, 22 voice feature amount analysis unit, 23 voice section detection unit, 24 voice recognition unit,
26 Instinct / Emotion Management Department, 27 Behavior Management Department, 28
Voice pitch analysis unit, 32 melody generation unit, 33 melody data storage unit, 34 voice synthesis unit, 35 DA conversion unit, 81 magnetic disk, 82 optical disk, 8
3 magneto-optical disk, 84 semiconductor memory
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 13/00 G10L 3/00 531W 13/06 537G 15/00 J 15/08 R 15/10 9/08 B 15/18 9/00 B 5/04 F 3/00 531N (72)発明者 半谷 亮 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 BA11 CA02 DA05 DA24 DA27 DA28 DF03 DF04 DF06 DF08 DF33 ED42 ED47 ED52 EF07 EF16 EF17 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 KS11 KS31 KS39 MT14 WA04 WA14 WB19 WB27 WC07 WC30 5D015 FF00 HH03 KK02 5D045 AA09 AB11 ─────────────────────────────────────────────────── ─── Continued Front Page (51) Int.Cl. 7 Identification Code FI Theme Coat (Reference) G10L 13/00 G10L 3/00 531W 13/06 537G 15/00 J 15/08 R 15/10 9/08 B 15/18 9/00 B 5/04 F 3/00 531N (72) Inventor Ryo Hanya 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Sonomi Co., Ltd. F-term (reference) 2C150 BA11 CA02 DA05 DA24 DA27 DA28 DF03 DF04 DF06 DF08 DF33 ED42 ED47 ED52 EF07 EF16 EF17 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 KS11 KS31 KS39 MT14 WA04 WA14 WB19 WB27 WC07 WC30 5D015 AFF09 5H003 KK
Claims (13)
ータを記憶する記憶手段と、 入力された音声のピッチ周波数を抽出する抽出手段と、 前記抽出手段により抽出された前記ピッチ周波数に基づ
いて第2の音階を選択する選択手段と、 前記記憶手段により記憶されている前記第1の旋律デー
タを構成する前記第1の音階を、前記選択手段により選
択された前記第2の音階に変換して第2の旋律データを
生成する生成手段と、 前記生成手段により生成された前記第2の旋律データを
再生する再生手段とを備えることを特徴とするロボット
装置。1. A storage means for storing first melody data composed of a first scale, an extraction means for extracting a pitch frequency of an input voice, and the pitch frequency extracted by the extraction means. Selecting means for selecting a second scale based on the second scale selected by the selecting means, and the first scale constituting the first melody data stored in the storage means. A robot apparatus comprising: a generation unit that converts and generates second melody data; and a reproduction unit that reproduces the second melody data generated by the generation unit.
わす前記音声のピッチ周波数を抽出することを特徴とす
る請求項1に記載のロボット装置。2. The robot apparatus according to claim 1, wherein the extraction means extracts a pitch frequency of the voice that represents a predetermined keyword.
ピッチ周波数を抽出することを特徴とする請求項1に記
載のロボット装置。3. The robot apparatus according to claim 1, wherein the extraction unit extracts a pitch frequency of the voice including a vowel.
に検出されたピッチ周波数の平均値を前記ピッチ周波数
として抽出することを特徴とする請求項1に記載のロボ
ット装置。4. The robot apparatus according to claim 1, wherein the extracting unit extracts an average value of pitch frequencies detected in a predetermined period of the voice as the pitch frequency.
定の数のオクターブだけさらに遷移させて前記第2の旋
律データを生成することを特徴とする請求項1に記載の
ロボット装置。5. The robot apparatus according to claim 1, wherein the generating means further transits the second scale by a predetermined number of octaves to generate the second melody data.
ータを記憶する記憶ステップと、 入力された音声のピッチ周波数を抽出する抽出ステップ
と、 前記抽出ステップの処理により抽出された前記ピッチ周
波数に基づいて第2の音階を選択する選択ステップと、 前記記憶ステップの処理により記憶されている前記第1
の旋律データを構成する前記第1の音階を、前記選択ス
テップの処理により選択された前記第2の音階に変換し
て第2の旋律データを生成する生成ステップと、 前記生成ステップの処理により生成された前記第2の旋
律データを再生する再生ステップとを含むことを特徴と
するロボット制御方法。6. A storage step of storing first melody data composed of a first scale, an extraction step of extracting a pitch frequency of an input voice, and the pitch extracted by the processing of the extraction step. A selection step of selecting a second scale based on a frequency, and the first step stored by the processing of the storage step.
Generating the second melody data by converting the first scale constituting the melody data of the above into the second scale selected by the processing of the selecting step; and generating by the processing of the generating step. A reproducing step of reproducing the generated second melody data, the robot controlling method.
ータの記憶を制御する記憶制御ステップと、 入力された音声のピッチ周波数を抽出する抽出ステップ
と、 前記抽出ステップの処理により抽出された前記ピッチ周
波数に基づいて第2の音階を選択する選択ステップと、 前記記憶制御ステップの処理により記憶されている前記
第1の旋律データを構成する前記第1の音階を、前記選
択ステップの処理により選択された前記第2の音階に変
換して第2の旋律データを生成する生成ステップと、 前記生成ステップの処理により生成された前記第2の旋
律データの再生を制御する再生制御ステップとを含むこ
とを特徴とするコンピュータが読み取り可能なプログラ
ムが記録されている記録媒体。7. A storage control step of controlling storage of first melody data composed of a first scale, an extraction step of extracting a pitch frequency of input voice, and a processing of the extraction step. A selection step of selecting a second scale based on the pitch frequency, and a process of the selection step of selecting the first scale constituting the first melody data stored by the processing of the storage control step. And a reproduction control step of controlling reproduction of the second melody data generated by the processing of the generation step. A recording medium having a computer-readable program recorded thereon.
ータの記憶を制御する記憶制御ステップと、 入力された音声のピッチ周波数を抽出する抽出ステップ
と、 前記抽出ステップの処理により抽出された前記ピッチ周
波数に基づいて第2の音階を選択する選択ステップと、 前記記憶制御ステップの処理により記憶されている前記
第1の旋律データを構成する前記第1の音階を、前記選
択ステップの処理により選択された前記第2の音階に変
換して第2の旋律データを生成する生成ステップと、 前記生成ステップの処理により生成された前記第2の旋
律データの再生を制御する再生制御ステップとをコンピ
ュータに実行させるプログラム。8. A storage control step of controlling storage of first melody data composed of a first scale, an extraction step of extracting a pitch frequency of an input voice, and a extraction step performed by the processing of the extraction step. A selection step of selecting a second scale based on the pitch frequency, and a process of the selection step of selecting the first scale constituting the first melody data stored by the processing of the storage control step. And a reproduction control step of controlling reproduction of the second melody data generated by the processing of the generation step. A program that causes a computer to execute.
ータを記憶する記憶手段と、 自らの内部状態を管理する管理手段と、 前記管理手段により管理される前記内部状態が変化した
とき、前記内部状態の変化に対応する第2の音階を選択
する選択手段と、 前記記憶手段により記憶されている前記第1の旋律デー
タを構成する前記第1の音階を、前記選択手段により選
択された前記第2の音階に変換して第2の旋律データを
生成する生成手段と、 前記生成手段により生成された前記第2の旋律データを
再生する再生手段とを備えることを特徴とするロボット
装置。9. A storage means for storing first melody data composed of a first scale, a management means for managing its own internal state, and a change in the internal state managed by the management means. , Selecting means for selecting a second scale corresponding to the change in the internal state, and selecting the first scale constituting the first melody data stored by the storage means by the selecting means. A robot apparatus comprising: a generation unit that converts the second melody data into the second scale to generate second melody data; and a reproduction unit that reproduces the second melody data generated by the generation unit. .
所定の数のオクターブだけさらに遷移させて前記第2の
旋律データを生成することを特徴とする請求項9に記載
のロボット装置。10. The generating means sets the second scale as:
The robot apparatus according to claim 9, wherein the second melody data is generated by further transitioning by a predetermined number of octaves.
データを記憶する記憶ステップと、 自らの内部状態を管理する管理ステップと、 前記管理ステップの処理により管理される前記内部状態
が変化したとき、前記内部状態の変化に対応する第2の
音階を選択する選択ステップと、 前記記憶ステップの処理により記憶されている前記第1
の旋律データを構成する前記第1の音階を、前記選択ス
テップの処理により選択された前記第2の音階に変換し
て第2の旋律データを生成する生成ステップと、 前記生成ステップの処理により生成された前記第2の旋
律データを再生する再生ステップとを含むことを特徴と
するロボット制御方法。11. A storage step of storing first melody data composed of a first scale, a management step of managing its own internal state, and a change of the internal state managed by the processing of said management step. The selection step of selecting a second scale corresponding to the change in the internal state, and the first step stored by the processing of the storage step.
Generating the second melody data by converting the first scale constituting the melody data of the above into the second scale selected by the processing of the selecting step; and generating by the processing of the generating step. A reproducing step of reproducing the generated second melody data, the robot controlling method.
データの記憶を制御する記憶制御ステップと、 自らの内部状態を管理する管理ステップと、 前記管理ステップの処理により管理される前記内部状態
が変化したとき、前記内部状態の変化に対応する第2の
音階を選択する選択ステップと、 前記記憶制御ステップの処理により記憶されている前記
第1の旋律データを構成する前記第1の音階を、前記選
択ステップの処理により選択された前記第2の音階に変
換して第2の旋律データを生成する生成ステップと、 前記生成ステップの処理により生成された前記第2の旋
律データの再生を制御する再生制御ステップとを含むこ
とを特徴とするコンピュータが読み取り可能なプログラ
ムが記録されている記録媒体。12. A storage control step of controlling storage of first melody data composed of a first scale, a management step of managing an internal state of itself, the internal section managed by processing of the management step. A selection step of selecting a second scale corresponding to the change of the internal state when the state changes, and the first scale that constitutes the first melody data stored by the processing of the storage control step. To a second scale selected by the process of the selecting step to generate second melody data; and reproduction of the second melody data generated by the process of the generating step. A recording medium having a computer-readable program recorded thereon, which comprises a reproduction control step for controlling.
データの記憶を制御する記憶制御ステップと、 自らの内部状態を管理する管理ステップと、 前記管理ステップの処理により管理される前記内部状態
が変化したとき、前記内部状態の変化に対応する第2の
音階を選択する選択ステップと、 前記記憶制御ステップの処理により記憶されている前記
第1の旋律データを構成する前記第1の音階を、前記選
択ステップの処理により選択された前記第2の音階に変
換して第2の旋律データを生成する生成ステップと、 前記生成ステップの処理により生成された前記第2の旋
律データの再生を制御する再生制御ステップとをコンピ
ュータに実行させるプログラム。13. A storage control step of controlling storage of first melody data composed of a first scale, a management step of managing an internal state of itself, the internal section managed by processing of the management step. A selection step of selecting a second scale corresponding to the change of the internal state when the state changes, and the first scale that constitutes the first melody data stored by the processing of the storage control step. To a second scale selected by the process of the selecting step to generate second melody data; and reproduction of the second melody data generated by the process of the generating step. A program that causes a computer to execute a reproduction control step for controlling.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001266703A JP4178777B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus, recording medium, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001266703A JP4178777B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus, recording medium, and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2003076398A true JP2003076398A (en) | 2003-03-14 |
| JP4178777B2 JP4178777B2 (en) | 2008-11-12 |
Family
ID=19092949
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001266703A Expired - Fee Related JP4178777B2 (en) | 2001-09-04 | 2001-09-04 | Robot apparatus, recording medium, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4178777B2 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006208461A (en) * | 2005-01-25 | 2006-08-10 | Honda Motor Co Ltd | Voice recognition type device controller |
| CN113352326A (en) * | 2021-06-17 | 2021-09-07 | 上海松鼠课堂人工智能科技有限公司 | Motion control method and system of interactive teaching robot |
| CN115691497A (en) * | 2023-01-04 | 2023-02-03 | 深圳市大晶光电科技有限公司 | Voice control method, device, equipment and medium |
| JP2024108175A (en) * | 2018-12-03 | 2024-08-09 | Groove X株式会社 | ROBOT, SPEECH SYNTHESIS PROGRAM, AND SPEECH OUTPUT METHOD |
-
2001
- 2001-09-04 JP JP2001266703A patent/JP4178777B2/en not_active Expired - Fee Related
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006208461A (en) * | 2005-01-25 | 2006-08-10 | Honda Motor Co Ltd | Voice recognition type device controller |
| JP2024108175A (en) * | 2018-12-03 | 2024-08-09 | Groove X株式会社 | ROBOT, SPEECH SYNTHESIS PROGRAM, AND SPEECH OUTPUT METHOD |
| CN113352326A (en) * | 2021-06-17 | 2021-09-07 | 上海松鼠课堂人工智能科技有限公司 | Motion control method and system of interactive teaching robot |
| CN115691497A (en) * | 2023-01-04 | 2023-02-03 | 深圳市大晶光电科技有限公司 | Voice control method, device, equipment and medium |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4178777B2 (en) | 2008-11-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR100814569B1 (en) | Robot control unit | |
| US7228276B2 (en) | Sound processing registering a word in a dictionary | |
| US7065490B1 (en) | Voice processing method based on the emotion and instinct states of a robot | |
| JP2002268699A (en) | Speech synthesis apparatus, speech synthesis method, program and recording medium | |
| JP2003271173A (en) | Speech synthesis method, speech synthesis device, program and recording medium, and robot device | |
| JP2001188784A (en) | Conversation processing apparatus and method, and recording medium | |
| JP2003271174A (en) | Speech synthesis method, speech synthesis device, program and recording medium, constraint information generation method and device, and robot device | |
| JP2001188787A (en) | Conversation processing apparatus and method, and recording medium | |
| WO2002077970A1 (en) | Speech output apparatus | |
| WO2002082423A1 (en) | Word sequence output device | |
| JP2002318594A (en) | Language processing apparatus and language processing method, and program and recording medium | |
| JP4178777B2 (en) | Robot apparatus, recording medium, and program | |
| JP4587009B2 (en) | Robot control apparatus, robot control method, and recording medium | |
| JP4016316B2 (en) | Robot apparatus, robot control method, recording medium, and program | |
| JP2003271172A (en) | Speech synthesis method, speech synthesis device, program and recording medium, and robot device | |
| JP2001154693A (en) | Robot control device, robot control method, and recording medium | |
| JP2002268663A (en) | Speech synthesis apparatus, speech synthesis method, program and recording medium | |
| JP2002258886A (en) | Speech synthesis apparatus, speech synthesis method, program and recording medium | |
| JP4656354B2 (en) | Audio processing apparatus, audio processing method, and recording medium | |
| JP2002318590A (en) | Speech synthesis apparatus, speech synthesis method, program and recording medium | |
| JP2001188786A (en) | Conversation processing apparatus and method, and recording medium | |
| JP2002311981A (en) | Natural language processing device, natural language processing method, program and recording medium | |
| JP4639533B2 (en) | Voice recognition apparatus, voice recognition method, program, and recording medium | |
| JP2004309523A (en) | Robot apparatus operation pattern sharing system, robot apparatus operation pattern sharing method, and robot apparatus | |
| JP2003062779A (en) | Robot apparatus, robot control method, recording medium, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050905 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080402 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080415 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080430 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080805 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080818 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110905 Year of fee payment: 3 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120905 Year of fee payment: 4 |
|
| LAPS | Cancellation because of no payment of annual fees |