JP2005342862A - robot - Google Patents
robot Download PDFInfo
- Publication number
- JP2005342862A JP2005342862A JP2004167547A JP2004167547A JP2005342862A JP 2005342862 A JP2005342862 A JP 2005342862A JP 2004167547 A JP2004167547 A JP 2004167547A JP 2004167547 A JP2004167547 A JP 2004167547A JP 2005342862 A JP2005342862 A JP 2005342862A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- information
- music
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004044 response Effects 0.000 claims abstract description 20
- 230000002452 interceptive effect Effects 0.000 claims description 57
- 238000004458 analytical method Methods 0.000 claims description 19
- 230000000694 effects Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 14
- 238000012545 processing Methods 0.000 description 43
- 238000000034 method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 230000009471 action Effects 0.000 description 21
- 230000006399 behavior Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- UNPLRYRWJLTVAE-UHFFFAOYSA-N Cloperastine hydrochloride Chemical compound Cl.C1=CC(Cl)=CC=C1C(C=1C=CC=CC=1)OCCN1CCCCC1 UNPLRYRWJLTVAE-UHFFFAOYSA-N 0.000 description 1
- 235000006481 Colocasia esculenta Nutrition 0.000 description 1
- 240000004270 Colocasia esculenta var. antiquorum Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
【課題】 ユーザが飽きることのないように、種々の機能を持たせたロボットを提供する。
【解決手段】 ロボットを制御するロボット制御部100は、ニュースを取得するニュース取得部102と、ニュースを音声で出力する読み出し部106と、ユーザからのニュースの再出力要請を認識する音声認識部110と、ユーザからのニュースの再出力要請に応じて、読み出し部106が読み出したニュースを読み出し部106に再出力させる読み出し指示部112を含む。これにより、ユーザは、普段はBGMのようにロボットが読み上げるニュースを聞きつつ、興味があるニュースがあったときに、ロボットに話しかけることにより、そのニュースを再読させることができ、ニュースの内容を知ることができる。
【選択図】 図5
PROBLEM TO BE SOLVED: To provide a robot having various functions so that a user does not get bored.
A robot control unit 100 that controls a robot includes a news acquisition unit 102 that acquires news, a reading unit 106 that outputs the news by voice, and a voice recognition unit 110 that recognizes a re-output request from the user. And a read instruction unit 112 that causes the read unit 106 to re-output the news read by the read unit 106 in response to a news re-output request from the user. As a result, the user can read the news read by the robot, usually like BGM, and can read the news again by speaking to the robot when there is news of interest, and know the contents of the news. be able to.
[Selection] Figure 5
Description
本発明は、音声出力可能なロボットに関する。 The present invention relates to a robot capable of outputting sound.
近年、コンピュータ技術の発達により、コンピュータを応用したロボットが開発され、その一部は商品化されている。たとえば、ソニー株式会社が商品化しているAIBO(商標)や本田技研工業株式会社が開発中のASIMO(商標)などが知られている。 In recent years, with the development of computer technology, robots using computers have been developed, and some of them have been commercialized. For example, AIBO (trademark) commercialized by Sony Corporation and ASIMO (trademark) under development by Honda Motor Co., Ltd. are known.
人(ユーザ)とのコミュニケーションをとるためのロボットの開発も盛んに行われている。このようなロボットにおいては、ユーザが飽きることがないように、ロボットに種々のバリエーションを持たせることも必要となる。 Robots for communicating with people (users) are also being actively developed. In such a robot, it is also necessary to give the robot various variations so that the user does not get bored.
本発明は上記事情を踏まえてなされたものであり、本発明の目的は、ユーザが飽きることのないように、種々の機能を持たせたロボットを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot having various functions so that the user does not get bored.
本発明によれば、情報を取得する情報取得手段と、情報を音声で出力する音声出力手段と、ユーザからの情報の再出力要請に応じて、音声出力手段が出力した情報を音声出力手段に再出力させる再生手段と、を含むことを特徴とする対話型ロボットが提供される。 According to the present invention, the information acquisition means for acquiring information, the voice output means for outputting the information by voice, and the information output by the voice output means in response to the information re-output request from the user to the voice output means. And an interactive robot characterized in that the interactive robot is re-outputted.
ここで、情報とは、たとえばニュースである。情報取得手段は、種々の方法で情報を取得することができるが、たとえばネットワークを介して接続された他の端末から情報を取得することができる。本発明の対話型ロボットにおいて、音声出力手段は、情報取得手段が取得した情報を順次出力していくが、ユーザからいずれかの情報の再出力の要請があると、その情報を再出力する。これにより、ユーザは、普段はBGMのように情報を聞き流しつつ、興味のある情報があったときに、ロボットに再出力の要請を行うことにより、その情報を詳しく聞くことができる。 Here, the information is, for example, news. The information acquisition means can acquire information by various methods, but can acquire information from other terminals connected via a network, for example. In the interactive robot according to the present invention, the voice output means sequentially outputs the information acquired by the information acquisition means. When the user requests to re-output any information, the voice output means re-outputs the information. Accordingly, the user can listen to the information in detail by requesting re-output to the robot when there is interested information while listening to the information normally like BGM.
本発明の対話型ロボットは、音声出力手段が出力した情報を記憶する記憶手段をさらに含むことができ、再生手段は、ユーザからの情報の再出力要請に応じて、音声出力手段に記憶手段から該当する情報を読み出させることができる。 The interactive robot according to the present invention may further include a storage unit that stores information output by the voice output unit, and the playback unit sends the information to the voice output unit from the storage unit in response to a re-output request for information from the user. Applicable information can be read out.
本発明の対話型ロボットは、情報取得手段が取得した情報の内容を解析する解析手段をさらに含むことができる。 The interactive robot of the present invention may further include an analysis unit that analyzes the content of information acquired by the information acquisition unit.
解析手段は、情報に含まれるキーワードに基づき、その情報が「嬉しい内容か(喜)」、「怒るような内容か(怒)」、「悲しい内容か(哀)」、「楽しい内容か(楽)」等を解析する。対話型ロボットは、情報の内容の種類と、その種類に対応するキーワードとを対応づけた記憶手段を含むことができる。解析手段は、情報に含まれるキーワードと当該記憶手段に記憶されたキーワードに基づき、その情報の内容がいずれの種類に分類されるかを解析する。 Based on the keywords included in the information, the analysis means is whether the information is “happy content (joy)”, “is angry content (anger)”, “sad content (sad)”, “fun content (easy ) "Etc. are analyzed. The interactive robot can include a storage unit that associates the type of information content with a keyword corresponding to the type. The analysis unit analyzes which type of information content is classified based on the keyword included in the information and the keyword stored in the storage unit.
本発明の対話型ロボットにおいて、音声出力手段は、情報の内容に応じて、当該内容の雰囲気をユーザに伝える音声で情報を出力することができる。 In the interactive robot according to the present invention, the voice output means can output information in a voice that conveys the atmosphere of the content to the user according to the content of the information.
音声出力手段は、たとえば楽しい内容の情報は、高い声や弾むような楽しそうな声で、哀しい内容の情報は、低い声や涙声で情報を出力する。このようにすれば、ユーザは、BGMのように情報を聞き流しつつ、ロボットの音声の調子から、情報の種類を把握することができ、興味のある情報に気づきやすくなる。これにより、興味のある情報を聞き逃すことなく、その情報を詳しく知ることができる。 The voice output means outputs, for example, information with a pleasant voice such as a high voice or a bouncy voice for pleasant content information and a low voice or a tearful voice for information with a sad content. In this way, the user can grasp the type of information from the tone of the robot's voice while listening to the information like BGM, and can easily notice the information of interest. This makes it possible to know the information in detail without missing the information of interest.
本発明の対話型ロボットは、情報の内容と、当該内容の雰囲気を伝える音声情報とを対応づけて記憶する音声記憶手段をさらに含むことができ、音声出力手段は、音声記憶手段を参照して、出力する情報の内容に対応づけられた音声情報に基づき、情報を出力することができる。ここで、音声情報とは、音声のトーンや調子、リズム等である。 The interactive robot of the present invention may further include a voice storage unit that stores information contents and voice information that conveys the atmosphere of the contents in association with each other. The voice output unit refers to the voice storage unit. The information can be output based on the voice information associated with the content of the information to be output. Here, the audio information is an audio tone, tone, rhythm, and the like.
本発明の対話型ロボットは、情報の内容に応じて、当該内容の雰囲気をユーザに伝えるための演出を行う演出実行手段をさらに含むことができる。 The interactive robot according to the present invention may further include an effect execution means for performing an effect to convey the atmosphere of the content to the user according to the content of the information.
演出実行手段は、たとえば、嬉しい内容の情報のときは、対話型ロボットが踊るようにしてもよく、また、悲しい内容の情報の時は、対話型ロボットの顔に涙が流れているような光効果を演出するようにすることができる。また、演出実行手段は、情報の内容に応じて、その内容に対応する音楽を再生することもできる。このようにすれば、ユーザは、BGMのように情報を聞き流しつつ、ロボットの動作や音楽から、情報の種類を把握することができ、興味のある情報に気づきやすくなる。これにより、興味のある情報を聞き逃すことなく、その情報を詳しく知ることができる。 For example, the direction execution means may make the interactive robot dance when it is information of happy content, and light that makes tears flow on the face of the interactive robot when information is sad. An effect can be produced. In addition, the effect execution means can play music corresponding to the content according to the content of the information. In this way, the user can grasp the type of information from the movement of the robot and the music while listening to the information like BGM, and can easily notice the information of interest. This makes it possible to know the information in detail without missing the information of interest.
本発明の対話型ロボットは、情報の内容と、当該内容の雰囲気を伝える演出内容とを対応づけて記憶する演出内容記憶手段をさらに含むことができ、演出実行手段は、演出内容記憶手段を参照して、音声出力手段が出力する情報の内容に対応づけられた演出内容で演出を行うことができる。 The interactive robot of the present invention can further include an effect content storage means for storing the contents of information and the effect contents that convey the atmosphere of the content in association with each other, and the effect execution means refers to the effect content storage means Thus, it is possible to produce an effect with the production content associated with the content of the information output by the audio output means.
本発明の対話型ロボットは、情報に含まれる所定の単語を他の単語に置き換える置換手段をさらに含むことができ、音声出力手段は、置換手段が置き換えた他の単語を用いて音声を出力することができる。 The interactive robot of the present invention may further include a replacement unit that replaces a predetermined word included in the information with another word, and the voice output unit outputs a voice using the other word replaced by the replacement unit. be able to.
本発明の対話型ロボットは、置換すべき単語を記憶した記憶手段をさらに含むことができ、この記憶手段は、たとえばユーザの名前や、ユーザの家族の名前等のユーザに関する情報を記憶することができる。置換手段は、情報に含まれるたとえば固有名詞等の単語をユーザに関する情報を表す単語に置き換えることができる。このようにすれば、もとの情報がユーザに関する情報を含む情報に置き換えられるため、対話型ロボットが出力する音声を聞いた人が、楽しく感じることができる。 The interactive robot according to the present invention may further include a storage unit that stores a word to be replaced. The storage unit may store information about the user such as the name of the user and the name of the user's family. it can. The replacement means can replace a word such as a proper noun included in the information with a word representing information about the user. In this way, since the original information is replaced with information including information about the user, a person who has heard the voice output by the interactive robot can feel happily.
本発明によれば、ユーザの音声を取得する手段と、ユーザの音声をまねして同じ言葉を出力する音声出力手段と、を含むことを特徴とする対話型ロボットが提供される。 According to the present invention, there is provided an interactive robot characterized by including means for acquiring a user's voice and voice output means for imitating the user's voice and outputting the same words.
これにより、ユーザは対話型ロボットとの対話を楽しんだり、自分がどのような話し方をしているのかを客観的に知ることができる。 As a result, the user can enjoy the conversation with the interactive robot and objectively know how he / she is speaking.
本発明によれば、ユーザへの問いかけを行う音声出力手段と、問いかけに対するユーザの音声を、当該ユーザに対応づけて記憶する記憶手段と、記憶手段に記憶されたユーザの音声を解析して、当該ユーザの音声の特徴を示すパラメータを取得するパラメータ取得手段と、を含むことを特徴とする対話型ロボットが提供される。 According to the present invention, the voice output means for making an inquiry to the user, the storage means for storing the user's voice for the inquiry in association with the user, and analyzing the user's voice stored in the storage means, There is provided an interactive robot characterized by including parameter acquisition means for acquiring a parameter indicating the characteristics of the voice of the user.
ここで、音声出力手段は、普通の音声でユーザと種々の対話を行うことができる。ユーザは、対話型ロボットと対話を行うことで、楽しみながら色々な発言をする。これにより、ユーザの音声を取得しやすくなる。そのため、記憶手段には、ユーザの種々の音声が記憶されるので、パラメータ取得手段は、ユーザの音声の特徴を示すパラメータをより正確に解析することができる。 Here, the voice output means can perform various dialogs with the user with normal voice. The user makes various comments while having fun by interacting with the interactive robot. Thereby, it becomes easy to acquire a user's voice. Therefore, since various voices of the user are stored in the storage means, the parameter acquisition means can more accurately analyze the parameters indicating the characteristics of the user's voice.
本発明の対話型ロボットにおいて、音声出力手段は、ユーザのパラメータに基づき生成された音声を用いて、ユーザの音声を真似して同じ言葉を出力することができる。 In the interactive robot according to the present invention, the voice output means can output the same word by imitating the voice of the user by using the voice generated based on the user parameter.
これにより、ユーザは対話型ロボットとの対話を楽しんだり、自分がどのような話し方をしているのかを客観的に知ることができる。また、ユーザとの対話をさらに行うことができ、ユーザの音声をより多く取得することができる。パラメータ取得手段は、これに基づき、ユーザの音声の特徴を示すパラメータを再取得することもできる。 As a result, the user can enjoy the conversation with the interactive robot and objectively know how he / she is speaking. Further, it is possible to further interact with the user and to acquire more user's voice. Based on this, the parameter acquisition means can re-acquire the parameter indicating the feature of the user's voice.
本発明の対話型ロボットにおいて、特徴は、ユーザの音声のピッチ、速度、およびアクセントを含むことができる。 In the interactive robot of the present invention, the features can include the pitch, speed, and accent of the user's voice.
本発明によれば、特定の人の音声の特徴を示すパラメータを取得するパラメータ取得手段と、パラメータに基づき生成された音声を出力する音声出力手段と、を含むことを特徴とする対話型ロボットが提供される。 According to the present invention, there is provided an interactive robot comprising: a parameter acquisition unit that acquires a parameter indicating a voice characteristic of a specific person; and a voice output unit that outputs a voice generated based on the parameter. Provided.
これにより、対話型ロボットと対話をするユーザは、対話型ロボットと対話をする際に、所望の特定の人と対話をしているような気分になることができ、ロボットとの対話を楽しむことができる。 As a result, a user who interacts with an interactive robot can feel as if he / she is interacting with a desired specific person when interacting with the interactive robot, and enjoy interacting with the robot. Can do.
本発明の対話型ロボットは、特定の人の音声の特徴を示すパラメータを当該特定の人に対応づけて記憶する記憶手段と、ユーザから、対話を行いたい人の指定を受け付ける受付手段と、をさらに含むことができ、パラメータ取得手段は、記憶手段から、受付手段が受け付けた人のパラメータを取得することができる。 The interactive robot according to the present invention includes a storage unit that stores a parameter indicating a voice characteristic of a specific person in association with the specific person, and a reception unit that receives a designation of a person who wants to perform a dialogue from the user. Further, the parameter acquisition means can acquire the parameter of the person received by the reception means from the storage means.
本発明の対話型ロボットにおいて、特徴は、特定の人の音声のピッチ、速度、およびアクセントを含むことができる。 In the interactive robot of the present invention, the features can include the pitch, speed, and accent of a particular person's voice.
本発明によれば、音楽を再生する音楽再生手段と、音楽に関する情報を取得する情報取得手段と、音楽再生手段により音楽を再生する際に、当該音楽に関する情報を音声で出力する音声出力手段と、を含むことを特徴とする音楽再生ロボットが提供される。 According to the present invention, a music playback means for playing back music, an information acquisition means for acquiring information related to music, and a voice output means for outputting information related to the music by voice when the music playback means plays back music. , A music playback robot characterized by including:
これにより、ユーザは、ロボットで音楽を聴くとともに、その音楽をDJが紹介してくれているような気分で音楽を聴くことができる。 As a result, the user can listen to the music with the robot and feel as if the DJ is introducing the music.
本発明の音楽再生ロボットにおいて、情報取得手段は、音楽に含まれる当該音楽の識別情報に基づき、ネットワークを介して接続された他の端末から、当該音楽に関する情報を取得することができる。このようにすることで、情報取得手段は、その音楽に関する最新の情報を取得することができ、ユーザは最新の情報を聞くことができる。 In the music playback robot of the present invention, the information acquisition means can acquire information related to the music from another terminal connected via the network based on the identification information of the music included in the music. By doing in this way, the information acquisition means can acquire the latest information regarding the music, and the user can listen to the latest information.
本発明の音楽再生ロボットは、音楽再生手段が音楽を出力するタイミングと、音声出力手段が音楽に関する情報を音声で出力するタイミングとを制御するタイミング制御手段をさらに含むことができる。 The music playback robot of the present invention may further include timing control means for controlling the timing at which the music playback means outputs music and the timing at which the voice output means outputs information related to music in voice.
制御手段は、たとえば、音楽が始まるのと同時に音声出力手段が音楽に関する情報を出力するようにすることもでき、また音声出力手段の音声の出力が終了した後に音楽が再生されるようにすることもでき、また音楽が終わった後に、音声出力手段の音声の出力がされるようにすることもできる。 The control means can, for example, allow the audio output means to output information about music at the same time as the music starts, and to play the music after the audio output of the audio output means is finished. It is also possible to output the sound from the sound output means after the music ends.
本発明の音楽再生ロボットにおいて、タイミング制御手段は、音楽において、イントロダクションが再生されている間だけ音楽に関する情報が出力されるように、音声出力手段を制御することができる。 In the music playback robot of the present invention, the timing control means can control the sound output means so that information related to music is output only while the introduction is being played in the music.
本発明の音楽再生ロボットにおいて、情報取得手段は、音楽再生手段が音楽を再生している間に、当該音楽に関する情報、または次に再生される音楽に関する情報を取得することができる。 In the music playback robot of the present invention, the information acquisition means can acquire information related to the music or information related to the music to be reproduced next while the music playback means is reproducing music.
本発明によれば、文字で表された文字情報を取得する文字情報取得手段と、文字情報を、当該情報の意味を維持したまま所定の調子の文章に置き換える置換手段と、置換手段が置換した文章を音声出力する音声出力手段と、を含むことを特徴とする音声出力ロボットが提供される。 According to the present invention, the character information acquisition means for acquiring the character information represented by the characters, the replacement means for replacing the character information with a sentence of a predetermined tone while maintaining the meaning of the information, and the replacement means replaced There is provided a voice output robot comprising voice output means for outputting a sentence as voice.
ここで、所定の調子とは、たとえば、「ラップ調」、「古文調」、「時代劇調」等である。また、文字情報とは、たとえば電子メールである。このようにすれば、ユーザが受け取った電子メール等の文字情報を、ロボットがアレンジして音声出力するので、ユーザが楽しむことができる。 Here, the predetermined tone is, for example, “lap tone”, “old sentence tone”, “period drama tone”, or the like. The character information is e-mail, for example. In this way, since the robot arranges character information such as an e-mail received by the user and outputs the voice, the user can enjoy it.
本発明の音声出力ロボットは、調子に合致した音楽を再生する音楽再生手段をさらに含み、当該音楽再生手段は、音声出力手段が文章を出力する際に、音楽を再生することができる。 The voice output robot of the present invention further includes music playback means for playing music that matches the tone, and the music playback means can play music when the voice output means outputs a sentence.
本発明によれば、言語変換手段を有する対話型ロボットであって、少なくとも二種以上の言語を解析可能な解析手段と、ユーザからの問いかけに対して、あらかじめ設定された第一の言語で応答するとともに、ユーザからの言語の変換要求に応じて、第二の言語で応答する音声出力手段と、を含むことを特徴とする対話型ロボットが提供される。 According to the present invention, an interactive robot having language conversion means, which is an analysis means capable of analyzing at least two languages, and responds to a user's inquiry in a preset first language. In addition, an interactive robot is provided that includes voice output means that responds in a second language in response to a language conversion request from a user.
ここで、言語とは、複数国語の他、たとえば古語や方言等も含む。このようにすれば、ユーザが色々な言語でロボットと対話して楽しむことができるとともに、言語の学習をおこなうこともできる。 Here, the language includes, for example, old languages and dialects in addition to a plurality of languages. In this way, the user can enjoy interacting with the robot in various languages and can also learn the language.
本発明によれば、ロボットに種々の機能を持たせることにより、ユーザが飽きることのないようにすることができる。 According to the present invention, it is possible to prevent the user from getting bored by giving the robot various functions.
次に、本発明の実施の形態について図面を参照して詳細に説明する。
図1は、本実施の形態で用いられるロボットの構成を示すブロック図である。
ロボット20は、音声入力手段32と、画像入力手段34と、音声認識手段36と、画像認識手段38と、行動決定手段40と、記憶手段42と、音声出力手段44と、動作手段46とを有する。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a robot used in the present embodiment.
The
音声入力手段32は、たとえばマイクロフォンである。画像入力手段34は、たとえばCCDカメラである。音声出力手段44は、たとえばスピーカである。動作手段46は、たとえばロボットの頭や手足を動かしたりするアクチュエータや、表情を表したりするモニタやランプである。 The voice input means 32 is, for example, a microphone. The image input means 34 is, for example, a CCD camera. The audio output means 44 is, for example, a speaker. The operation means 46 is, for example, an actuator that moves the robot's head or limbs, or a monitor or lamp that expresses a facial expression.
音声認識手段36、画像認識手段38、行動決定手段40、および記憶手段42は、後述するコントローラ10により実現される。
The
図2は、本実施の形態におけるロボット20の外観(前面図)を示す図である。図3は、図2に示したロボット20の電気的構成を示す図である。以下、図2および図3を参照して説明する。
FIG. 2 is a diagram showing an appearance (front view) of the
本実施の形態において、ロボット20は、胴体部1および頭部2が連結された構成を有する。胴体部1の下部には左右に2つの車輪3がそれぞれ取り付けられている。これらの車輪3は、独立に前後に回転可能である。頭部2は、胴体部1に対して回転可能に設けられる。
In the present embodiment, the
胴体部1には、ロボット20全体の制御を行うコントローラ10、ロボット20の動力源となるバッテリ11、スピーカ12、車輪3を動かすためのアクチュエータ14等が収納されている。
The
頭部2には、マイクロフォン13、2つのCCDカメラ21、頭部2を回転するためのアクチュエータ22等が収納されている。
The
頭部2に設けられたマイクロフォン13は、ユーザからの発話を含む周囲の音声を集音し、得られた音声信号をコントローラ10に送出する。なお、ここではロボット20がマイクロフォン13を1つだけ備える構成としているが、ロボット20は、マイクロフォン13を複数備えて、複数のマイクロフォン13から入力される音声を用いて、雑音抑圧処理等を行うこともできる。これにより、ユーザの声の認識を容易に行うことができる。
The
頭部2に設けられた2つのCCDカメラ21は、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。ここで、2つのCCDカメラ21は、ロボット20の目に見えるように配置することができる。
The two
コントローラ10は、CPU10Aやメモリ10Bを含む。メモリ10Bは、制御プログラムを記憶する。CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理が実行される。
The
コントローラ10は、マイクロフォン13から得られる音声信号およびCCDカメラ21から与えられる画像信号に基づいて、周囲の状況や、ユーザからの指令を判断する。
Based on the audio signal obtained from the
さらに、コントローラ10は、ユーザからの指令の判断結果に基づいて、その後のロボット20の行動を決定する。次いで、コントローラ10は、ロボット20が決定された行動を行うように、アクチュエータ22等を駆動させる。ロボット20の頭部2を上下左右に回転させたり、ロボット20を移動または回転させる等の行動を行わせることができる。
Further, the
また、コントローラ10は、必要に応じて、合成音を生成し、スピーカ12に供給して音声を出力させる。
Moreover, the
図4は、図3のコントローラ10を詳細に示す機能ブロック図である。なお、図4に示す機能的構成は、CPU10Aが、メモリ10Bに記憶された制御プログラムを実行することにより実現される。
FIG. 4 is a functional block diagram showing the
コントローラ10は、外部状態を認識するセンサ入力処理部51、センサ入力処理部51の認識結果に基づいて、続く行動を決定する行動決定部52、行動決定部52の決定結果に基づいて、アクチュエータ14およびアクチュエータ22を制御する制御部53、合成音を生成する音声合成部54、音声合成部54において合成された合成音の出力を制御する出力部55、ロボットの行動を記憶している記憶部56を含む。
The
センサ入力処理部51は、マイクロフォン13およびCCDカメラ21から得られた音声信号および画像信号等に基づいて、外部状態や、ユーザからの特定の働きかけ等を認識し、その認識結果を表す状態認識情報を、行動決定部52に通知する。
The sensor input processing unit 51 recognizes an external state, a specific action from the user, or the like based on an audio signal and an image signal obtained from the
センサ入力処理部51は、CCDカメラ21から得られた画像信号を用いて画像認識処理を行う画像認識部51Aを有する。画像認識部51Aは、画像中に存在する人を検出することができ、その処理の結果、「人がいる」、「その人物に対応するID」、「その人の画像上の位置」などの画像認識結果を、状態認識情報として、行動決定部52に通知する。画像中に複数の人物が存在する場合、画像認識部51Aは、複数の人物それぞれに関する情報を行動決定部52に通知することができる。本実施の形態において、ロボット20は、2つのCCDカメラ21を有するとしたが、ロボット20は、一つのCCDカメラ21を有する構成とすることもできる。
The sensor input processing unit 51 includes an image recognition unit 51 </ b> A that performs image recognition processing using an image signal obtained from the
さらに、センサ入力処理部51は、マイクロフォン13から得られた音声信号について音声認識を行う音声認識部51Bを有する。音声認識部51Bは、その音声認識結果としての、たとえば、「おはよう」、「こんにちは」等の言葉を、状態認識情報として、行動決定部52に通知する。
Further, the sensor input processing unit 51 includes a voice recognition unit 51B that performs voice recognition on the voice signal obtained from the
行動決定部52は、センサ入力処理部51からの状態認識情報に基づいて、記憶部56を参照し、次の行動を決定する。そして、決定された行動の内容を、行動指令として制御部53に、また、合成発話指令として音声合成部54に送出する。
The
行動決定部52は、状態認識情報として「おはよう」、「こんにちは」等の音声認識結果や、「人が一人存在する」、「その人のIDはKである」という画像認識結果を、画像認識部51A及び音声認識部51Bから受け取る。行動決定部52は、音声認識結果を受け取ると、記憶部56を参照し、その音声認識結果や事象の認識結果に対応するロボット20の動作情報を得る。また、行動決定部52は、画像認識結果を受け取ると、記憶部56を参照し、画像認識結果に含まれる人物の名前等の情報を取得する。
The
記憶部56は、センサ入力処理部51からの状態認識情報に対応するロボット20の動作情報を記憶している。記憶部56に格納されているロボットの動作情報は、合成発話指令とロボット動作指令とから構成される。合成発話指令には、ロボットが発話すべき内容が含まれており、それは、発話すべき文字列情報であったり、現在検出している人物の名前を発話せよ、という指示であったり、または、それらの組み合わせから構成される。
The
また、記憶部56には画像認識結果として得られるIDに対応する人物の名前等の情報が格納されており、IDから人物の名前等の情報を得ることができる。
The
人物識別の方法としては、顔画像を登録しておいて照合する方法も考えられるし、人物に固有のマーカを人物に装着させてそれを検出するという方法もある。また、無線ICタグを人物・物体識別に用いても良い。この場合、無線ICタグを名札などに入れて人物に持たせるとともに、物体に無線ICタグをつけ、この無線ICタグからの情報を認識する手段が別途必要となる。また、ここでは画像信号により人物を識別する例を示したが、音声信号により人物を識別することもできる。 As a method for identifying a person, a method of registering a face image and collating it can be considered, or a method of detecting a marker by attaching a marker unique to the person to the person. A wireless IC tag may be used for person / object identification. In this case, it is necessary to separately provide a means for putting a wireless IC tag in a name tag or the like and holding a person, attaching a wireless IC tag to an object, and recognizing information from the wireless IC tag. Although an example in which a person is identified by an image signal is shown here, it is also possible to identify a person by an audio signal.
行動決定部52は、記憶部56からロボットの動作情報を得ると、合成発話指令を解釈して発話文字列を生成し音声合成部54へ送出し、ロボット動作指令を制御部53へ送出する。
When the
たとえば、「おはよう」という音声認識結果に対応するロボットの動作指令は、頭部2を上下に振って正面に戻すという内容であり、合成発話指令は、人物名がわかれば最初に人物名を発話し、次に、「おはようございます」という合成発話を行う、という内容である。
For example, the robot motion command corresponding to the voice recognition result of “good morning” is the content that the
行動決定部52は、記憶部56から読み出した行動指令を制御部53および音声合成部54へ送出する。
The
制御部53は、行動決定部52から与えられた行動指令に基づいて、アクチュエータ14およびアクチュエータ22を駆動するための制御信号を生成し、これをアクチュエータ14およびアクチュエータ22へ送出する。これにより、アクチュエータ14およびアクチュエータ22は制御信号にしたがって駆動し、ロボット20は自律的に行動する。
The
出力部55には、音声合成部54からの合成音のディジタルデータが供給されるようになっており、出力部55は、それらのディジタルデータを、アナログの音声信号にD/A変換し、スピーカ12に供給して出力させる。
The
また、本実施の形態におけるロボット20は、音楽を再生したり、歌を歌うことも可能である。
Further, the
つづいて、以上のような基本的な構成を備えたロボット20に、さらに種々の機能を付与した例を説明する。なお、以下で示す種々のロボット20は、図1から図4を用いて説明した上記の構成を有する。以下の説明においては、各実施の形態において特徴的な構成のみを示す。
Next, an example in which various functions are further added to the
<アナウンサーロボット>
(第一の実施の形態)
本実施の形態において、ロボット20は、ニュースを音読し、ユーザからの問いかけに答えて、必要に応じてニュースを再読する。本実施の形態におけるロボット20は、通常はユーザからある程度離れた位置にいて、種々のニュースの内容を音読している。ユーザが「今のニュース、詳しく教えて」等、ロボット20に話しかけると、ユーザのそばに寄ってきて、そのときに音読していたニュースをユーザに伝える。
<Announcer robot>
(First embodiment)
In the present embodiment, the
これにより、ユーザはBGMのようにニュースを聞きつつ、興味があるニュースがあったときに、ロボット20に話しかけることにより、そのニュースについて知ることができる。
Thereby, the user can know the news by speaking to the
図5は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部100は、たとえばインターネット等のネットワーク120からニュースを取得するニュース取得部102と、ニュース取得部102が取得したニュース等を記憶するニュース記憶部108と、ニュース取得部102が取得したニュースを分類する分類処理部104と、を有する。ここで、分類処理部104は、たとえばニュースを「スポーツ」、「芸能」、「社会」、「国際」等に分類する。なお、たとえばニュース取得部102がニュースを取得するサイトで、すでにニュースの分類が行われている場合は、分類処理部104は省略することもできる。
FIG. 5 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The
ロボット制御部100は、さらに、ニュース記憶部108からニュースを読み出してロボットに音読させる読み出し部106と、ユーザからの問いかけを認識する音声認識部110と、ユーザからのニュースの再読要請があったときに、読み出し部106に再度そのニュースをニュース記憶部108から読み出させる読み出し指示部112と、を含む。
The
図6は、ニュース記憶部108を詳細に示す図である。
ニュース記憶部108は、ニュース取得部102が取得したニュースを記憶する取得ニュース記憶部108aと、分類処理部104により分類されたニュースを記憶する分類済ニュース記憶部108bと、読み出し部106が読み出しているニュースを一時的に記憶するキャッシュ部108cとを含む。上述したように、ニュース取得部102がすでに分類されたニュースを取得する場合は、そのニュースは分類済ニュース記憶部108bに記憶される。
FIG. 6 is a diagram showing the
The
読み出し部106は、分類済ニュース記憶部108bからニュースを読み出す。また、読み出し指示部112から指示があったときは、キャッシュ部108cからそのときに読み出していたニュースの先頭から読み出す。読み出し部106が分類済ニュース記憶部108bから読み出したニュースは、キャッシュ部108cに記憶されていく。
The
図7は、本実施の形態におけるロボット制御部100の処理手順を示すフローチャートである。
まず、ニュース取得部102がニュースを取得する(S10)。つづいて、分類処理部104が、ニュースを分類する(S12)。ロボット制御部100は、ニュースの音読開始の指示があるまで待機する(S14のNO)。ニュースの音読開始の指示があると(S14のYES)、読み出し部106は、分類済ニュース記憶部108bからニュースを読み出す(S16)。つづいて、ロボットの音声出力部(不図示)にそのニュースを音読させる(S18)。ユーザからの問いかけがあるまで(S20のNO)、分類済ニュース記憶部108bに記憶されたニュースを順次読み出し(S16)、音読する(S18)動作を続ける。この間、分類済ニュース記憶部108bから読み出されて音読されたニュースは、キャッシュ部108cに記憶されていく。
FIG. 7 is a flowchart showing a processing procedure of the
First, the
ユーザから何らかの問いかけがあると(S20のYES)、音声認識部110は、その問いかけが、ニュースの再読要請であるか否かを判断する(S22)。再読要請である場合(S22のYES)、読み出し指示部112は、読み出し部106にキャッシュ部108cに記憶されたニュースを読み出させ、そのニュースを音読させる(S24)。
If there is any question from the user (YES in S20), the
その後、ユーザの指示等に基づき、続きのニュースを読むか否かを判断し(S26)、続きを読む場合(S26のYES)、ステップS16に戻り、同様の動作を繰り返す。 After that, based on the user's instruction or the like, it is determined whether or not to read the continued news (S26). If the continuation is read (YES in S26), the process returns to step S16 and the same operation is repeated.
一方、ステップS26において、続きを読まない場合(S26のNO)、動作を終了するか否かを判断する(S28)。動作を終了しない場合(S28のNO)とは、たとえばユーザから他の動作を求められたときであり、他の動作を行う(S30)。 On the other hand, if the continuation is not read in step S26 (NO in S26), it is determined whether or not to end the operation (S28). The case where the operation is not terminated (NO in S28) is, for example, when another operation is requested by the user, and another operation is performed (S30).
また、ステップS20において、ユーザからの問いかけが再読要請でない場合(S22のNO)、ステップS28に進み、動作の終了または他の動作を行う。ここで、たとえばステップS20において、ユーザが「静かにして」等の問いかけを行った場合は、ステップS28において動作の終了を判断し、ニュースの音読を終了する。一方、たとえばステップS20において、ユーザが「音楽を聴かせて」等の問いかけを行った場合は、音読を終了し、音楽再生等の処理(他の動作)を行う(S30)。 In step S20, when the inquiry from the user is not a re-reading request (NO in S22), the process proceeds to step S28, and the operation is terminated or another operation is performed. Here, for example, when the user makes an inquiry such as “be quiet” in step S20, the end of the operation is determined in step S28, and the reading of news is ended. On the other hand, for example, in step S20, when the user makes an inquiry such as “Let me listen to music”, reading aloud is finished, and processing (other operations) such as music reproduction is performed (S30).
また、読み出し部106は、分類済ニュース記憶部108bで分類された項目に応じて、ニュースの読み始めに「次は芸能ニュースです。」等のコメントを言うようにすることもできる。
Further, the
ロボット20に、以上のような機能を付与することにより、ユーザは、何かの作業をしながらロボット20が音読するニュースをBGMのように聞き流しつつ、興味があるニュースが耳に入ったときには、そのニュースを詳しく知ることができる。
By giving the above functions to the
(第二の実施の形態)
本実施の形態におけるロボット20は、基本的に上記実施の形態と同様、ニュースを音読する。さらに、本実施の形態において、ロボット20は、ニュースに含まれるキーワード等に基づき、そのニュースの種類を解析する機能を有する。本実施の形態のロボット20は、ニュースの種類に応じて、そのニュースの種類に合致するような話し方や動作を行う。ロボット20は、たとえば、ニュースの文中に悲しい内容が含まれている場合、悲しそうにニュースを読む。また、ニュースの文中に嬉しい内容が含まれている場合、嬉しそうにニュースを読む。
(Second embodiment)
The
図8は、本実施の形態におけるロボット制御部100の構成を示すブロック図である。
ロボット制御部100は、図5に示した構成に加えて、さらに、解析処理部114、キーワード記憶部115、動作制御部116、および行動パターン記憶部117を含む。
FIG. 8 is a block diagram showing a configuration of the
The
解析処理部114は、ニュース取得部102が取得したニュースの意味解析を行い、そのニュースが、たとえば「嬉しい内容か(喜)」、「怒るような内容か(怒)」、「悲しい内容か(哀)」、「楽しい内容か(楽)」等を解析する。キーワード記憶部115は、喜・怒・哀・楽ごとに、キーワードを記憶する。解析処理部114は、キーワード記憶部115を参照して、ニュースが喜・怒・哀・楽のいずれに該当するかを解析する。たとえば、「殺害」、「殺人」、「死亡」等のキーワードは「哀」に対応づけられる。また、「値上げ」、「不正」、「犯罪隠し」等のキーワードは「怒」に対応づけられる。解析処理部114が解析した結果は、分類済ニュース記憶部108bに記憶される。
The
図9は、分類済ニュース記憶部108bを詳細に示す図である。
分類済ニュース記憶部108bは、「分類」、「ニュース」、「種類(喜・怒・哀・楽)」の項目を有する。たとえばニュース「sport/0518/001」は、スポーツに分類されており、種類は「喜(嬉しい内容)」となっている。ここで、「喜・怒・哀・楽」のいずれかの種類であると解析されたニュースは各項目にフラグが立てられる。
FIG. 9 is a diagram showing the classified
The classified
たとえば、ニュース中に「殺害」、「子供」等のキーワードが含まれている場合、子供が殺害されたニュースであると判断して「哀」にフラグを立てるようにすることができる。また、ニュース中に「消費税」、「値上げ」等の言葉が含まれている場合、消費税が値上げされたニュースであると判断して、「怒」にフラグを立てるようにすることができる。特定のキーワードが含まれない場合は、いずれの項目にもフラグがたてられない。 For example, when the news includes keywords such as “killing” and “children”, it can be determined that the news is that the child has been killed, and “sorrow” can be flagged. In addition, if the news contains words such as “consumption tax” and “price increase”, it can be determined that the consumption tax has been raised and the flag “angry” can be set. . If a particular keyword is not included, no item is flagged.
図8に戻り、読み出し部106は、ニュース記憶部108からニュースを読み出すときに、フラグを参照してそのニュースの種類を判別する。動作制御部116は、ニュースの種類に応じて、ロボットが「喜・怒・哀・楽」を表すような動作を行うよう制御する。行動パターン記憶部117は、喜・怒・哀・楽ごとに、ロボット20がどのような行動をするかのパターンを記憶する。動作制御部116は、行動パターン記憶部117を参照してロボットの動作を制御する。たとえば、嬉しいニュースのときは、ロボットが踊るようにしてもよく、悲しいニュースのときは、ロボット20の顔に涙が流れているような光効果を演出するようにしてもよい。また、行動パターン記憶部117は、喜・怒・哀・楽ごとに、ロボット20の話し方が変わるように音声情報を記憶することもできる。たとえば、悲しいニュースのときは、ロボット20が涙声で話したり、低い声で話したり、声がつまるような話し方となるようにすることができる。
Returning to FIG. 8, when reading the news from the
さらに、ここでは図示していないが、ロボット制御部100は、音楽再生部を含むこともでき、ニュースの種類に応じて、楽しいニュースには楽しい音楽がバックグランドで流れるようにしたり、悲しいニュースのときは、悲しい音楽がバックグランドで流れるように制御することができる。
Further, although not shown here, the
図10は、本実施の形態におけるロボット制御部100の処理手順を示すフローチャートである。
まず、ニュース取得部102がニュースを取得する(S40)。つづいて、分類処理部104が、ニュースを分類する(S42)。その後、解析処理部114は、キーワード記憶部115を参照して、ニュースの内容を解析してそのニュースの種類を判断する(S44)。ニュースの内容が喜・怒・哀・楽のいずれかに当てはまると判断した場合、その種類に対応する箇所にフラグを立てる。
FIG. 10 is a flowchart showing a processing procedure of the
First, the
ロボット制御部100は、ニュースの音読開始の指示があるまで待機する(S46のNO)。ニュースの音読開始の指示があると(S46のYES)、読み出し部106は、分類済ニュース記憶部108bからニュースを読み出す(S48)。読み出し部106は、そのニュースにフラグが立っているか否かを判断する(S50)。フラグが立っている場合(S50のYES)、動作制御部116は、行動パターン記憶部117を参照して、ロボットにそのフラグに応じた動作をするよう指示を行う(S52)。つづいて、ロボットの音声出力部(不図示)にそのニュースを音読させる(S54)。このとき、ニュースの種類に応じて、楽しそうに読んだり、悲しそうに読んだりさせる。
The
ステップS50において、いずれのフラグも立っていない場合は、普通に音読させる(S54)。ユーザからの問いかけがあるまで(S56のNO)、分類済ニュース記憶部108bに記憶されたニュースを順次読み出し(S48)、ステップS50からステップS54までの処理を繰り返す。
If none of the flags are set in step S50, it is read aloud normally (S54). Until there is an inquiry from the user (NO in S56), the news stored in the classified
ユーザから何らかの問いかけがあると(S56のYES)、音声認識部110は、その問いかけが、ニュースの再読要請であるか否かを判断する(S58)。再読要請である場合(S58のYES)、読み出し指示部112は、読み出し部106にキャッシュ部108cに記憶されたニュースを読み出させ、そのニュースを音読させる(S60)。
If there is any question from the user (YES in S56), the
その後、ユーザの指示等に基づき、続きのニュースを読むか否かを判断し(S62)、続きを読む場合(S62のYES)、ステップS48に戻り、同様の動作を繰り返す。 Thereafter, based on the user's instruction or the like, it is determined whether or not to read the continued news (S62). When reading the continued (YES in S62), the process returns to step S48 and the same operation is repeated.
一方、ステップS62において、続きを読まない場合(S62のNO)、動作を終了するか否かを判断する(S64)。動作を終了しない場合(S64のNO)とは、たとえばユーザから他の動作を求められたときであり、他の動作を行う(S66)。 On the other hand, if the continuation is not read in step S62 (NO in S62), it is determined whether or not to end the operation (S64). The case where the operation is not terminated (NO in S64) is, for example, when another operation is requested by the user, and another operation is performed (S66).
また、ステップS58において、ユーザからの問いかけが再読要請でない場合(S58のNO)、ステップS64に進み、動作の終了または他の動作を行う。 In step S58, when the inquiry from the user is not a re-reading request (NO in S58), the process proceeds to step S64, and the operation is terminated or another operation is performed.
ロボット20に、以上のような機能を付与することにより、ユーザは、ロボット20が音読するニュースをBGMのように聞き流しつつ、ロボット20の音声の調子や動作からニュースの種類を把握することができ、興味のあるニュースに気づきやすくなる。これにより、興味のあるニュースを聞き逃すことなく、そのニュースを詳しく知ることができる。
By giving the above functions to the
なお、以上では、ロボット20がニュースをBGMのように読んでいる間もずっと、各ニュースに対応づけられたフラグを参照して、ニュースの種類に応じて喜怒哀楽を表してニュースを読む形態を説明した。しかし、ロボット20は、通常はフラグの有無に関わらずすべてのニュースを同様に音読し、ユーザの要請によりいずれかのニュースを再読するときのみ、そのニュースに対応づけられたフラグに応じて喜怒哀楽を表して読むこともできる。
In the above, while the
(第三の実施の形態)
本実施の形態において、ロボット20は、基本的に上記実施の形態と同様、ニュースを音読する。ただし、ロボット20は、ニュースをそのまま伝えるのではなく、ニュースに含まれる特定の単語を他の単語に入れ替えたりしてニュースを音読する。特定の単語とは、たとえば固有名詞等である。
(Third embodiment)
In the present embodiment, the
以下、図5を参照して説明する。
ここでは図示していないが、ロボット制御部100は、ニュースの中から固有名詞を抽出し、他の単語に置き換える置換処理部と、置換すべき単語を記憶した記憶部とを有する。置換処理部が単語を置き換えたニュースはニュース記憶部108に記憶され、読み出し部106は、ニュース記憶部108に記憶されたニュースを読み出す。
Hereinafter, a description will be given with reference to FIG.
Although not shown here, the
ここで、置換すべき単語を記憶した記憶部は、たとえばユーザの名前や、ユーザの家族の名前等のユーザに関する情報を記憶することができる。本実施の形態におけるロボット20は、近くにいるユーザを認識することが可能であるので、ユーザに関する情報を適宜本当のニュース中に含まれる固有名詞と置き換えて嘘のニュースを読み上げることができる。これにより、ニュースを題材としてロボット20が読み上げるニュースをおもしろく聞くことができる。
Here, the memory | storage part which memorize | stored the word which should be substituted can memorize | store the information regarding a user, such as a user's name and a user's family name, for example. Since the
<まねロボット>
(第四の実施の形態)
本実施の形態において、ロボット20は、ユーザと対話を行うことにより、そのユーザの音声の特徴を把握し、ユーザと同じような話し方をするようになる。
<Imitation Robot>
(Fourth embodiment)
In the present embodiment, the
図11は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部200は、対話相手のユーザを認識するユーザ認識部210と、ユーザの音声を取得する音声取得部202と、ユーザの音声を解析する音声解析部204と、音声解析部204が解析したパラメータを記憶するパラメータ記憶部206と、パラメータ記憶部206に記憶されたパラメータに基づき音声を出力する音声出力部208とを含む。
FIG. 11 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The
ここで、パラメータとは、たとえば、ピッチ情報、速度、アクセント等を数値化したものである。ピッチ情報は、ピッチ周波数(基本周波数)やピッチ強度等を含む。このようなピッチ情報は、たとえばケプストラム法により抽出することができる(特許文献2)。ロボット制御部200は、特定のユーザとの対話を繰り返すことにより、そのユーザの種々の音声を取得し、これらを解析してそのユーザの音声の特徴を把握することができる。また、ロボット制御部200は、ユーザの音声からユーザが男性か女性かを判別することができ、男性または女性の声質をパラメータとすることができる。
Here, the parameter is, for example, a numerical value of pitch information, speed, accent, and the like. The pitch information includes a pitch frequency (basic frequency), pitch intensity, and the like. Such pitch information can be extracted by, for example, a cepstrum method (Patent Document 2). The
これにより、ユーザに対してそのユーザのまねをした話をすることができ、ユーザが楽しんだり、自分がどんな話し方をしているのかを客観的に知ることができる。 As a result, the user can talk to the user and imitate the user, and the user can enjoy and can objectively know how he / she is speaking.
また、ここで、ユーザとの対話は、ユーザの音声を取得する目的で行うこともできる。この場合、ロボット20は、普通の音声でユーザと種々の対話を行い、ユーザの音声を収集する。このとき、ユーザ認識部210によりユーザが特定されているので、ロボット20が複数のユーザと対話を行っても、ユーザごとの音声を取得することができる。音声解析部204は、ユーザごとに、ユーザの音声に基づき、そのユーザの音声の特徴を示すパラメータを算出する。このようにして取得されたユーザの音声の特徴を示すパラメータは、そのままそのロボットで用いることもできるが、たとえば記録媒体等のメディアやネットワークを介して他のロボットに転送して他のロボットで用いることもできる。
Further, here, the interaction with the user can be performed for the purpose of acquiring the user's voice. In this case, the
図12は、図11に示したロボット制御部200の処理手順を示すフローチャートである。
FIG. 12 is a flowchart showing a processing procedure of the
まず、ユーザ認識部210は、ロボットに話しかけてきたユーザを認識する(S100)。ロボットはユーザと対話を行う(S102)。この間、音声取得部202は、ユーザに対応づけてそのユーザの音声を取得する(S104)。音声解析部204は、音声取得部202が取得した音声を解析してパラメータを算出する(S106)。音声解析部204は、算出したパラメータをユーザに対応づけてパラメータ記憶部206に記憶する(S108)。
First, the
以上のような処理により、ユーザはロボット20と色々な対話を行うので、ユーザの音声を取得しやすくなる。また、以上の例では、ピッチ、速度、アクセント等のパラメータに基づきユーザの音声をまねした音声を出力するとしたが、ロボット制御部200は、ユーザがよくつかう言葉遣い等を記憶する記憶部をさらに含むこともでき、音声出力部208は、ユーザの言葉遣い等をまねするようにすることもできる。このようにユーザの言葉遣いを取得するためには、ユーザの会話をできるだけ多く取得する必要があるが、ロボット20と対話をすることにより、ユーザの会話をより多く取得することができる。
Through the processing as described above, the user performs various dialogs with the
(第五の実施の形態)
本実施の形態において、ロボット20は、図11に示したロボット制御部200で得られたようなパラメータを用いて、固有人の話し方をまねしてユーザと対話を行う。
(Fifth embodiment)
In the present embodiment, the
図13は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部220は、固有人の音声の特徴を示すパラメータを記憶するパラメータ記憶部226と、ユーザが対話する相手の選択を受け付ける対話者選択受付部222と、対話者選択受付部222で選択を受け付けた対話者のパラメータをパラメータ記憶部226から取得するパラメータ取得部224と、パラメータ取得部224が取得したパラメータに基づき、音声を出力する音声出力部228とを含む。
FIG. 13 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The
ここで、固有人のパラメータは、図11を参照して説明したように、ロボットとの対話を経て得た音声を解析することにより取得することもできるが、他の方法で取得した固有人の音声を解析することにより取得することもできる。また、たとえばインターネット上に著名人のパラメータを取得することができるサイトを設けて、そこからダウンロードするようにすることもできる。本実施の形態においては、パラメータはどのような方法で取得してもよい。 Here, as described with reference to FIG. 11, the parameters of the unique person can be obtained by analyzing the voice obtained through the dialogue with the robot, but the unique person parameters obtained by other methods are also available. It can also be obtained by analyzing the voice. In addition, for example, a site that can obtain parameters of celebrities on the Internet can be provided and downloaded from there. In the present embodiment, the parameters may be acquired by any method.
本実施の形態において、パラメータ記憶部226には、複数人の音声のパラメータが各人に対応づけて記憶されている。ユーザは、どの人と対話をしたいかを選択することができ、対話者選択受付部222は、ユーザからの選択を受け付ける。この選択は、たとえばロボットの表示画面に「太郎(長男)」、「次郎(次男)」、「光(孫)」等の各人の名前をボタン表示して、ユーザがいずれかのボタンを選択することにより行われてもよく、たとえばユーザが「光ちゃん」と話しかけると、「光」の音声のパラメータが選択されるようにすることもできる。
In the present embodiment, the
これにより、たとえば孫と離れて暮らしている祖父母がユーザの場合、ユーザは自分の孫と話しているような気分になることができ、ロボットへの愛着がより高まることが期待できる。 Thus, for example, when the grandparent who lives away from the grandchild is a user, the user can feel as if he / she is talking with his / her grandchild, and the attachment to the robot can be expected to be further enhanced.
また、著名人の音声のパラメータを登録しておくことにより、お気に入りの歌手や俳優と会話をしているような気分になることもできる。 Also, by registering celebrity voice parameters, you can feel like you are talking to your favorite singer or actor.
図14は、本実施の形態におけるロボット制御部220の処理手順を示すフローチャートである。
FIG. 14 is a flowchart showing a processing procedure of the
対話者選択受付部222が、ユーザから対話者の選択を受け付けると(S110)、パラメータ取得部224は、パラメータ記憶部226からその対話者の音声のパラメータを読み出す(S112)。その後、音声出力部228は、パラメータ取得部224が取得した音声のパラメータに基づき生成された音声でユーザと対話を行う(S114)。
When the dialoger
さらに、以上の例では、ユーザが固有人の音声をまねする例を示したが、ロボット20が固有人の動作の特徴を把握し、その固有人と同じような動作をするようにすることもできる。これにより、ユーザはより特定の固有人と接しているような気分になることができる。
Furthermore, in the above example, the example in which the user imitates the sound of a proper person has been shown. However, the
<DJロボット>
(第六の実施の形態)
本実施の形態において、ロボット20は、音楽を再生可能に構成され、音楽の再生時にその音楽に関する情報をDJのように読み上げる。
<DJ Robot>
(Sixth embodiment)
In the present embodiment, the
図15は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部300は、再生する音楽の選択を受け付ける選択受付部302と、音楽情報を記憶する音楽記憶部304と、音楽記憶部304に記憶された音楽情報の中から、その音楽の曲名やアルバム名、アーティスト名等の識別情報を抽出する識別情報抽出部306とを含む。ロボット制御部300は、さらに、識別情報抽出部306が読み出した識別情報に基づき、インターネット等のネットワーク120にアクセスして識別情報に基づき、その音楽に関する情報を取得する情報取得部308と、情報取得部308が取得した情報量等に基づき、音楽に関する情報を読み上げるタイミングと音楽再生のタイミングとを制御するタイミング制御部310と、音楽を再生する音楽再生部314と、音楽に関する情報を出力する音声出力部312とを含む。
FIG. 15 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The
音楽記憶部304は、音楽情報をたとえばMP3の形式で記憶する。情報取得部308は、識別情報抽出部306が抽出した識別情報に基づき、その音楽やアーティストに関する最新情報等を取得する。たとえば、「今週オリコンで何位です」とか、「このアーティストのデビュー曲」等の情報を取得する。
The
タイミング制御部310は、情報取得部308が取得した情報の情報量と、たとえばこれから再生する音楽のイントロダクション部分の長さとを考慮して、そのイントロダクションの間に情報を読み上げることができるような速度で音声出力部312が情報を読み上げるよう制御する。また、たとえば、音声出力部312が、情報取得部308が取得した情報を読み上げてから音楽再生部314が音楽を再生するようにすることもできる。
The
図16は、音楽の再生タイミングと情報を音声で紹介するタイミングを示すタイミングチャートである。
たとえば、図16(a)に示すように、タイミング制御部310は、音楽のイントロダクション部分で音声紹介が終わるように紹介文を短縮したり、音声の出力速度を制御したりすることができる。
FIG. 16 is a timing chart showing music playback timing and timing for introducing information by voice.
For example, as shown in FIG. 16A, the
また、たとえば図16(b)に示すように、音声紹介が終了してから、音楽が始まるようにすることもできる。 Further, for example, as shown in FIG. 16B, music can be started after the voice introduction is completed.
また、たとえば図16(c)に示すように、音声紹介と音楽を同時に開始し、イントロダクションが終了して歌が始まったら音声紹介がフェイドアウトするようにすることもできる。 For example, as shown in FIG. 16C, voice introduction and music can be started at the same time, and when the introduction ends and the song starts, the voice introduction fades out.
また、図16(d)に示すように、音楽を再生した後に、その音楽の音声紹介を行うようにすることもできる。このようにすれば、音楽が再生されている間に、その音楽に関する情報を取得したり、音声紹介の編集等を行うことができる。また、たとえば外国のアーティストの音楽の場合、音楽に関する最新情報が外国語で記載されている場合もあり、音楽が再生されている間に、翻訳処理を行い、ユーザの母国語で紹介するようにすることもできる。 In addition, as shown in FIG. 16D, after music is played, the music can be introduced to the voice. In this way, information related to the music can be acquired and voice introduction editing can be performed while the music is being played. Also, for example, in the case of music by foreign artists, the latest information on music may be written in a foreign language, so that translation processing is performed while the music is being played, and it is introduced in the user's native language. You can also
また、この場合、ロボット20がユーザに「紹介聞きたい?」等の問い合わせを行い、ユーザが「聞きたい」と答えた場合のみ、音楽紹介を行うようにすることもできる。また、前回同じ音楽を再生したときから新たなニュースがあった場合のみ、ロボット20が「新しいニュースがあるよ。聞きたい?」と問い合わせを行うようにすることもできる。これにより、同じ曲を何度も聞くユーザが毎回同じ紹介を聞く羽目になるのを防ぐことができる。
In this case, it is also possible to introduce music only when the
図16(a)から図16(c)に示した例においても、たとえば前の曲を再生している間に、次の曲に関する音楽紹介を取得する等の処理を行うことができる。これにより、音楽が再生されたときに、迅速にその音楽の音声紹介を開始することができる。 Also in the example shown in FIG. 16A to FIG. 16C, for example, while playing the previous song, it is possible to perform processing such as obtaining a music introduction regarding the next song. Thereby, when music is reproduced, the voice introduction of the music can be started quickly.
図17は、本実施の形態におけるロボット制御部300の処理手順を示すフローチャートである。
まず、選択受付部302は、ユーザから再生する音楽の選択を受け付ける(S200)。たとえば、音楽記憶部304に複数の音楽情報が記憶されており、「順番に聞くモード」や「ランダムに聞くモード」等に設定されている場合は、二曲目からの音楽の選択は自動で行われる。
FIG. 17 is a flowchart showing a processing procedure of the
First, the
識別情報抽出部306は、選択受付部302が選択を受け付けた音楽の音楽情報から識別情報を抽出する(S202)。情報取得部308は、識別情報に基づき、その音楽に関連する情報を取得する(S204)。タイミング制御部310は、情報取得部308が取得した情報の量およびたとえば音楽のイントロダクション部分の長さ等に基づき、タイミングを算出する(S206)。タイミング制御部310が制御するタイミングで、音楽再生および音声紹介の出力を行う(S208)。
The identification
ロボット20に、以上のような機能を付与することにより、ユーザは、音楽を聴きながら、その音楽に関する情報を聞くことができ、自分の好きな曲を、DJが紹介してくれているような気分で音楽を聴くことができる。
By giving the above functions to the
<メール読み上げロボット>
(第七の実施の形態)
本実施の形態において、ロボット20は、電子メールを受け取ると、その電子メールをたとえば「ラップ調」、「古文調」、「時代劇調」等に置換し、置換した電子メールを各調子に合わせたリズムで読み上げる。また、ロボット20は、音楽を再生可能に構成され、電子メールを読み上げるとともに、各調子に合わせた音楽を流す。
<Mail reading robot>
(Seventh embodiment)
In the present embodiment, when the
図18は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部400は、インターネット等のネットワーク120から電子メールを受信するメール受信部402と、メール受信部402が受信した電子メールを各調子の文章に置き換える置換処理部404と、置換処理部404が電子メールを置換する際に参照する単語を記憶する単語記憶部406を有する。ロボット制御部400は、さらに、置換処理部404が置換した電子メールを音声として出力する音声出力部408と、音声出力部408が電子メールを読むときに、BGMとして流す音楽を選択する音楽選択部410と、種々の音楽を記憶する音楽記憶部412と、音楽選択部410が選択した音楽を再生する音楽再生部414とを有する。
FIG. 18 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The
ここで図示していないが、ロボット制御部400は、ロボット20にいずれの調子で電子メールを読ませるかの選択を受け付ける選択受付部や、いずれの調子で電子メールを読むかを自動的に決定する決定部を有することができる。
Although not shown in the figure, the
単語記憶部406は、各調子毎に、通常の単語と置換すべき単語を記憶する。たとえば、「時代劇調」の場合、通常の単語「です」には「でござる」が対応づけられる。「時代劇調」が選択されている場合、メール受信部402が、「私は学校に行きました」という電子メールを受信すると、置換処理部404は、「私」を「せっしゃ」に、「学校」を「寺子屋」に、「行きました」を「いったでござる」と置き換え、もとの文章を「せっしゃは寺子屋に行ったでござる」と置き換える。音声出力部408は、「せっしゃは寺子屋に行ったでござる」と出力する。このとき、音楽選択部410は、時代劇でよく使われるような音楽を選択し、音楽再生部414は、音楽記憶部412からその音楽を読み出し、音声出力部408が電子メールを音声出力する際にその音楽を再生する。
The
また、たとえば「ラップ調」が選択されている場合、置換処理部404は、各文章を文節に区切り、各文節の最後に「YO!」という言葉を付けるように電子メールを置き換える。「ラップ調」が選択されている場合、メール受信部402が「今日は何をしていたの?」という電子メールを受信すると、置換処理部404は、この文章を「今日は」、「何を」、「していたの」という文節に区切り、「今日はYO!、何をYO!、していたのYO!」と置き換える。音声出力部408は、ラップのテンポで「今日はYO!、何をYO!、していたのYO!」と出力する。このとき、音楽選択部410は、ラップ音楽を選択し、音楽再生部414は、音楽記憶部412からその音楽を読み出し、音声出力部408が電子メールを音声出力する際にその音楽を再生する。
For example, when “wrapping” is selected, the
また、ロボット制御部400は、各調子に合わせて、ロボット20の動作を制御することもでき、ロボット20が音楽に合わせて踊るようにすることもできる。
Further, the
ロボット20に、以上のような機能を付与することにより、ユーザは受信した電子メールを楽しく聞くことができる。
By giving the above functions to the
<マルチリンガルロボット>
(第八の実施の形態)
本実施の形態において、ロボット20は、複数の言語を理解し、また複数の言語を話す。ここで、言語とは、複数国語の他、たとえば古語や方言等も含む。
<Multilingual robot>
(Eighth embodiment)
In the present embodiment, the
図19は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部500は、ユーザからの問いかけを入力する音声入力部502と、音声入力部502が入力した問いかけの言語と、その意味を認識する音声認識部504と、音声認識部504が認識した結果に応じて、ロボット20が応答する応答を応答例データベース510から読み出す読み出し部508と、読み出し部508が読み出した応答を音声として出力する音声出力部512とを有する。ロボット制御部500は、さらに、複数の言語の辞書を記憶する辞書記憶部506を有する。音声認識部504は、辞書記憶部506を参照して、ユーザの問いかけの意味を認識する。
FIG. 19 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The
以下、ロボット20が現代語と古語を話す場合を例として説明する。
たとえば、ユーザが古語で「このごろの時」と問いかけた場合、音声認識部504は、辞書記憶部506を参照して、ユーザが古語を話していること、および「このごろの時」が現代語で「今何時?」に対応することを把握する。この問い合わせに対する応答として、応答例データベース510には、「今は○○時です」と記憶されている。図示していないが、ロボット制御部500は、計時機能を有し、読み出し部508は、「○○」の部分に現在の時刻を入れて、たとえば「今は午前2時です」と応答する。また、ロボット20は、ユーザからの古語での問いかけに対して古語で応答することもでき、この場合、読み出し部508は、辞書記憶部506を参照して、「今は午前2時です」に対応する「このごろの時は丑三つ時」という古語で応答することもできる。この場合に、ユーザが「どういう意味?」と問いかけると、音声認識部504は、ユーザが現代語で話していることを認識し、読み出し部508に「今は午前2時です」という現代語の応答例を読み出させることができる。
Hereinafter, a case where the
For example, when the user asks “this time” in an old language, the
また、応答例データベース510に、複数言語の応答例が記憶されていてもよく、読み出し部508は、応答例データベース510から該当する言語の応答例を読み出してもよい。
Further, response examples in a plurality of languages may be stored in the
以上と同様の処理で、たとえばユーザが日本語で話しかけた場合にロボット20が英語で返事をしたり、ユーザとロボット20が英語で会話をしたり、等の処理を行うことができる。これにより、言語学習を行うこともできる。
By the same processing as described above, for example, when the user speaks in Japanese, the
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。 As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.
第三の実施の形態において、ロボット20がニュースの中から固有名詞を抽出し、他の単語に置き換える処理を行う機能を有するとしたが、たとえば第七の実施の形態において、取得した電子メールの中から固有名詞を抽出し、他の単語に置き換える処理を行う機能を付与することもできる。
In the third embodiment, the
また、第八の実施の形態において、ロボット20が複数の言語を理解したり話したりする機能を有するとしたが、他の形態においても、ロボット20に複数の言語を理解したり話したりする機能を付与することができる。たとえば、第一の実施の形態および第二の実施の形態において、ロボットが複数の言語を理解する機能を有するようにすれば、外国語のニュースを翻訳してユーザに伝えることができる。
In the eighth embodiment, the
1 胴体部
2 頭部
3 車輪
12 スピーカ
13 マイクロフォン
14 アクチュエータ
20 ロボット
21 CCDカメラ
22 アクチュエータ
32 音声入力手段
34 画像入力手段
36 音声認識手段
38 画像認識手段
40 行動決定手段
42 記憶手段
44 音声出力手段
46 動作手段
51 センサ入力処理部
51A 画像認識部
51B 音声認識部
52 行動決定部
53 制御部
54 音声合成部
55 出力部
56 記憶部
100 ロボット制御部
102 ニュース取得部
104 分類処理部
106 読み出し部
108 ニュース記憶部
108a 取得ニュース記憶部
108b 分類済ニュース記憶部
108c キャッシュ部
110 音声認識部
112 読み出し指示部
114 解析処理部
115 キーワード記憶部
116 動作制御部
117 行動パターン記憶部
120 ネットワーク
200 ロボット制御部
202 音声取得部
204 音声解析部
206 パラメータ記憶部
208 音声出力部
220 ロボット制御部
222 対話者選択受付部
224 パラメータ取得部
226 パラメータ記憶部
228 音声出力部
300 ロボット制御部
302 選択受付部
304 音楽記憶部
306 識別情報抽出部
308 情報取得部
310 タイミング制御部
312 音声出力部
314 音楽再生部
400 ロボット制御部
402 メール受信部
404 置換処理部
406 単語記憶部
408 音声出力部
410 音楽選択部
412 音楽記憶部
414 音楽再生部
500 ロボット制御部
502 音声入力部
504 音声認識部
506 辞書記憶部
508 読み出し部
510 応答例データベース
512 音声出力部
DESCRIPTION OF SYMBOLS 1 Body part 2 Head 3 Wheel 12 Speaker 13 Microphone 14 Actuator 20 Robot 21 CCD camera 22 Actuator 32 Voice input means 34 Image input means 36 Voice recognition means 38 Image recognition means 40 Action determination means 42 Storage means 44 Voice output means 46 Operation Means 51 Sensor input processing unit 51A Image recognition unit 51B Speech recognition unit 52 Action determination unit 53 Control unit 54 Speech synthesis unit 55 Output unit 56 Storage unit 100 Robot control unit 102 News acquisition unit 104 Classification processing unit 106 Reading unit 108 News storage unit 108a Acquired news storage unit 108b Classified news storage unit 108c Cache unit 110 Speech recognition unit 112 Read instruction unit 114 Analysis processing unit 115 Keyword storage unit 116 Operation control unit 117 Action pattern storage unit 120 Network 200 Robot control unit 202 Audio acquisition unit 204 Audio analysis unit 206 Parameter storage unit 208 Audio output unit 220 Robot control unit 222 Dialogue person selection reception unit 224 Parameter acquisition unit 226 Parameter storage unit 228 Audio output unit 300 Robot control unit 302 Selection reception Unit 304 music storage unit 306 identification information extraction unit 308 information acquisition unit 310 timing control unit 312 voice output unit 314 music playback unit 400 robot control unit 402 mail reception unit 404 replacement processing unit 406 word storage unit 408 voice output unit 410 music selection unit 412 Music storage unit 414 Music playback unit 500 Robot control unit 502 Voice input unit 504 Voice recognition unit 506 Dictionary storage unit 508 Reading unit 510 Response example database 512 Voice output unit
Claims (23)
前記情報を音声で出力する音声出力手段と、
ユーザからの前記情報の再出力要請に応じて、前記音声出力手段が出力した前記情報を前記音声出力手段に再出力させる再生手段と、
を含むことを特徴とする対話型ロボット。 Information acquisition means for acquiring information;
Voice output means for outputting the information by voice;
In response to a request for re-outputting the information from the user, reproduction means for causing the sound output means to re-output the information output by the sound output means;
An interactive robot characterized by including:
前記音声出力手段が出力した前記情報を記憶する記憶手段をさらに含み、
前記再生手段は、前記ユーザからの前記情報の再出力要請に応じて、前記音声出力手段に前記記憶手段から該当する前記情報を読み出させることを特徴とする対話型ロボット。 The interactive robot according to claim 1,
And further comprising storage means for storing the information output by the audio output means,
The interactive robot according to claim 1, wherein the reproduction unit causes the audio output unit to read out the corresponding information from the storage unit in response to a re-output request of the information from the user.
前記音声出力手段は、前記情報の内容に応じて、当該内容の雰囲気をユーザに伝える音声で前記情報を出力することを特徴とする対話型ロボット。 The interactive robot according to claim 1 or 2,
The interactive robot characterized in that the voice output means outputs the information in a voice that conveys the atmosphere of the content to the user according to the content of the information.
前記情報の内容と、当該内容の雰囲気を伝える音声情報とを対応づけて記憶する音声記憶手段をさらに含み、
前記音声出力手段は、前記音声記憶手段を参照して、出力する前記情報の内容に対応づけられた音声情報に基づき、前記情報を出力することを特徴とする対話型ロボット。 The interactive robot according to claim 3, wherein
A voice storage means for storing the contents of the information and voice information conveying the atmosphere of the contents in association with each other;
The interactive robot characterized in that the voice output means outputs the information based on voice information associated with the content of the information to be output with reference to the voice storage means.
前記情報の内容に応じて、当該内容の雰囲気をユーザに伝えるための演出を行う演出実行手段をさらに含むことを特徴とする対話型ロボット。 The interactive robot according to any one of claims 1 to 4,
An interactive robot characterized by further including an effect execution means for performing an effect to convey the atmosphere of the content to the user according to the content of the information.
前記情報の内容と、当該内容の雰囲気を伝える演出内容とを対応づけて記憶する演出内容記憶手段をさらに含み、
前記演出実行手段は、前記演出内容記憶手段を参照して、前記音声出力手段が出力する前記情報の内容に対応づけられた演出内容で前記演出を行うことを特徴とする対話型ロボット。 The interactive robot according to claim 5, wherein
Production content storage means for storing the content of the information and production content that conveys the atmosphere of the content in association with each other;
The interactive robot characterized in that the effect execution means refers to the effect content storage means and performs the effect with the effect contents associated with the content of the information output by the audio output means.
前記情報取得手段が取得した前記情報の内容を解析する解析手段をさらに含むことを特徴とする対話型ロボット。 The interactive robot according to any one of claims 1 to 6,
An interactive robot characterized by further comprising an analysis means for analyzing the content of the information acquired by the information acquisition means.
前記情報に含まれる所定の単語を他の単語に置き換える置換手段をさらに含み、
前記音声出力手段は、前記置換手段が置き換えた前記他の単語を用いて音声を出力することを特徴とする対話型ロボット。 The interactive robot according to any one of claims 1 to 7,
A replacement unit that replaces the predetermined word included in the information with another word;
The interactive robot characterized in that the voice output means outputs a voice using the other word replaced by the replacement means.
前記ユーザの音声をまねして同じ言葉を出力する音声出力手段と、
を含むことを特徴とする対話型ロボット。 Means for obtaining the user's voice;
Voice output means for imitating the user's voice and outputting the same words;
An interactive robot characterized by including:
前記問いかけに対する前記ユーザの音声を、当該ユーザに対応づけて記憶する記憶手段と、
前記記憶手段に記憶された前記ユーザの音声を解析して、当該ユーザの音声の特徴を示すパラメータを取得するパラメータ取得手段と、
を含むことを特徴とする対話型ロボット。 A voice output means for asking a user;
Storage means for storing the voice of the user in response to the inquiry in association with the user;
Analyzing the user's voice stored in the storage means and acquiring parameters indicating the characteristics of the user's voice;
An interactive robot characterized by including:
前記音声出力手段は、前記ユーザのパラメータに基づき生成された音声を用いて、前記ユーザの音声を真似して同じ言葉を出力することを特徴とする対話型ロボット。 The interactive robot according to claim 10, wherein
The interactive robot characterized in that the voice output means imitates the user's voice and outputs the same words using the voice generated based on the user's parameters.
前記特徴は、ユーザの音声のピッチ、速度、およびアクセントを含むことを特徴とする対話型ロボット。 The interactive robot according to claim 10 or 11,
The interactive robot characterized in that the features include the pitch, speed, and accent of the user's voice.
前記パラメータに基づき生成された音声を出力する音声出力手段と、
を含むことを特徴とする対話型ロボット。 Parameter acquisition means for acquiring parameters indicating the characteristics of a specific person's voice;
Audio output means for outputting audio generated based on the parameters;
An interactive robot characterized by including:
特定の人の音声の特徴を示すパラメータを当該特定の人に対応づけて記憶する記憶手段と、
ユーザから、対話を行いたい人の指定を受け付ける受付手段と、
をさらに含み、
前記パラメータ取得手段は、前記記憶手段から、前記受付手段が受け付けた人の前記パラメータを取得することを特徴とする対話型ロボット。 The interactive robot according to claim 13, wherein
Storage means for storing parameters indicating characteristics of a specific person's voice in association with the specific person;
An accepting means for accepting designation of a person who wants to interact with the user;
Further including
The interactive robot characterized in that the parameter acquisition means acquires the parameters of the person received by the reception means from the storage means.
前記特徴は、前記特定の人の音声のピッチ、速度、およびアクセントを含むことを特徴とする対話型ロボット。 The interactive robot according to claim 13 or 14,
The interactive robot characterized in that the features include pitch, speed, and accent of the voice of the specific person.
前記音楽に関する情報を取得する情報取得手段と、
前記音楽再生手段により音楽を再生する際に、当該音楽に関する情報を音声で出力する音声出力手段と、
を含むことを特徴とする音楽再生ロボット。 Music playback means for playing music,
Information acquisition means for acquiring information about the music;
An audio output means for outputting information related to the music by voice when the music is played by the music playback means;
A music playback robot characterized by including:
前記情報取得手段は、前記音楽に含まれる当該音楽の識別情報に基づき、ネットワークを介して接続された他の端末から、当該音楽に関する情報を取得することを特徴とする音楽再生ロボット。 The music playback robot according to claim 16, wherein
The said information acquisition means acquires the information regarding the said music from the other terminal connected via the network based on the identification information of the said music contained in the said music, The music reproduction robot characterized by the above-mentioned.
前記音楽再生手段が前記音楽を出力するタイミングと、前記音声出力手段が前記音楽に関する情報を音声で出力するタイミングとを制御するタイミング制御手段をさらに含むことを特徴とする音楽再生ロボット。 The music playback robot according to claim 16 or 17,
A music reproducing robot, further comprising timing control means for controlling a timing at which the music reproducing means outputs the music and a timing at which the audio output means outputs information related to the music by voice.
前記タイミング制御手段は、前記音楽において、イントロダクションが再生されている間だけ前記音楽に関する情報が出力されるように、前記音声出力手段を制御することを特徴とする音楽再生ロボット。 The music playback robot according to claim 18, wherein
The music reproduction robot according to claim 1, wherein the timing control means controls the sound output means so that information relating to the music is output only while the introduction is being reproduced in the music.
前記情報取得手段は、前記音楽再生手段が音楽を再生している間に、当該音楽に関する情報、または次に再生される音楽に関する情報を取得することを特徴とする音楽再生ロボット。 The music playback robot according to any one of claims 16 to 19,
The information acquisition means acquires information relating to the music or information relating to music to be reproduced next while the music reproduction means is reproducing music.
前記文字情報を、当該情報の意味を維持したまま所定の調子の文章に置き換える置換手段と、
前記置換手段が置換した文章を音声出力する音声出力手段と、
を含むことを特徴とする音声出力ロボット。 Character information acquisition means for acquiring character information represented by characters;
Replacement means for replacing the character information with a sentence of a predetermined tone while maintaining the meaning of the information;
Voice output means for outputting the sentence replaced by the replacement means by voice;
A voice output robot comprising:
前記調子に合致した音楽を再生する音楽再生手段をさらに含み、
当該音楽再生手段は、前記音声出力手段が前記文章を出力する際に、音楽を再生することを特徴とする音声出力ロボット。 The voice output robot according to claim 21, wherein
Music reproduction means for reproducing music that matches the tone,
The music output robot according to claim 1, wherein the music playback means plays music when the voice output means outputs the text.
少なくとも二種以上の言語を解析可能な解析手段と、
ユーザからの問いかけに対して、あらかじめ設定された第一の言語で応答するとともに、ユーザからの言語の変換要求に応じて、第二の言語で応答する音声出力手段と、
を含むことを特徴とする対話型ロボット。
An interactive robot having language conversion means,
An analysis means capable of analyzing at least two kinds of languages;
A voice output unit that responds to a user's inquiry in a preset first language and responds in a second language in response to a language conversion request from the user;
An interactive robot characterized by including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004167547A JP2005342862A (en) | 2004-06-04 | 2004-06-04 | robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004167547A JP2005342862A (en) | 2004-06-04 | 2004-06-04 | robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005342862A true JP2005342862A (en) | 2005-12-15 |
Family
ID=35495692
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004167547A Pending JP2005342862A (en) | 2004-06-04 | 2004-06-04 | robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005342862A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007172745A (en) * | 2005-12-22 | 2007-07-05 | Nec Electronics Corp | Music reproducing device, program and music selecting method |
JP2007200495A (en) * | 2006-01-27 | 2007-08-09 | Nec Corp | Music reproduction apparatus, music reproduction method and music reproduction program |
US7262669B2 (en) | 2004-12-30 | 2007-08-28 | Hynix Semiconductor Inc. | Control circuit for refresh oscillator |
WO2008093841A1 (en) * | 2007-02-02 | 2008-08-07 | Zmp Inc. | Reproduction log analysis program, terminal device, and autonomously moving type robot |
JP2010131748A (en) * | 2008-12-08 | 2010-06-17 | Korea Electronics Telecommun | Apparatus and method for controlling multi-robot linked in virtual space |
JP2011237621A (en) * | 2010-05-11 | 2011-11-24 | Honda Motor Co Ltd | Robot |
JP2013113966A (en) * | 2011-11-28 | 2013-06-10 | Toyota Motor Corp | Interaction device, interaction method, interactive program |
JP2014052630A (en) * | 2012-09-05 | 2014-03-20 | Honda Motor Co Ltd | Sound processing device, sound processing method and sound processing program |
JP2015524934A (en) * | 2012-04-04 | 2015-08-27 | アルデバラン ロボティクス | Robot capable of incorporating natural dialogue with a user into the behavior of the robot, and method for programming and using the robot |
JP2016522465A (en) * | 2013-03-15 | 2016-07-28 | ジボ インコーポレイテッド | Apparatus and method for providing a persistent companion device |
JP2016198859A (en) * | 2015-04-10 | 2016-12-01 | ヴイストン株式会社 | Robot, robot control method and robot system |
WO2016203965A1 (en) * | 2015-06-17 | 2016-12-22 | Cocoro Sb株式会社 | Emotion control system, system, and program |
JPWO2016068262A1 (en) * | 2014-10-29 | 2017-08-10 | 京セラ株式会社 | Communication robot |
JP2017215603A (en) * | 2012-06-18 | 2017-12-07 | エイディシーテクノロジー株式会社 | Response request device |
JP2018077599A (en) * | 2016-11-08 | 2018-05-17 | 富士ゼロックス株式会社 | Information processing device |
JP2019504353A (en) * | 2016-01-04 | 2019-02-14 | グレースノート インコーポレイテッド | Generation and distribution of playlists with music and stories with relevant atmosphere |
CN109496332A (en) * | 2016-07-28 | 2019-03-19 | 国立研究开发法人情报通信研究机构 | Voice dialogue device, speech dialog method and storage medium |
CN109891498A (en) * | 2016-11-08 | 2019-06-14 | 国立研究开发法人情报通信研究机构 | Speech dialogue system, voice dialogue device, user terminal and speech dialog method |
US10343884B2 (en) | 2015-07-10 | 2019-07-09 | E. & J. Gallo Winery | System and method for dispensing a beverage |
JP2019203998A (en) * | 2018-05-24 | 2019-11-28 | カシオ計算機株式会社 | Conversation device, robot, conversation device control method and program |
JP2020046478A (en) * | 2018-09-14 | 2020-03-26 | 株式会社フュートレック | Robot system |
JP2021005114A (en) * | 2020-10-16 | 2021-01-14 | パイオニア株式会社 | Information output device and information output method |
CN112720527A (en) * | 2020-12-25 | 2021-04-30 | 航天科工深圳(集团)有限公司 | Music and dance self-programming robot |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6318458A (en) * | 1986-07-10 | 1988-01-26 | Nec Corp | Method and apparatus for extracting feeling information |
JPH11327872A (en) * | 1998-05-18 | 1999-11-30 | Nippon Telegr & Teleph Corp <Ntt> | E-mail presentation method, e-mail terminal, and storage medium storing e-mail presentation program |
JP2001343979A (en) * | 2000-03-20 | 2001-12-14 | Matsushita Electric Ind Co Ltd | Music / information providing device used in the car |
JP2002205291A (en) * | 2000-10-23 | 2002-07-23 | Sony Corp | Leg type robot and movement control method for leg type robot, as well as recording medium |
JP2002307354A (en) * | 2000-11-07 | 2002-10-23 | Sega Toys:Kk | Electronic toys |
JP2002328693A (en) * | 2001-05-03 | 2002-11-15 | Sony Corp | Robot system, robot apparatus and its control method |
JP2003150186A (en) * | 2001-11-16 | 2003-05-23 | Nippon Telegr & Teleph Corp <Ntt> | Robot system, robot control method, robot control device, and robot control program |
JP2003202885A (en) * | 2001-12-28 | 2003-07-18 | Canon Electronics Inc | Information processor and information processing method |
JP2003308142A (en) * | 2002-04-17 | 2003-10-31 | Seiko Epson Corp | Message processing system, voice signal processing system, message processing equipment, message transmission terminal, voice signal processing equipment, message processing program, voice signal processing program, equipment program, terminal program and message data structure, message processing method, voice Signal processing method and message generation method |
JP2003340166A (en) * | 2002-05-29 | 2003-12-02 | Nec Corp | Robot device, control method of robot device and program |
-
2004
- 2004-06-04 JP JP2004167547A patent/JP2005342862A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6318458A (en) * | 1986-07-10 | 1988-01-26 | Nec Corp | Method and apparatus for extracting feeling information |
JPH11327872A (en) * | 1998-05-18 | 1999-11-30 | Nippon Telegr & Teleph Corp <Ntt> | E-mail presentation method, e-mail terminal, and storage medium storing e-mail presentation program |
JP2001343979A (en) * | 2000-03-20 | 2001-12-14 | Matsushita Electric Ind Co Ltd | Music / information providing device used in the car |
JP2002205291A (en) * | 2000-10-23 | 2002-07-23 | Sony Corp | Leg type robot and movement control method for leg type robot, as well as recording medium |
JP2002307354A (en) * | 2000-11-07 | 2002-10-23 | Sega Toys:Kk | Electronic toys |
JP2002328693A (en) * | 2001-05-03 | 2002-11-15 | Sony Corp | Robot system, robot apparatus and its control method |
JP2003150186A (en) * | 2001-11-16 | 2003-05-23 | Nippon Telegr & Teleph Corp <Ntt> | Robot system, robot control method, robot control device, and robot control program |
JP2003202885A (en) * | 2001-12-28 | 2003-07-18 | Canon Electronics Inc | Information processor and information processing method |
JP2003308142A (en) * | 2002-04-17 | 2003-10-31 | Seiko Epson Corp | Message processing system, voice signal processing system, message processing equipment, message transmission terminal, voice signal processing equipment, message processing program, voice signal processing program, equipment program, terminal program and message data structure, message processing method, voice Signal processing method and message generation method |
JP2003340166A (en) * | 2002-05-29 | 2003-12-02 | Nec Corp | Robot device, control method of robot device and program |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7262669B2 (en) | 2004-12-30 | 2007-08-28 | Hynix Semiconductor Inc. | Control circuit for refresh oscillator |
JP2007172745A (en) * | 2005-12-22 | 2007-07-05 | Nec Electronics Corp | Music reproducing device, program and music selecting method |
JP2007200495A (en) * | 2006-01-27 | 2007-08-09 | Nec Corp | Music reproduction apparatus, music reproduction method and music reproduction program |
WO2008093841A1 (en) * | 2007-02-02 | 2008-08-07 | Zmp Inc. | Reproduction log analysis program, terminal device, and autonomously moving type robot |
JP2010131748A (en) * | 2008-12-08 | 2010-06-17 | Korea Electronics Telecommun | Apparatus and method for controlling multi-robot linked in virtual space |
JP2011237621A (en) * | 2010-05-11 | 2011-11-24 | Honda Motor Co Ltd | Robot |
JP2013113966A (en) * | 2011-11-28 | 2013-06-10 | Toyota Motor Corp | Interaction device, interaction method, interactive program |
JP2015524934A (en) * | 2012-04-04 | 2015-08-27 | アルデバラン ロボティクス | Robot capable of incorporating natural dialogue with a user into the behavior of the robot, and method for programming and using the robot |
US10052769B2 (en) | 2012-04-04 | 2018-08-21 | Softbank Robotics Europe | Robot capable of incorporating natural dialogues with a user into the behaviour of same, and methods of programming and using said robot |
JP2017215603A (en) * | 2012-06-18 | 2017-12-07 | エイディシーテクノロジー株式会社 | Response request device |
JP2014052630A (en) * | 2012-09-05 | 2014-03-20 | Honda Motor Co Ltd | Sound processing device, sound processing method and sound processing program |
JP2016522465A (en) * | 2013-03-15 | 2016-07-28 | ジボ インコーポレイテッド | Apparatus and method for providing a persistent companion device |
US10366689B2 (en) | 2014-10-29 | 2019-07-30 | Kyocera Corporation | Communication robot |
JPWO2016068262A1 (en) * | 2014-10-29 | 2017-08-10 | 京セラ株式会社 | Communication robot |
JP2016198859A (en) * | 2015-04-10 | 2016-12-01 | ヴイストン株式会社 | Robot, robot control method and robot system |
US10486312B2 (en) | 2015-04-10 | 2019-11-26 | Vstone Co., Ltd. | Robot, robot control method, and robot system |
CN107924482A (en) * | 2015-06-17 | 2018-04-17 | 情感爱思比株式会社 | Emotional control system, system and program |
JP2017010133A (en) * | 2015-06-17 | 2017-01-12 | Cocoro Sb株式会社 | Emotion control system, system and program |
WO2016203965A1 (en) * | 2015-06-17 | 2016-12-22 | Cocoro Sb株式会社 | Emotion control system, system, and program |
US10343884B2 (en) | 2015-07-10 | 2019-07-09 | E. & J. Gallo Winery | System and method for dispensing a beverage |
JP2019504353A (en) * | 2016-01-04 | 2019-02-14 | グレースノート インコーポレイテッド | Generation and distribution of playlists with music and stories with relevant atmosphere |
US11017021B2 (en) | 2016-01-04 | 2021-05-25 | Gracenote, Inc. | Generating and distributing playlists with music and stories having related moods |
US11921779B2 (en) | 2016-01-04 | 2024-03-05 | Gracenote, Inc. | Generating and distributing a replacement playlist |
US10706099B2 (en) | 2016-01-04 | 2020-07-07 | Gracenote, Inc. | Generating and distributing playlists with music and stories having related moods |
US11868396B2 (en) | 2016-01-04 | 2024-01-09 | Gracenote, Inc. | Generating and distributing playlists with related music and stories |
US11061960B2 (en) | 2016-01-04 | 2021-07-13 | Gracenote, Inc. | Generating and distributing playlists with related music and stories |
CN109496332A (en) * | 2016-07-28 | 2019-03-19 | 国立研究开发法人情报通信研究机构 | Voice dialogue device, speech dialog method and storage medium |
JP2018077599A (en) * | 2016-11-08 | 2018-05-17 | 富士ゼロックス株式会社 | Information processing device |
CN109891498A (en) * | 2016-11-08 | 2019-06-14 | 国立研究开发法人情报通信研究机构 | Speech dialogue system, voice dialogue device, user terminal and speech dialog method |
JP2019203998A (en) * | 2018-05-24 | 2019-11-28 | カシオ計算機株式会社 | Conversation device, robot, conversation device control method and program |
JP7131077B2 (en) | 2018-05-24 | 2022-09-06 | カシオ計算機株式会社 | CONVERSATION DEVICE, ROBOT, CONVERSATION DEVICE CONTROL METHOD AND PROGRAM |
JP2020046478A (en) * | 2018-09-14 | 2020-03-26 | 株式会社フュートレック | Robot system |
JP7028942B2 (en) | 2020-10-16 | 2022-03-02 | パイオニア株式会社 | Information output device and information output method |
JP2021005114A (en) * | 2020-10-16 | 2021-01-14 | パイオニア株式会社 | Information output device and information output method |
CN112720527A (en) * | 2020-12-25 | 2021-04-30 | 航天科工深圳(集团)有限公司 | Music and dance self-programming robot |
CN112720527B (en) * | 2020-12-25 | 2024-04-09 | 航天科工深圳(集团)有限公司 | Music dance self-programming robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005342862A (en) | robot | |
CN111566656B (en) | Speech translation method and system using multi-language text-to-speech synthesis models | |
CN108962217B (en) | Speech synthesis method and related equipment | |
JP4363590B2 (en) | Speech synthesis | |
US10789937B2 (en) | Speech synthesis device and method | |
WO2014192959A1 (en) | Technology for responding to remarks using speech synthesis | |
JP7363954B2 (en) | Singing synthesis system and singing synthesis method | |
JP2001215993A (en) | Device and method for interactive processing and recording medium | |
JP2003521750A (en) | Speech system | |
JP2003084800A (en) | Method and apparatus for synthesizing emotion conveyed on sound | |
JP2007183421A (en) | Speech synthesizer | |
JP6977323B2 (en) | Singing voice output method, voice response system, and program | |
Aylett et al. | Building and designing expressive speech synthesis | |
CN119783689A (en) | A 3D digital human real-time dialogue interaction system and method | |
JPH11109991A (en) | Man-machine interface system | |
WO2023225232A1 (en) | Methods for dubbing audio-video media files | |
JP2007086316A (en) | Speech synthesis apparatus, speech synthesis method, speech synthesis program, and computer-readable storage medium storing speech synthesis program | |
JP2005215888A (en) | Display device for text sentence | |
JP2001188782A (en) | Device and method for processing information and recording medium | |
JP2020003762A (en) | Simple operation voice quality conversion system | |
JP2001188788A (en) | Conversation processing apparatus and method, and recording medium | |
JP2001314649A (en) | Voice game method and apparatus, and recording medium | |
JP2005181840A (en) | Speech synthesis apparatus and speech synthesis program | |
CN119811362B (en) | An intelligent interactive robot control system | |
JP4718163B2 (en) | Audio processing apparatus, audio processing method, audio processing program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101102 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120214 |