[go: up one dir, main page]

JP2005342862A - robot - Google Patents

robot Download PDF

Info

Publication number
JP2005342862A
JP2005342862A JP2004167547A JP2004167547A JP2005342862A JP 2005342862 A JP2005342862 A JP 2005342862A JP 2004167547 A JP2004167547 A JP 2004167547A JP 2004167547 A JP2004167547 A JP 2004167547A JP 2005342862 A JP2005342862 A JP 2005342862A
Authority
JP
Japan
Prior art keywords
voice
information
music
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004167547A
Other languages
Japanese (ja)
Inventor
Shinichi Onaka
慎一 大中
Akio Yoshihashi
昭夫 吉橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Tama Art University
Original Assignee
NEC Corp
Tama Art University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, Tama Art University filed Critical NEC Corp
Priority to JP2004167547A priority Critical patent/JP2005342862A/en
Publication of JP2005342862A publication Critical patent/JP2005342862A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】 ユーザが飽きることのないように、種々の機能を持たせたロボットを提供する。
【解決手段】 ロボットを制御するロボット制御部100は、ニュースを取得するニュース取得部102と、ニュースを音声で出力する読み出し部106と、ユーザからのニュースの再出力要請を認識する音声認識部110と、ユーザからのニュースの再出力要請に応じて、読み出し部106が読み出したニュースを読み出し部106に再出力させる読み出し指示部112を含む。これにより、ユーザは、普段はBGMのようにロボットが読み上げるニュースを聞きつつ、興味があるニュースがあったときに、ロボットに話しかけることにより、そのニュースを再読させることができ、ニュースの内容を知ることができる。
【選択図】 図5
PROBLEM TO BE SOLVED: To provide a robot having various functions so that a user does not get bored.
A robot control unit 100 that controls a robot includes a news acquisition unit 102 that acquires news, a reading unit 106 that outputs the news by voice, and a voice recognition unit 110 that recognizes a re-output request from the user. And a read instruction unit 112 that causes the read unit 106 to re-output the news read by the read unit 106 in response to a news re-output request from the user. As a result, the user can read the news read by the robot, usually like BGM, and can read the news again by speaking to the robot when there is news of interest, and know the contents of the news. be able to.
[Selection] Figure 5

Description

本発明は、音声出力可能なロボットに関する。   The present invention relates to a robot capable of outputting sound.

近年、コンピュータ技術の発達により、コンピュータを応用したロボットが開発され、その一部は商品化されている。たとえば、ソニー株式会社が商品化しているAIBO(商標)や本田技研工業株式会社が開発中のASIMO(商標)などが知られている。   In recent years, with the development of computer technology, robots using computers have been developed, and some of them have been commercialized. For example, AIBO (trademark) commercialized by Sony Corporation and ASIMO (trademark) under development by Honda Motor Co., Ltd. are known.

特開2000−353012号公報JP 2000-353012 A 特開2000−200090号公報JP 2000-200090 A

人(ユーザ)とのコミュニケーションをとるためのロボットの開発も盛んに行われている。このようなロボットにおいては、ユーザが飽きることがないように、ロボットに種々のバリエーションを持たせることも必要となる。   Robots for communicating with people (users) are also being actively developed. In such a robot, it is also necessary to give the robot various variations so that the user does not get bored.

本発明は上記事情を踏まえてなされたものであり、本発明の目的は、ユーザが飽きることのないように、種々の機能を持たせたロボットを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a robot having various functions so that the user does not get bored.

本発明によれば、情報を取得する情報取得手段と、情報を音声で出力する音声出力手段と、ユーザからの情報の再出力要請に応じて、音声出力手段が出力した情報を音声出力手段に再出力させる再生手段と、を含むことを特徴とする対話型ロボットが提供される。   According to the present invention, the information acquisition means for acquiring information, the voice output means for outputting the information by voice, and the information output by the voice output means in response to the information re-output request from the user to the voice output means. And an interactive robot characterized in that the interactive robot is re-outputted.

ここで、情報とは、たとえばニュースである。情報取得手段は、種々の方法で情報を取得することができるが、たとえばネットワークを介して接続された他の端末から情報を取得することができる。本発明の対話型ロボットにおいて、音声出力手段は、情報取得手段が取得した情報を順次出力していくが、ユーザからいずれかの情報の再出力の要請があると、その情報を再出力する。これにより、ユーザは、普段はBGMのように情報を聞き流しつつ、興味のある情報があったときに、ロボットに再出力の要請を行うことにより、その情報を詳しく聞くことができる。   Here, the information is, for example, news. The information acquisition means can acquire information by various methods, but can acquire information from other terminals connected via a network, for example. In the interactive robot according to the present invention, the voice output means sequentially outputs the information acquired by the information acquisition means. When the user requests to re-output any information, the voice output means re-outputs the information. Accordingly, the user can listen to the information in detail by requesting re-output to the robot when there is interested information while listening to the information normally like BGM.

本発明の対話型ロボットは、音声出力手段が出力した情報を記憶する記憶手段をさらに含むことができ、再生手段は、ユーザからの情報の再出力要請に応じて、音声出力手段に記憶手段から該当する情報を読み出させることができる。   The interactive robot according to the present invention may further include a storage unit that stores information output by the voice output unit, and the playback unit sends the information to the voice output unit from the storage unit in response to a re-output request for information from the user. Applicable information can be read out.

本発明の対話型ロボットは、情報取得手段が取得した情報の内容を解析する解析手段をさらに含むことができる。   The interactive robot of the present invention may further include an analysis unit that analyzes the content of information acquired by the information acquisition unit.

解析手段は、情報に含まれるキーワードに基づき、その情報が「嬉しい内容か(喜)」、「怒るような内容か(怒)」、「悲しい内容か(哀)」、「楽しい内容か(楽)」等を解析する。対話型ロボットは、情報の内容の種類と、その種類に対応するキーワードとを対応づけた記憶手段を含むことができる。解析手段は、情報に含まれるキーワードと当該記憶手段に記憶されたキーワードに基づき、その情報の内容がいずれの種類に分類されるかを解析する。   Based on the keywords included in the information, the analysis means is whether the information is “happy content (joy)”, “is angry content (anger)”, “sad content (sad)”, “fun content (easy ) "Etc. are analyzed. The interactive robot can include a storage unit that associates the type of information content with a keyword corresponding to the type. The analysis unit analyzes which type of information content is classified based on the keyword included in the information and the keyword stored in the storage unit.

本発明の対話型ロボットにおいて、音声出力手段は、情報の内容に応じて、当該内容の雰囲気をユーザに伝える音声で情報を出力することができる。   In the interactive robot according to the present invention, the voice output means can output information in a voice that conveys the atmosphere of the content to the user according to the content of the information.

音声出力手段は、たとえば楽しい内容の情報は、高い声や弾むような楽しそうな声で、哀しい内容の情報は、低い声や涙声で情報を出力する。このようにすれば、ユーザは、BGMのように情報を聞き流しつつ、ロボットの音声の調子から、情報の種類を把握することができ、興味のある情報に気づきやすくなる。これにより、興味のある情報を聞き逃すことなく、その情報を詳しく知ることができる。   The voice output means outputs, for example, information with a pleasant voice such as a high voice or a bouncy voice for pleasant content information and a low voice or a tearful voice for information with a sad content. In this way, the user can grasp the type of information from the tone of the robot's voice while listening to the information like BGM, and can easily notice the information of interest. This makes it possible to know the information in detail without missing the information of interest.

本発明の対話型ロボットは、情報の内容と、当該内容の雰囲気を伝える音声情報とを対応づけて記憶する音声記憶手段をさらに含むことができ、音声出力手段は、音声記憶手段を参照して、出力する情報の内容に対応づけられた音声情報に基づき、情報を出力することができる。ここで、音声情報とは、音声のトーンや調子、リズム等である。   The interactive robot of the present invention may further include a voice storage unit that stores information contents and voice information that conveys the atmosphere of the contents in association with each other. The voice output unit refers to the voice storage unit. The information can be output based on the voice information associated with the content of the information to be output. Here, the audio information is an audio tone, tone, rhythm, and the like.

本発明の対話型ロボットは、情報の内容に応じて、当該内容の雰囲気をユーザに伝えるための演出を行う演出実行手段をさらに含むことができる。   The interactive robot according to the present invention may further include an effect execution means for performing an effect to convey the atmosphere of the content to the user according to the content of the information.

演出実行手段は、たとえば、嬉しい内容の情報のときは、対話型ロボットが踊るようにしてもよく、また、悲しい内容の情報の時は、対話型ロボットの顔に涙が流れているような光効果を演出するようにすることができる。また、演出実行手段は、情報の内容に応じて、その内容に対応する音楽を再生することもできる。このようにすれば、ユーザは、BGMのように情報を聞き流しつつ、ロボットの動作や音楽から、情報の種類を把握することができ、興味のある情報に気づきやすくなる。これにより、興味のある情報を聞き逃すことなく、その情報を詳しく知ることができる。   For example, the direction execution means may make the interactive robot dance when it is information of happy content, and light that makes tears flow on the face of the interactive robot when information is sad. An effect can be produced. In addition, the effect execution means can play music corresponding to the content according to the content of the information. In this way, the user can grasp the type of information from the movement of the robot and the music while listening to the information like BGM, and can easily notice the information of interest. This makes it possible to know the information in detail without missing the information of interest.

本発明の対話型ロボットは、情報の内容と、当該内容の雰囲気を伝える演出内容とを対応づけて記憶する演出内容記憶手段をさらに含むことができ、演出実行手段は、演出内容記憶手段を参照して、音声出力手段が出力する情報の内容に対応づけられた演出内容で演出を行うことができる。   The interactive robot of the present invention can further include an effect content storage means for storing the contents of information and the effect contents that convey the atmosphere of the content in association with each other, and the effect execution means refers to the effect content storage means Thus, it is possible to produce an effect with the production content associated with the content of the information output by the audio output means.

本発明の対話型ロボットは、情報に含まれる所定の単語を他の単語に置き換える置換手段をさらに含むことができ、音声出力手段は、置換手段が置き換えた他の単語を用いて音声を出力することができる。   The interactive robot of the present invention may further include a replacement unit that replaces a predetermined word included in the information with another word, and the voice output unit outputs a voice using the other word replaced by the replacement unit. be able to.

本発明の対話型ロボットは、置換すべき単語を記憶した記憶手段をさらに含むことができ、この記憶手段は、たとえばユーザの名前や、ユーザの家族の名前等のユーザに関する情報を記憶することができる。置換手段は、情報に含まれるたとえば固有名詞等の単語をユーザに関する情報を表す単語に置き換えることができる。このようにすれば、もとの情報がユーザに関する情報を含む情報に置き換えられるため、対話型ロボットが出力する音声を聞いた人が、楽しく感じることができる。   The interactive robot according to the present invention may further include a storage unit that stores a word to be replaced. The storage unit may store information about the user such as the name of the user and the name of the user's family. it can. The replacement means can replace a word such as a proper noun included in the information with a word representing information about the user. In this way, since the original information is replaced with information including information about the user, a person who has heard the voice output by the interactive robot can feel happily.

本発明によれば、ユーザの音声を取得する手段と、ユーザの音声をまねして同じ言葉を出力する音声出力手段と、を含むことを特徴とする対話型ロボットが提供される。   According to the present invention, there is provided an interactive robot characterized by including means for acquiring a user's voice and voice output means for imitating the user's voice and outputting the same words.

これにより、ユーザは対話型ロボットとの対話を楽しんだり、自分がどのような話し方をしているのかを客観的に知ることができる。   As a result, the user can enjoy the conversation with the interactive robot and objectively know how he / she is speaking.

本発明によれば、ユーザへの問いかけを行う音声出力手段と、問いかけに対するユーザの音声を、当該ユーザに対応づけて記憶する記憶手段と、記憶手段に記憶されたユーザの音声を解析して、当該ユーザの音声の特徴を示すパラメータを取得するパラメータ取得手段と、を含むことを特徴とする対話型ロボットが提供される。   According to the present invention, the voice output means for making an inquiry to the user, the storage means for storing the user's voice for the inquiry in association with the user, and analyzing the user's voice stored in the storage means, There is provided an interactive robot characterized by including parameter acquisition means for acquiring a parameter indicating the characteristics of the voice of the user.

ここで、音声出力手段は、普通の音声でユーザと種々の対話を行うことができる。ユーザは、対話型ロボットと対話を行うことで、楽しみながら色々な発言をする。これにより、ユーザの音声を取得しやすくなる。そのため、記憶手段には、ユーザの種々の音声が記憶されるので、パラメータ取得手段は、ユーザの音声の特徴を示すパラメータをより正確に解析することができる。   Here, the voice output means can perform various dialogs with the user with normal voice. The user makes various comments while having fun by interacting with the interactive robot. Thereby, it becomes easy to acquire a user's voice. Therefore, since various voices of the user are stored in the storage means, the parameter acquisition means can more accurately analyze the parameters indicating the characteristics of the user's voice.

本発明の対話型ロボットにおいて、音声出力手段は、ユーザのパラメータに基づき生成された音声を用いて、ユーザの音声を真似して同じ言葉を出力することができる。   In the interactive robot according to the present invention, the voice output means can output the same word by imitating the voice of the user by using the voice generated based on the user parameter.

これにより、ユーザは対話型ロボットとの対話を楽しんだり、自分がどのような話し方をしているのかを客観的に知ることができる。また、ユーザとの対話をさらに行うことができ、ユーザの音声をより多く取得することができる。パラメータ取得手段は、これに基づき、ユーザの音声の特徴を示すパラメータを再取得することもできる。   As a result, the user can enjoy the conversation with the interactive robot and objectively know how he / she is speaking. Further, it is possible to further interact with the user and to acquire more user's voice. Based on this, the parameter acquisition means can re-acquire the parameter indicating the feature of the user's voice.

本発明の対話型ロボットにおいて、特徴は、ユーザの音声のピッチ、速度、およびアクセントを含むことができる。   In the interactive robot of the present invention, the features can include the pitch, speed, and accent of the user's voice.

本発明によれば、特定の人の音声の特徴を示すパラメータを取得するパラメータ取得手段と、パラメータに基づき生成された音声を出力する音声出力手段と、を含むことを特徴とする対話型ロボットが提供される。   According to the present invention, there is provided an interactive robot comprising: a parameter acquisition unit that acquires a parameter indicating a voice characteristic of a specific person; and a voice output unit that outputs a voice generated based on the parameter. Provided.

これにより、対話型ロボットと対話をするユーザは、対話型ロボットと対話をする際に、所望の特定の人と対話をしているような気分になることができ、ロボットとの対話を楽しむことができる。   As a result, a user who interacts with an interactive robot can feel as if he / she is interacting with a desired specific person when interacting with the interactive robot, and enjoy interacting with the robot. Can do.

本発明の対話型ロボットは、特定の人の音声の特徴を示すパラメータを当該特定の人に対応づけて記憶する記憶手段と、ユーザから、対話を行いたい人の指定を受け付ける受付手段と、をさらに含むことができ、パラメータ取得手段は、記憶手段から、受付手段が受け付けた人のパラメータを取得することができる。   The interactive robot according to the present invention includes a storage unit that stores a parameter indicating a voice characteristic of a specific person in association with the specific person, and a reception unit that receives a designation of a person who wants to perform a dialogue from the user. Further, the parameter acquisition means can acquire the parameter of the person received by the reception means from the storage means.

本発明の対話型ロボットにおいて、特徴は、特定の人の音声のピッチ、速度、およびアクセントを含むことができる。   In the interactive robot of the present invention, the features can include the pitch, speed, and accent of a particular person's voice.

本発明によれば、音楽を再生する音楽再生手段と、音楽に関する情報を取得する情報取得手段と、音楽再生手段により音楽を再生する際に、当該音楽に関する情報を音声で出力する音声出力手段と、を含むことを特徴とする音楽再生ロボットが提供される。   According to the present invention, a music playback means for playing back music, an information acquisition means for acquiring information related to music, and a voice output means for outputting information related to the music by voice when the music playback means plays back music. , A music playback robot characterized by including:

これにより、ユーザは、ロボットで音楽を聴くとともに、その音楽をDJが紹介してくれているような気分で音楽を聴くことができる。   As a result, the user can listen to the music with the robot and feel as if the DJ is introducing the music.

本発明の音楽再生ロボットにおいて、情報取得手段は、音楽に含まれる当該音楽の識別情報に基づき、ネットワークを介して接続された他の端末から、当該音楽に関する情報を取得することができる。このようにすることで、情報取得手段は、その音楽に関する最新の情報を取得することができ、ユーザは最新の情報を聞くことができる。   In the music playback robot of the present invention, the information acquisition means can acquire information related to the music from another terminal connected via the network based on the identification information of the music included in the music. By doing in this way, the information acquisition means can acquire the latest information regarding the music, and the user can listen to the latest information.

本発明の音楽再生ロボットは、音楽再生手段が音楽を出力するタイミングと、音声出力手段が音楽に関する情報を音声で出力するタイミングとを制御するタイミング制御手段をさらに含むことができる。   The music playback robot of the present invention may further include timing control means for controlling the timing at which the music playback means outputs music and the timing at which the voice output means outputs information related to music in voice.

制御手段は、たとえば、音楽が始まるのと同時に音声出力手段が音楽に関する情報を出力するようにすることもでき、また音声出力手段の音声の出力が終了した後に音楽が再生されるようにすることもでき、また音楽が終わった後に、音声出力手段の音声の出力がされるようにすることもできる。   The control means can, for example, allow the audio output means to output information about music at the same time as the music starts, and to play the music after the audio output of the audio output means is finished. It is also possible to output the sound from the sound output means after the music ends.

本発明の音楽再生ロボットにおいて、タイミング制御手段は、音楽において、イントロダクションが再生されている間だけ音楽に関する情報が出力されるように、音声出力手段を制御することができる。   In the music playback robot of the present invention, the timing control means can control the sound output means so that information related to music is output only while the introduction is being played in the music.

本発明の音楽再生ロボットにおいて、情報取得手段は、音楽再生手段が音楽を再生している間に、当該音楽に関する情報、または次に再生される音楽に関する情報を取得することができる。   In the music playback robot of the present invention, the information acquisition means can acquire information related to the music or information related to the music to be reproduced next while the music playback means is reproducing music.

本発明によれば、文字で表された文字情報を取得する文字情報取得手段と、文字情報を、当該情報の意味を維持したまま所定の調子の文章に置き換える置換手段と、置換手段が置換した文章を音声出力する音声出力手段と、を含むことを特徴とする音声出力ロボットが提供される。   According to the present invention, the character information acquisition means for acquiring the character information represented by the characters, the replacement means for replacing the character information with a sentence of a predetermined tone while maintaining the meaning of the information, and the replacement means replaced There is provided a voice output robot comprising voice output means for outputting a sentence as voice.

ここで、所定の調子とは、たとえば、「ラップ調」、「古文調」、「時代劇調」等である。また、文字情報とは、たとえば電子メールである。このようにすれば、ユーザが受け取った電子メール等の文字情報を、ロボットがアレンジして音声出力するので、ユーザが楽しむことができる。   Here, the predetermined tone is, for example, “lap tone”, “old sentence tone”, “period drama tone”, or the like. The character information is e-mail, for example. In this way, since the robot arranges character information such as an e-mail received by the user and outputs the voice, the user can enjoy it.

本発明の音声出力ロボットは、調子に合致した音楽を再生する音楽再生手段をさらに含み、当該音楽再生手段は、音声出力手段が文章を出力する際に、音楽を再生することができる。   The voice output robot of the present invention further includes music playback means for playing music that matches the tone, and the music playback means can play music when the voice output means outputs a sentence.

本発明によれば、言語変換手段を有する対話型ロボットであって、少なくとも二種以上の言語を解析可能な解析手段と、ユーザからの問いかけに対して、あらかじめ設定された第一の言語で応答するとともに、ユーザからの言語の変換要求に応じて、第二の言語で応答する音声出力手段と、を含むことを特徴とする対話型ロボットが提供される。   According to the present invention, an interactive robot having language conversion means, which is an analysis means capable of analyzing at least two languages, and responds to a user's inquiry in a preset first language. In addition, an interactive robot is provided that includes voice output means that responds in a second language in response to a language conversion request from a user.

ここで、言語とは、複数国語の他、たとえば古語や方言等も含む。このようにすれば、ユーザが色々な言語でロボットと対話して楽しむことができるとともに、言語の学習をおこなうこともできる。   Here, the language includes, for example, old languages and dialects in addition to a plurality of languages. In this way, the user can enjoy interacting with the robot in various languages and can also learn the language.

本発明によれば、ロボットに種々の機能を持たせることにより、ユーザが飽きることのないようにすることができる。   According to the present invention, it is possible to prevent the user from getting bored by giving the robot various functions.

次に、本発明の実施の形態について図面を参照して詳細に説明する。
図1は、本実施の形態で用いられるロボットの構成を示すブロック図である。
ロボット20は、音声入力手段32と、画像入力手段34と、音声認識手段36と、画像認識手段38と、行動決定手段40と、記憶手段42と、音声出力手段44と、動作手段46とを有する。
Next, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a robot used in the present embodiment.
The robot 20 includes a voice input unit 32, an image input unit 34, a voice recognition unit 36, an image recognition unit 38, an action determination unit 40, a storage unit 42, a voice output unit 44, and an operation unit 46. Have.

音声入力手段32は、たとえばマイクロフォンである。画像入力手段34は、たとえばCCDカメラである。音声出力手段44は、たとえばスピーカである。動作手段46は、たとえばロボットの頭や手足を動かしたりするアクチュエータや、表情を表したりするモニタやランプである。   The voice input means 32 is, for example, a microphone. The image input means 34 is, for example, a CCD camera. The audio output means 44 is, for example, a speaker. The operation means 46 is, for example, an actuator that moves the robot's head or limbs, or a monitor or lamp that expresses a facial expression.

音声認識手段36、画像認識手段38、行動決定手段40、および記憶手段42は、後述するコントローラ10により実現される。   The voice recognition unit 36, the image recognition unit 38, the action determination unit 40, and the storage unit 42 are realized by the controller 10 described later.

図2は、本実施の形態におけるロボット20の外観(前面図)を示す図である。図3は、図2に示したロボット20の電気的構成を示す図である。以下、図2および図3を参照して説明する。   FIG. 2 is a diagram showing an appearance (front view) of the robot 20 in the present embodiment. FIG. 3 is a diagram showing an electrical configuration of the robot 20 shown in FIG. Hereinafter, a description will be given with reference to FIGS. 2 and 3.

本実施の形態において、ロボット20は、胴体部1および頭部2が連結された構成を有する。胴体部1の下部には左右に2つの車輪3がそれぞれ取り付けられている。これらの車輪3は、独立に前後に回転可能である。頭部2は、胴体部1に対して回転可能に設けられる。   In the present embodiment, the robot 20 has a configuration in which the body 1 and the head 2 are connected. Two wheels 3 are attached to the lower part of the body part 1 on the left and right. These wheels 3 can rotate back and forth independently. The head 2 is provided so as to be rotatable with respect to the body 1.

胴体部1には、ロボット20全体の制御を行うコントローラ10、ロボット20の動力源となるバッテリ11、スピーカ12、車輪3を動かすためのアクチュエータ14等が収納されている。   The body unit 1 houses a controller 10 that controls the entire robot 20, a battery 11 that is a power source of the robot 20, a speaker 12, an actuator 14 that moves the wheels 3, and the like.

頭部2には、マイクロフォン13、2つのCCDカメラ21、頭部2を回転するためのアクチュエータ22等が収納されている。   The head 2 houses a microphone 13, two CCD cameras 21, an actuator 22 for rotating the head 2, and the like.

頭部2に設けられたマイクロフォン13は、ユーザからの発話を含む周囲の音声を集音し、得られた音声信号をコントローラ10に送出する。なお、ここではロボット20がマイクロフォン13を1つだけ備える構成としているが、ロボット20は、マイクロフォン13を複数備えて、複数のマイクロフォン13から入力される音声を用いて、雑音抑圧処理等を行うこともできる。これにより、ユーザの声の認識を容易に行うことができる。   The microphone 13 provided in the head 2 collects surrounding sounds including the speech from the user, and sends the obtained sound signals to the controller 10. Here, the robot 20 is configured to include only one microphone 13, but the robot 20 includes a plurality of microphones 13 and performs noise suppression processing or the like using sound input from the plurality of microphones 13. You can also. Thereby, recognition of a user's voice can be performed easily.

頭部2に設けられた2つのCCDカメラ21は、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。ここで、2つのCCDカメラ21は、ロボット20の目に見えるように配置することができる。   The two CCD cameras 21 provided on the head 2 image the surrounding situation and send the obtained image signals to the controller 10. Here, the two CCD cameras 21 can be arranged so as to be visible to the robot 20.

コントローラ10は、CPU10Aやメモリ10Bを含む。メモリ10Bは、制御プログラムを記憶する。CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理が実行される。   The controller 10 includes a CPU 10A and a memory 10B. The memory 10B stores a control program. In the CPU 10A, various processes are executed by executing the control program stored in the memory 10B.

コントローラ10は、マイクロフォン13から得られる音声信号およびCCDカメラ21から与えられる画像信号に基づいて、周囲の状況や、ユーザからの指令を判断する。   Based on the audio signal obtained from the microphone 13 and the image signal given from the CCD camera 21, the controller 10 determines the surrounding situation and a command from the user.

さらに、コントローラ10は、ユーザからの指令の判断結果に基づいて、その後のロボット20の行動を決定する。次いで、コントローラ10は、ロボット20が決定された行動を行うように、アクチュエータ22等を駆動させる。ロボット20の頭部2を上下左右に回転させたり、ロボット20を移動または回転させる等の行動を行わせることができる。   Further, the controller 10 determines the subsequent action of the robot 20 based on the determination result of the instruction from the user. Next, the controller 10 drives the actuator 22 and the like so that the robot 20 performs the determined action. Actions such as rotating the head 2 of the robot 20 up and down, left and right, and moving or rotating the robot 20 can be performed.

また、コントローラ10は、必要に応じて、合成音を生成し、スピーカ12に供給して音声を出力させる。   Moreover, the controller 10 produces | generates a synthetic | combination sound as needed, supplies it to the speaker 12, and outputs an audio | voice.

図4は、図3のコントローラ10を詳細に示す機能ブロック図である。なお、図4に示す機能的構成は、CPU10Aが、メモリ10Bに記憶された制御プログラムを実行することにより実現される。   FIG. 4 is a functional block diagram showing the controller 10 of FIG. 3 in detail. Note that the functional configuration shown in FIG. 4 is realized by the CPU 10A executing the control program stored in the memory 10B.

コントローラ10は、外部状態を認識するセンサ入力処理部51、センサ入力処理部51の認識結果に基づいて、続く行動を決定する行動決定部52、行動決定部52の決定結果に基づいて、アクチュエータ14およびアクチュエータ22を制御する制御部53、合成音を生成する音声合成部54、音声合成部54において合成された合成音の出力を制御する出力部55、ロボットの行動を記憶している記憶部56を含む。   The controller 10 recognizes the external state based on the sensor input processing unit 51, the recognition result of the sensor input processing unit 51, the behavior determination unit 52 that determines the subsequent behavior, and the actuator 14 based on the determination result of the behavior determination unit 52. And a control unit 53 that controls the actuator 22, a speech synthesis unit 54 that generates a synthesized sound, an output unit 55 that controls the output of the synthesized sound synthesized by the speech synthesis unit 54, and a storage unit 56 that stores the behavior of the robot including.

センサ入力処理部51は、マイクロフォン13およびCCDカメラ21から得られた音声信号および画像信号等に基づいて、外部状態や、ユーザからの特定の働きかけ等を認識し、その認識結果を表す状態認識情報を、行動決定部52に通知する。   The sensor input processing unit 51 recognizes an external state, a specific action from the user, or the like based on an audio signal and an image signal obtained from the microphone 13 and the CCD camera 21, and represents state recognition information indicating the recognition result. Is notified to the action determination unit 52.

センサ入力処理部51は、CCDカメラ21から得られた画像信号を用いて画像認識処理を行う画像認識部51Aを有する。画像認識部51Aは、画像中に存在する人を検出することができ、その処理の結果、「人がいる」、「その人物に対応するID」、「その人の画像上の位置」などの画像認識結果を、状態認識情報として、行動決定部52に通知する。画像中に複数の人物が存在する場合、画像認識部51Aは、複数の人物それぞれに関する情報を行動決定部52に通知することができる。本実施の形態において、ロボット20は、2つのCCDカメラ21を有するとしたが、ロボット20は、一つのCCDカメラ21を有する構成とすることもできる。   The sensor input processing unit 51 includes an image recognition unit 51 </ b> A that performs image recognition processing using an image signal obtained from the CCD camera 21. 51 A of image recognition parts can detect the person who exists in an image, As a result of the process, "there is a person", "ID corresponding to the person", "the position on the person's image", etc. The action recognition unit 52 is notified of the image recognition result as state recognition information. When there are a plurality of persons in the image, the image recognition unit 51A can notify the action determination unit 52 of information regarding each of the plurality of persons. In the present embodiment, the robot 20 has the two CCD cameras 21, but the robot 20 may be configured to have one CCD camera 21.

さらに、センサ入力処理部51は、マイクロフォン13から得られた音声信号について音声認識を行う音声認識部51Bを有する。音声認識部51Bは、その音声認識結果としての、たとえば、「おはよう」、「こんにちは」等の言葉を、状態認識情報として、行動決定部52に通知する。   Further, the sensor input processing unit 51 includes a voice recognition unit 51B that performs voice recognition on the voice signal obtained from the microphone 13. Voice recognition unit 51B is, as a result of the voice recognition, for example, "Good morning", the words such as "Hello", as state recognition information, and notifies the action determining section 52.

行動決定部52は、センサ入力処理部51からの状態認識情報に基づいて、記憶部56を参照し、次の行動を決定する。そして、決定された行動の内容を、行動指令として制御部53に、また、合成発話指令として音声合成部54に送出する。   The behavior determination unit 52 refers to the storage unit 56 based on the state recognition information from the sensor input processing unit 51 and determines the next behavior. Then, the content of the determined action is sent to the control unit 53 as an action command and to the voice synthesis unit 54 as a synthesized utterance command.

行動決定部52は、状態認識情報として「おはよう」、「こんにちは」等の音声認識結果や、「人が一人存在する」、「その人のIDはKである」という画像認識結果を、画像認識部51A及び音声認識部51Bから受け取る。行動決定部52は、音声認識結果を受け取ると、記憶部56を参照し、その音声認識結果や事象の認識結果に対応するロボット20の動作情報を得る。また、行動決定部52は、画像認識結果を受け取ると、記憶部56を参照し、画像認識結果に含まれる人物の名前等の情報を取得する。   The action determining section 52, "Good morning" as the state recognition information, "Hello" voice recognition results and the like, "people are present one person", the image recognition result of "ID of the person is a K", image recognition Received from the unit 51A and the voice recognition unit 51B. When receiving the voice recognition result, the behavior determining unit 52 refers to the storage unit 56 and obtains the operation information of the robot 20 corresponding to the voice recognition result or the event recognition result. In addition, when receiving the image recognition result, the behavior determining unit 52 refers to the storage unit 56 and acquires information such as the name of a person included in the image recognition result.

記憶部56は、センサ入力処理部51からの状態認識情報に対応するロボット20の動作情報を記憶している。記憶部56に格納されているロボットの動作情報は、合成発話指令とロボット動作指令とから構成される。合成発話指令には、ロボットが発話すべき内容が含まれており、それは、発話すべき文字列情報であったり、現在検出している人物の名前を発話せよ、という指示であったり、または、それらの組み合わせから構成される。   The storage unit 56 stores operation information of the robot 20 corresponding to the state recognition information from the sensor input processing unit 51. The robot motion information stored in the storage unit 56 includes a synthetic utterance command and a robot motion command. The synthetic utterance command includes content to be uttered by the robot, which is character string information to be uttered, an instruction to utter the name of the currently detected person, or Composed of a combination of them.

また、記憶部56には画像認識結果として得られるIDに対応する人物の名前等の情報が格納されており、IDから人物の名前等の情報を得ることができる。   The storage unit 56 stores information such as the name of the person corresponding to the ID obtained as the image recognition result, and information such as the name of the person can be obtained from the ID.

人物識別の方法としては、顔画像を登録しておいて照合する方法も考えられるし、人物に固有のマーカを人物に装着させてそれを検出するという方法もある。また、無線ICタグを人物・物体識別に用いても良い。この場合、無線ICタグを名札などに入れて人物に持たせるとともに、物体に無線ICタグをつけ、この無線ICタグからの情報を認識する手段が別途必要となる。また、ここでは画像信号により人物を識別する例を示したが、音声信号により人物を識別することもできる。   As a method for identifying a person, a method of registering a face image and collating it can be considered, or a method of detecting a marker by attaching a marker unique to the person to the person. A wireless IC tag may be used for person / object identification. In this case, it is necessary to separately provide a means for putting a wireless IC tag in a name tag or the like and holding a person, attaching a wireless IC tag to an object, and recognizing information from the wireless IC tag. Although an example in which a person is identified by an image signal is shown here, it is also possible to identify a person by an audio signal.

行動決定部52は、記憶部56からロボットの動作情報を得ると、合成発話指令を解釈して発話文字列を生成し音声合成部54へ送出し、ロボット動作指令を制御部53へ送出する。   When the action determining unit 52 obtains the robot motion information from the storage unit 56, the behavior determining unit 52 interprets the synthesized utterance command, generates an uttered character string, sends it to the voice synthesizer 54, and sends the robot motion command to the control unit 53.

たとえば、「おはよう」という音声認識結果に対応するロボットの動作指令は、頭部2を上下に振って正面に戻すという内容であり、合成発話指令は、人物名がわかれば最初に人物名を発話し、次に、「おはようございます」という合成発話を行う、という内容である。   For example, the robot motion command corresponding to the voice recognition result of “good morning” is the content that the head 2 is shaken up and down to return to the front, and the synthetic utterance command utters the person name first if the person name is known. Next, the content is that a synthetic utterance “Good morning” is performed.

行動決定部52は、記憶部56から読み出した行動指令を制御部53および音声合成部54へ送出する。   The behavior determination unit 52 sends the behavior command read from the storage unit 56 to the control unit 53 and the voice synthesis unit 54.

制御部53は、行動決定部52から与えられた行動指令に基づいて、アクチュエータ14およびアクチュエータ22を駆動するための制御信号を生成し、これをアクチュエータ14およびアクチュエータ22へ送出する。これにより、アクチュエータ14およびアクチュエータ22は制御信号にしたがって駆動し、ロボット20は自律的に行動する。   The control unit 53 generates a control signal for driving the actuator 14 and the actuator 22 based on the behavior command given from the behavior determination unit 52, and sends this to the actuator 14 and the actuator 22. Thereby, the actuator 14 and the actuator 22 are driven according to the control signal, and the robot 20 behaves autonomously.

出力部55には、音声合成部54からの合成音のディジタルデータが供給されるようになっており、出力部55は、それらのディジタルデータを、アナログの音声信号にD/A変換し、スピーカ12に供給して出力させる。   The output unit 55 is supplied with digital data of the synthesized sound from the voice synthesizer 54. The output unit 55 performs D / A conversion of the digital data into an analog voice signal, and a speaker. 12 for output.

また、本実施の形態におけるロボット20は、音楽を再生したり、歌を歌うことも可能である。   Further, the robot 20 in the present embodiment can play music or sing a song.

つづいて、以上のような基本的な構成を備えたロボット20に、さらに種々の機能を付与した例を説明する。なお、以下で示す種々のロボット20は、図1から図4を用いて説明した上記の構成を有する。以下の説明においては、各実施の形態において特徴的な構成のみを示す。   Next, an example in which various functions are further added to the robot 20 having the above basic configuration will be described. Various robots 20 shown below have the above-described configuration described with reference to FIGS. In the following description, only the characteristic structure in each embodiment is shown.

<アナウンサーロボット>
(第一の実施の形態)
本実施の形態において、ロボット20は、ニュースを音読し、ユーザからの問いかけに答えて、必要に応じてニュースを再読する。本実施の形態におけるロボット20は、通常はユーザからある程度離れた位置にいて、種々のニュースの内容を音読している。ユーザが「今のニュース、詳しく教えて」等、ロボット20に話しかけると、ユーザのそばに寄ってきて、そのときに音読していたニュースをユーザに伝える。
<Announcer robot>
(First embodiment)
In the present embodiment, the robot 20 reads the news aloud, answers questions from the user, and rereads the news as necessary. The robot 20 in the present embodiment is usually located at a certain distance from the user and reads out various news contents aloud. When the user talks to the robot 20 such as “Present news, tell me in detail”, the user approaches the user and informs the user of the news read aloud at that time.

これにより、ユーザはBGMのようにニュースを聞きつつ、興味があるニュースがあったときに、ロボット20に話しかけることにより、そのニュースについて知ることができる。   Thereby, the user can know the news by speaking to the robot 20 when there is news of interest while listening to the news like BGM.

図5は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部100は、たとえばインターネット等のネットワーク120からニュースを取得するニュース取得部102と、ニュース取得部102が取得したニュース等を記憶するニュース記憶部108と、ニュース取得部102が取得したニュースを分類する分類処理部104と、を有する。ここで、分類処理部104は、たとえばニュースを「スポーツ」、「芸能」、「社会」、「国際」等に分類する。なお、たとえばニュース取得部102がニュースを取得するサイトで、すでにニュースの分類が行われている場合は、分類処理部104は省略することもできる。
FIG. 5 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The robot control unit 100 includes, for example, a news acquisition unit 102 that acquires news from a network 120 such as the Internet, a news storage unit 108 that stores news acquired by the news acquisition unit 102, and news acquired by the news acquisition unit 102. A classification processing unit 104 that performs classification. Here, the classification processing unit 104 classifies the news into, for example, “sports”, “entertainment”, “society”, “international” and the like. Note that, for example, when news is already classified on a site where the news acquisition unit 102 acquires news, the classification processing unit 104 may be omitted.

ロボット制御部100は、さらに、ニュース記憶部108からニュースを読み出してロボットに音読させる読み出し部106と、ユーザからの問いかけを認識する音声認識部110と、ユーザからのニュースの再読要請があったときに、読み出し部106に再度そのニュースをニュース記憶部108から読み出させる読み出し指示部112と、を含む。   The robot control unit 100 further reads out the news from the news storage unit 108 and causes the robot to read it aloud, the voice recognition unit 110 for recognizing the user's inquiry, and when there is a rereading request from the user And a reading instruction unit 112 that causes the reading unit 106 to read the news from the news storage unit 108 again.

図6は、ニュース記憶部108を詳細に示す図である。
ニュース記憶部108は、ニュース取得部102が取得したニュースを記憶する取得ニュース記憶部108aと、分類処理部104により分類されたニュースを記憶する分類済ニュース記憶部108bと、読み出し部106が読み出しているニュースを一時的に記憶するキャッシュ部108cとを含む。上述したように、ニュース取得部102がすでに分類されたニュースを取得する場合は、そのニュースは分類済ニュース記憶部108bに記憶される。
FIG. 6 is a diagram showing the news storage unit 108 in detail.
The news storage unit 108 includes an acquired news storage unit 108 a that stores the news acquired by the news acquisition unit 102, a classified news storage unit 108 b that stores the news classified by the classification processing unit 104, and a reading unit 106 that reads the news storage unit 108. And a cache unit 108c for temporarily storing the news. As described above, when the news acquisition unit 102 acquires already classified news, the news is stored in the classified news storage unit 108b.

読み出し部106は、分類済ニュース記憶部108bからニュースを読み出す。また、読み出し指示部112から指示があったときは、キャッシュ部108cからそのときに読み出していたニュースの先頭から読み出す。読み出し部106が分類済ニュース記憶部108bから読み出したニュースは、キャッシュ部108cに記憶されていく。   The reading unit 106 reads news from the classified news storage unit 108b. When there is an instruction from the read instruction unit 112, the instruction is read from the head of the news read at that time from the cache unit 108c. The news read by the reading unit 106 from the classified news storage unit 108b is stored in the cache unit 108c.

図7は、本実施の形態におけるロボット制御部100の処理手順を示すフローチャートである。
まず、ニュース取得部102がニュースを取得する(S10)。つづいて、分類処理部104が、ニュースを分類する(S12)。ロボット制御部100は、ニュースの音読開始の指示があるまで待機する(S14のNO)。ニュースの音読開始の指示があると(S14のYES)、読み出し部106は、分類済ニュース記憶部108bからニュースを読み出す(S16)。つづいて、ロボットの音声出力部(不図示)にそのニュースを音読させる(S18)。ユーザからの問いかけがあるまで(S20のNO)、分類済ニュース記憶部108bに記憶されたニュースを順次読み出し(S16)、音読する(S18)動作を続ける。この間、分類済ニュース記憶部108bから読み出されて音読されたニュースは、キャッシュ部108cに記憶されていく。
FIG. 7 is a flowchart showing a processing procedure of the robot control unit 100 in the present embodiment.
First, the news acquisition unit 102 acquires news (S10). Subsequently, the classification processing unit 104 classifies the news (S12). The robot controller 100 waits until an instruction to start reading news is received (NO in S14). When there is an instruction to start reading the news aloud (YES in S14), the reading unit 106 reads the news from the classified news storage unit 108b (S16). Subsequently, the robot's voice output unit (not shown) reads the news aloud (S18). Until there is an inquiry from the user (NO in S20), the news stored in the classified news storage unit 108b is sequentially read (S16) and read aloud (S18). During this time, the news read from the classified news storage unit 108b and read aloud is stored in the cache unit 108c.

ユーザから何らかの問いかけがあると(S20のYES)、音声認識部110は、その問いかけが、ニュースの再読要請であるか否かを判断する(S22)。再読要請である場合(S22のYES)、読み出し指示部112は、読み出し部106にキャッシュ部108cに記憶されたニュースを読み出させ、そのニュースを音読させる(S24)。   If there is any question from the user (YES in S20), the voice recognition unit 110 determines whether the question is a request for rereading news (S22). If the request is a reread request (YES in S22), the read instruction unit 112 causes the read unit 106 to read the news stored in the cache unit 108c and read the news aloud (S24).

その後、ユーザの指示等に基づき、続きのニュースを読むか否かを判断し(S26)、続きを読む場合(S26のYES)、ステップS16に戻り、同様の動作を繰り返す。   After that, based on the user's instruction or the like, it is determined whether or not to read the continued news (S26). If the continuation is read (YES in S26), the process returns to step S16 and the same operation is repeated.

一方、ステップS26において、続きを読まない場合(S26のNO)、動作を終了するか否かを判断する(S28)。動作を終了しない場合(S28のNO)とは、たとえばユーザから他の動作を求められたときであり、他の動作を行う(S30)。   On the other hand, if the continuation is not read in step S26 (NO in S26), it is determined whether or not to end the operation (S28). The case where the operation is not terminated (NO in S28) is, for example, when another operation is requested by the user, and another operation is performed (S30).

また、ステップS20において、ユーザからの問いかけが再読要請でない場合(S22のNO)、ステップS28に進み、動作の終了または他の動作を行う。ここで、たとえばステップS20において、ユーザが「静かにして」等の問いかけを行った場合は、ステップS28において動作の終了を判断し、ニュースの音読を終了する。一方、たとえばステップS20において、ユーザが「音楽を聴かせて」等の問いかけを行った場合は、音読を終了し、音楽再生等の処理(他の動作)を行う(S30)。   In step S20, when the inquiry from the user is not a re-reading request (NO in S22), the process proceeds to step S28, and the operation is terminated or another operation is performed. Here, for example, when the user makes an inquiry such as “be quiet” in step S20, the end of the operation is determined in step S28, and the reading of news is ended. On the other hand, for example, in step S20, when the user makes an inquiry such as “Let me listen to music”, reading aloud is finished, and processing (other operations) such as music reproduction is performed (S30).

また、読み出し部106は、分類済ニュース記憶部108bで分類された項目に応じて、ニュースの読み始めに「次は芸能ニュースです。」等のコメントを言うようにすることもできる。   Further, the reading unit 106 can also say a comment such as “Next is entertainment news” at the beginning of reading the news according to the items classified in the classified news storage unit 108b.

ロボット20に、以上のような機能を付与することにより、ユーザは、何かの作業をしながらロボット20が音読するニュースをBGMのように聞き流しつつ、興味があるニュースが耳に入ったときには、そのニュースを詳しく知ることができる。   By giving the above functions to the robot 20, the user listens to the news that the robot 20 reads aloud while doing something like BGM, and when the news of interest is heard in the ear, You can know the news in detail.

(第二の実施の形態)
本実施の形態におけるロボット20は、基本的に上記実施の形態と同様、ニュースを音読する。さらに、本実施の形態において、ロボット20は、ニュースに含まれるキーワード等に基づき、そのニュースの種類を解析する機能を有する。本実施の形態のロボット20は、ニュースの種類に応じて、そのニュースの種類に合致するような話し方や動作を行う。ロボット20は、たとえば、ニュースの文中に悲しい内容が含まれている場合、悲しそうにニュースを読む。また、ニュースの文中に嬉しい内容が含まれている場合、嬉しそうにニュースを読む。
(Second embodiment)
The robot 20 in this embodiment basically reads the news aloud as in the above embodiment. Further, in the present embodiment, the robot 20 has a function of analyzing the type of the news based on a keyword or the like included in the news. The robot 20 according to the present embodiment performs a way of speaking and operation that matches the type of news according to the type of news. The robot 20 reads the news sadly when, for example, sad content is included in the news text. Also, if the news text contains happy content, read the news happily.

図8は、本実施の形態におけるロボット制御部100の構成を示すブロック図である。
ロボット制御部100は、図5に示した構成に加えて、さらに、解析処理部114、キーワード記憶部115、動作制御部116、および行動パターン記憶部117を含む。
FIG. 8 is a block diagram showing a configuration of the robot control unit 100 in the present embodiment.
The robot control unit 100 further includes an analysis processing unit 114, a keyword storage unit 115, an operation control unit 116, and an action pattern storage unit 117 in addition to the configuration shown in FIG.

解析処理部114は、ニュース取得部102が取得したニュースの意味解析を行い、そのニュースが、たとえば「嬉しい内容か(喜)」、「怒るような内容か(怒)」、「悲しい内容か(哀)」、「楽しい内容か(楽)」等を解析する。キーワード記憶部115は、喜・怒・哀・楽ごとに、キーワードを記憶する。解析処理部114は、キーワード記憶部115を参照して、ニュースが喜・怒・哀・楽のいずれに該当するかを解析する。たとえば、「殺害」、「殺人」、「死亡」等のキーワードは「哀」に対応づけられる。また、「値上げ」、「不正」、「犯罪隠し」等のキーワードは「怒」に対応づけられる。解析処理部114が解析した結果は、分類済ニュース記憶部108bに記憶される。   The analysis processing unit 114 performs the semantic analysis of the news acquired by the news acquisition unit 102, and for example, whether the news is “happy content (joy)”, “why content (anger)”, “sad content ( "Sorrow"), "Is it fun (Easy)", etc. The keyword storage unit 115 stores keywords for each of joy, anger, sorrow, and comfort. The analysis processing unit 114 refers to the keyword storage unit 115 and analyzes whether the news corresponds to joy, anger, sadness, or comfort. For example, keywords such as “murder”, “murder”, and “death” are associated with “sorrow”. In addition, keywords such as “price increase”, “injustice”, and “crime concealment” are associated with “anger”. The result analyzed by the analysis processing unit 114 is stored in the classified news storage unit 108b.

図9は、分類済ニュース記憶部108bを詳細に示す図である。
分類済ニュース記憶部108bは、「分類」、「ニュース」、「種類(喜・怒・哀・楽)」の項目を有する。たとえばニュース「sport/0518/001」は、スポーツに分類されており、種類は「喜(嬉しい内容)」となっている。ここで、「喜・怒・哀・楽」のいずれかの種類であると解析されたニュースは各項目にフラグが立てられる。
FIG. 9 is a diagram showing the classified news storage unit 108b in detail.
The classified news storage unit 108b has items of “classification”, “news”, and “type (joy / anger / sorrow / easy)”. For example, the news “sport / 0518/001” is classified as a sport, and the type is “joy (joyful content)”. Here, each item is flagged in the news analyzed as being of any kind of “joy, anger, sorrow, comfort”.

たとえば、ニュース中に「殺害」、「子供」等のキーワードが含まれている場合、子供が殺害されたニュースであると判断して「哀」にフラグを立てるようにすることができる。また、ニュース中に「消費税」、「値上げ」等の言葉が含まれている場合、消費税が値上げされたニュースであると判断して、「怒」にフラグを立てるようにすることができる。特定のキーワードが含まれない場合は、いずれの項目にもフラグがたてられない。   For example, when the news includes keywords such as “killing” and “children”, it can be determined that the news is that the child has been killed, and “sorrow” can be flagged. In addition, if the news contains words such as “consumption tax” and “price increase”, it can be determined that the consumption tax has been raised and the flag “angry” can be set. . If a particular keyword is not included, no item is flagged.

図8に戻り、読み出し部106は、ニュース記憶部108からニュースを読み出すときに、フラグを参照してそのニュースの種類を判別する。動作制御部116は、ニュースの種類に応じて、ロボットが「喜・怒・哀・楽」を表すような動作を行うよう制御する。行動パターン記憶部117は、喜・怒・哀・楽ごとに、ロボット20がどのような行動をするかのパターンを記憶する。動作制御部116は、行動パターン記憶部117を参照してロボットの動作を制御する。たとえば、嬉しいニュースのときは、ロボットが踊るようにしてもよく、悲しいニュースのときは、ロボット20の顔に涙が流れているような光効果を演出するようにしてもよい。また、行動パターン記憶部117は、喜・怒・哀・楽ごとに、ロボット20の話し方が変わるように音声情報を記憶することもできる。たとえば、悲しいニュースのときは、ロボット20が涙声で話したり、低い声で話したり、声がつまるような話し方となるようにすることができる。   Returning to FIG. 8, when reading the news from the news storage unit 108, the reading unit 106 refers to the flag to determine the type of the news. The operation control unit 116 controls the robot to perform an operation representing “joy / anger / sadness / easy” according to the type of news. The action pattern storage unit 117 stores a pattern indicating what action the robot 20 performs for each of joy, anger, sorrow, and comfort. The operation control unit 116 controls the operation of the robot with reference to the behavior pattern storage unit 117. For example, when the news is happy, the robot may dance, and when the news is sad, a light effect such as tears flowing on the face of the robot 20 may be produced. In addition, the behavior pattern storage unit 117 can also store voice information so that the way the robot 20 speaks changes for each of joy, anger, sorrow, and comfort. For example, in the case of sad news, the robot 20 can speak in tears, speak in a low voice, or speak in a way that makes the voice clogged.

さらに、ここでは図示していないが、ロボット制御部100は、音楽再生部を含むこともでき、ニュースの種類に応じて、楽しいニュースには楽しい音楽がバックグランドで流れるようにしたり、悲しいニュースのときは、悲しい音楽がバックグランドで流れるように制御することができる。   Further, although not shown here, the robot control unit 100 can also include a music playback unit. Depending on the type of news, the fun control may cause fun music to flow in the background or sad news. When you can control so that sad music flows in the background.

図10は、本実施の形態におけるロボット制御部100の処理手順を示すフローチャートである。
まず、ニュース取得部102がニュースを取得する(S40)。つづいて、分類処理部104が、ニュースを分類する(S42)。その後、解析処理部114は、キーワード記憶部115を参照して、ニュースの内容を解析してそのニュースの種類を判断する(S44)。ニュースの内容が喜・怒・哀・楽のいずれかに当てはまると判断した場合、その種類に対応する箇所にフラグを立てる。
FIG. 10 is a flowchart showing a processing procedure of the robot control unit 100 in the present embodiment.
First, the news acquisition unit 102 acquires news (S40). Subsequently, the classification processing unit 104 classifies the news (S42). Thereafter, the analysis processing unit 114 refers to the keyword storage unit 115, analyzes the content of the news, and determines the type of the news (S44). If it is determined that the content of the news applies to any of joy, anger, sorrow, and ease, a flag is set at a location corresponding to the type.

ロボット制御部100は、ニュースの音読開始の指示があるまで待機する(S46のNO)。ニュースの音読開始の指示があると(S46のYES)、読み出し部106は、分類済ニュース記憶部108bからニュースを読み出す(S48)。読み出し部106は、そのニュースにフラグが立っているか否かを判断する(S50)。フラグが立っている場合(S50のYES)、動作制御部116は、行動パターン記憶部117を参照して、ロボットにそのフラグに応じた動作をするよう指示を行う(S52)。つづいて、ロボットの音声出力部(不図示)にそのニュースを音読させる(S54)。このとき、ニュースの種類に応じて、楽しそうに読んだり、悲しそうに読んだりさせる。   The robot controller 100 waits until an instruction to start reading news is received (NO in S46). When there is an instruction to start reading the news aloud (YES in S46), the reading unit 106 reads the news from the classified news storage unit 108b (S48). The reading unit 106 determines whether or not a flag is set for the news (S50). When the flag is set (YES in S50), the operation control unit 116 refers to the behavior pattern storage unit 117 and instructs the robot to perform an operation according to the flag (S52). Next, the robot's voice output unit (not shown) reads the news aloud (S54). At this time, depending on the type of news, you can read happily or sadly.

ステップS50において、いずれのフラグも立っていない場合は、普通に音読させる(S54)。ユーザからの問いかけがあるまで(S56のNO)、分類済ニュース記憶部108bに記憶されたニュースを順次読み出し(S48)、ステップS50からステップS54までの処理を繰り返す。   If none of the flags are set in step S50, it is read aloud normally (S54). Until there is an inquiry from the user (NO in S56), the news stored in the classified news storage unit 108b is sequentially read (S48), and the processing from step S50 to step S54 is repeated.

ユーザから何らかの問いかけがあると(S56のYES)、音声認識部110は、その問いかけが、ニュースの再読要請であるか否かを判断する(S58)。再読要請である場合(S58のYES)、読み出し指示部112は、読み出し部106にキャッシュ部108cに記憶されたニュースを読み出させ、そのニュースを音読させる(S60)。   If there is any question from the user (YES in S56), the voice recognition unit 110 determines whether the question is a request for rereading news (S58). If the request is a reread request (YES in S58), the read instruction unit 112 causes the read unit 106 to read the news stored in the cache unit 108c and read the news aloud (S60).

その後、ユーザの指示等に基づき、続きのニュースを読むか否かを判断し(S62)、続きを読む場合(S62のYES)、ステップS48に戻り、同様の動作を繰り返す。   Thereafter, based on the user's instruction or the like, it is determined whether or not to read the continued news (S62). When reading the continued (YES in S62), the process returns to step S48 and the same operation is repeated.

一方、ステップS62において、続きを読まない場合(S62のNO)、動作を終了するか否かを判断する(S64)。動作を終了しない場合(S64のNO)とは、たとえばユーザから他の動作を求められたときであり、他の動作を行う(S66)。   On the other hand, if the continuation is not read in step S62 (NO in S62), it is determined whether or not to end the operation (S64). The case where the operation is not terminated (NO in S64) is, for example, when another operation is requested by the user, and another operation is performed (S66).

また、ステップS58において、ユーザからの問いかけが再読要請でない場合(S58のNO)、ステップS64に進み、動作の終了または他の動作を行う。   In step S58, when the inquiry from the user is not a re-reading request (NO in S58), the process proceeds to step S64, and the operation is terminated or another operation is performed.

ロボット20に、以上のような機能を付与することにより、ユーザは、ロボット20が音読するニュースをBGMのように聞き流しつつ、ロボット20の音声の調子や動作からニュースの種類を把握することができ、興味のあるニュースに気づきやすくなる。これにより、興味のあるニュースを聞き逃すことなく、そのニュースを詳しく知ることができる。   By giving the above functions to the robot 20, the user can grasp the type of news from the tone and operation of the voice of the robot 20 while listening to the news read by the robot 20 like BGM. , Make it easier to notice interesting news. This makes it possible to know the news in detail without missing the news of interest.

なお、以上では、ロボット20がニュースをBGMのように読んでいる間もずっと、各ニュースに対応づけられたフラグを参照して、ニュースの種類に応じて喜怒哀楽を表してニュースを読む形態を説明した。しかし、ロボット20は、通常はフラグの有無に関わらずすべてのニュースを同様に音読し、ユーザの要請によりいずれかのニュースを再読するときのみ、そのニュースに対応づけられたフラグに応じて喜怒哀楽を表して読むこともできる。   In the above, while the robot 20 is reading the news like BGM, it refers to the flag associated with each news and reads the news expressing the emotions according to the type of news. Explained. However, the robot 20 normally reads all the news in the same manner regardless of the presence or absence of the flag, and is angry according to the flag associated with the news only when rereading any of the news at the request of the user. You can also read sorrow.

(第三の実施の形態)
本実施の形態において、ロボット20は、基本的に上記実施の形態と同様、ニュースを音読する。ただし、ロボット20は、ニュースをそのまま伝えるのではなく、ニュースに含まれる特定の単語を他の単語に入れ替えたりしてニュースを音読する。特定の単語とは、たとえば固有名詞等である。
(Third embodiment)
In the present embodiment, the robot 20 reads the news aloud basically as in the above embodiment. However, the robot 20 does not transmit the news as it is, but reads the news aloud by replacing a specific word included in the news with another word. The specific word is, for example, a proper noun.

以下、図5を参照して説明する。
ここでは図示していないが、ロボット制御部100は、ニュースの中から固有名詞を抽出し、他の単語に置き換える置換処理部と、置換すべき単語を記憶した記憶部とを有する。置換処理部が単語を置き換えたニュースはニュース記憶部108に記憶され、読み出し部106は、ニュース記憶部108に記憶されたニュースを読み出す。
Hereinafter, a description will be given with reference to FIG.
Although not shown here, the robot control unit 100 includes a replacement processing unit that extracts proper nouns from news and replaces them with other words, and a storage unit that stores words to be replaced. The news whose word is replaced by the replacement processing unit is stored in the news storage unit 108, and the reading unit 106 reads the news stored in the news storage unit 108.

ここで、置換すべき単語を記憶した記憶部は、たとえばユーザの名前や、ユーザの家族の名前等のユーザに関する情報を記憶することができる。本実施の形態におけるロボット20は、近くにいるユーザを認識することが可能であるので、ユーザに関する情報を適宜本当のニュース中に含まれる固有名詞と置き換えて嘘のニュースを読み上げることができる。これにより、ニュースを題材としてロボット20が読み上げるニュースをおもしろく聞くことができる。   Here, the memory | storage part which memorize | stored the word which should be substituted can memorize | store the information regarding a user, such as a user's name and a user's family name, for example. Since the robot 20 according to the present embodiment can recognize a nearby user, the information about the user can be appropriately replaced with proper nouns included in the real news, and lie news can be read aloud. This makes it possible to listen to the news read out by the robot 20 using the news as a theme.

<まねロボット>
(第四の実施の形態)
本実施の形態において、ロボット20は、ユーザと対話を行うことにより、そのユーザの音声の特徴を把握し、ユーザと同じような話し方をするようになる。
<Imitation Robot>
(Fourth embodiment)
In the present embodiment, the robot 20 grasps the characteristics of the voice of the user by interacting with the user and speaks in the same manner as the user.

図11は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部200は、対話相手のユーザを認識するユーザ認識部210と、ユーザの音声を取得する音声取得部202と、ユーザの音声を解析する音声解析部204と、音声解析部204が解析したパラメータを記憶するパラメータ記憶部206と、パラメータ記憶部206に記憶されたパラメータに基づき音声を出力する音声出力部208とを含む。
FIG. 11 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The robot control unit 200 is analyzed by the user recognition unit 210 that recognizes the user of the conversation partner, the voice acquisition unit 202 that acquires the user's voice, the voice analysis unit 204 that analyzes the user's voice, and the voice analysis unit 204. A parameter storage unit 206 that stores parameters and an audio output unit 208 that outputs audio based on the parameters stored in the parameter storage unit 206 are included.

ここで、パラメータとは、たとえば、ピッチ情報、速度、アクセント等を数値化したものである。ピッチ情報は、ピッチ周波数(基本周波数)やピッチ強度等を含む。このようなピッチ情報は、たとえばケプストラム法により抽出することができる(特許文献2)。ロボット制御部200は、特定のユーザとの対話を繰り返すことにより、そのユーザの種々の音声を取得し、これらを解析してそのユーザの音声の特徴を把握することができる。また、ロボット制御部200は、ユーザの音声からユーザが男性か女性かを判別することができ、男性または女性の声質をパラメータとすることができる。   Here, the parameter is, for example, a numerical value of pitch information, speed, accent, and the like. The pitch information includes a pitch frequency (basic frequency), pitch intensity, and the like. Such pitch information can be extracted by, for example, a cepstrum method (Patent Document 2). The robot control unit 200 can acquire various voices of the user by repeating the dialogue with the specific user, and analyze these to grasp the characteristics of the voice of the user. Further, the robot control unit 200 can determine whether the user is male or female from the user's voice, and can use the male or female voice quality as a parameter.

これにより、ユーザに対してそのユーザのまねをした話をすることができ、ユーザが楽しんだり、自分がどんな話し方をしているのかを客観的に知ることができる。   As a result, the user can talk to the user and imitate the user, and the user can enjoy and can objectively know how he / she is speaking.

また、ここで、ユーザとの対話は、ユーザの音声を取得する目的で行うこともできる。この場合、ロボット20は、普通の音声でユーザと種々の対話を行い、ユーザの音声を収集する。このとき、ユーザ認識部210によりユーザが特定されているので、ロボット20が複数のユーザと対話を行っても、ユーザごとの音声を取得することができる。音声解析部204は、ユーザごとに、ユーザの音声に基づき、そのユーザの音声の特徴を示すパラメータを算出する。このようにして取得されたユーザの音声の特徴を示すパラメータは、そのままそのロボットで用いることもできるが、たとえば記録媒体等のメディアやネットワークを介して他のロボットに転送して他のロボットで用いることもできる。   Further, here, the interaction with the user can be performed for the purpose of acquiring the user's voice. In this case, the robot 20 performs various dialogs with the user with normal voices and collects the user voices. At this time, since the user is identified by the user recognition unit 210, even if the robot 20 interacts with a plurality of users, it is possible to acquire voice for each user. The voice analysis unit 204 calculates, for each user, a parameter indicating the characteristics of the user's voice based on the user's voice. The parameters indicating the characteristics of the user's voice acquired in this way can be used as it is by the robot, but for example, transferred to another robot via a medium such as a recording medium or a network and used by the other robot. You can also.

図12は、図11に示したロボット制御部200の処理手順を示すフローチャートである。   FIG. 12 is a flowchart showing a processing procedure of the robot controller 200 shown in FIG.

まず、ユーザ認識部210は、ロボットに話しかけてきたユーザを認識する(S100)。ロボットはユーザと対話を行う(S102)。この間、音声取得部202は、ユーザに対応づけてそのユーザの音声を取得する(S104)。音声解析部204は、音声取得部202が取得した音声を解析してパラメータを算出する(S106)。音声解析部204は、算出したパラメータをユーザに対応づけてパラメータ記憶部206に記憶する(S108)。   First, the user recognition unit 210 recognizes a user who has spoken to the robot (S100). The robot interacts with the user (S102). During this time, the voice acquisition unit 202 acquires the voice of the user in association with the user (S104). The voice analysis unit 204 analyzes the voice acquired by the voice acquisition unit 202 and calculates parameters (S106). The voice analysis unit 204 stores the calculated parameter in the parameter storage unit 206 in association with the user (S108).

以上のような処理により、ユーザはロボット20と色々な対話を行うので、ユーザの音声を取得しやすくなる。また、以上の例では、ピッチ、速度、アクセント等のパラメータに基づきユーザの音声をまねした音声を出力するとしたが、ロボット制御部200は、ユーザがよくつかう言葉遣い等を記憶する記憶部をさらに含むこともでき、音声出力部208は、ユーザの言葉遣い等をまねするようにすることもできる。このようにユーザの言葉遣いを取得するためには、ユーザの会話をできるだけ多く取得する必要があるが、ロボット20と対話をすることにより、ユーザの会話をより多く取得することができる。   Through the processing as described above, the user performs various dialogs with the robot 20, so that it becomes easy to acquire the user's voice. Further, in the above example, the voice imitating the user's voice based on parameters such as pitch, speed, and accent is output. However, the robot control unit 200 further includes a storage unit that stores words used frequently by the user. The audio output unit 208 can also imitate the user's wording and the like. Thus, in order to acquire the user's wording, it is necessary to acquire as many user conversations as possible, but by interacting with the robot 20, more user conversations can be acquired.

(第五の実施の形態)
本実施の形態において、ロボット20は、図11に示したロボット制御部200で得られたようなパラメータを用いて、固有人の話し方をまねしてユーザと対話を行う。
(Fifth embodiment)
In the present embodiment, the robot 20 interacts with the user by imitating how a proper person speaks using parameters such as those obtained by the robot controller 200 shown in FIG.

図13は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部220は、固有人の音声の特徴を示すパラメータを記憶するパラメータ記憶部226と、ユーザが対話する相手の選択を受け付ける対話者選択受付部222と、対話者選択受付部222で選択を受け付けた対話者のパラメータをパラメータ記憶部226から取得するパラメータ取得部224と、パラメータ取得部224が取得したパラメータに基づき、音声を出力する音声出力部228とを含む。
FIG. 13 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The robot control unit 220 selects a parameter in the parameter storage unit 226 that stores parameters indicating the characteristics of the voice of the unique person, a dialoger selection reception unit 222 that receives selection of a partner with whom the user interacts, and a dialoger selection reception unit 222. A parameter acquisition unit 224 that acquires the parameters of the accepted conversation person from the parameter storage unit 226, and an audio output unit 228 that outputs audio based on the parameters acquired by the parameter acquisition unit 224 are included.

ここで、固有人のパラメータは、図11を参照して説明したように、ロボットとの対話を経て得た音声を解析することにより取得することもできるが、他の方法で取得した固有人の音声を解析することにより取得することもできる。また、たとえばインターネット上に著名人のパラメータを取得することができるサイトを設けて、そこからダウンロードするようにすることもできる。本実施の形態においては、パラメータはどのような方法で取得してもよい。   Here, as described with reference to FIG. 11, the parameters of the unique person can be obtained by analyzing the voice obtained through the dialogue with the robot, but the unique person parameters obtained by other methods are also available. It can also be obtained by analyzing the voice. In addition, for example, a site that can obtain parameters of celebrities on the Internet can be provided and downloaded from there. In the present embodiment, the parameters may be acquired by any method.

本実施の形態において、パラメータ記憶部226には、複数人の音声のパラメータが各人に対応づけて記憶されている。ユーザは、どの人と対話をしたいかを選択することができ、対話者選択受付部222は、ユーザからの選択を受け付ける。この選択は、たとえばロボットの表示画面に「太郎(長男)」、「次郎(次男)」、「光(孫)」等の各人の名前をボタン表示して、ユーザがいずれかのボタンを選択することにより行われてもよく、たとえばユーザが「光ちゃん」と話しかけると、「光」の音声のパラメータが選択されるようにすることもできる。   In the present embodiment, the parameter storage unit 226 stores a plurality of voice parameters in association with each person. The user can select which person he / she wants to interact with, and the dialoger selection receiving unit 222 receives a selection from the user. For this selection, for example, the name of each person such as “Taro (eldest son)”, “Jiro (second son)”, “Hikari (grandchild)” is displayed on the robot display screen, and the user selects one of the buttons. For example, when the user speaks “Hikari-chan”, the voice parameter of “Hikari” can be selected.

これにより、たとえば孫と離れて暮らしている祖父母がユーザの場合、ユーザは自分の孫と話しているような気分になることができ、ロボットへの愛着がより高まることが期待できる。   Thus, for example, when the grandparent who lives away from the grandchild is a user, the user can feel as if he / she is talking with his / her grandchild, and the attachment to the robot can be expected to be further enhanced.

また、著名人の音声のパラメータを登録しておくことにより、お気に入りの歌手や俳優と会話をしているような気分になることもできる。   Also, by registering celebrity voice parameters, you can feel like you are talking to your favorite singer or actor.

図14は、本実施の形態におけるロボット制御部220の処理手順を示すフローチャートである。   FIG. 14 is a flowchart showing a processing procedure of the robot controller 220 in the present embodiment.

対話者選択受付部222が、ユーザから対話者の選択を受け付けると(S110)、パラメータ取得部224は、パラメータ記憶部226からその対話者の音声のパラメータを読み出す(S112)。その後、音声出力部228は、パラメータ取得部224が取得した音声のパラメータに基づき生成された音声でユーザと対話を行う(S114)。   When the dialoger selection receiving unit 222 receives the selection of the dialoger from the user (S110), the parameter acquisition unit 224 reads the parameter of the voice of the dialoger from the parameter storage unit 226 (S112). After that, the voice output unit 228 performs a dialogue with the user using the voice generated based on the voice parameter acquired by the parameter acquisition unit 224 (S114).

さらに、以上の例では、ユーザが固有人の音声をまねする例を示したが、ロボット20が固有人の動作の特徴を把握し、その固有人と同じような動作をするようにすることもできる。これにより、ユーザはより特定の固有人と接しているような気分になることができる。   Furthermore, in the above example, the example in which the user imitates the sound of a proper person has been shown. However, the robot 20 may grasp the characteristics of the action of the proper person and perform the same operation as that of the proper person. it can. As a result, the user can feel as if he / she is in contact with a specific specific person.

<DJロボット>
(第六の実施の形態)
本実施の形態において、ロボット20は、音楽を再生可能に構成され、音楽の再生時にその音楽に関する情報をDJのように読み上げる。
<DJ Robot>
(Sixth embodiment)
In the present embodiment, the robot 20 is configured to be able to play music, and reads information related to the music like a DJ when playing the music.

図15は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部300は、再生する音楽の選択を受け付ける選択受付部302と、音楽情報を記憶する音楽記憶部304と、音楽記憶部304に記憶された音楽情報の中から、その音楽の曲名やアルバム名、アーティスト名等の識別情報を抽出する識別情報抽出部306とを含む。ロボット制御部300は、さらに、識別情報抽出部306が読み出した識別情報に基づき、インターネット等のネットワーク120にアクセスして識別情報に基づき、その音楽に関する情報を取得する情報取得部308と、情報取得部308が取得した情報量等に基づき、音楽に関する情報を読み上げるタイミングと音楽再生のタイミングとを制御するタイミング制御部310と、音楽を再生する音楽再生部314と、音楽に関する情報を出力する音声出力部312とを含む。
FIG. 15 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The robot control unit 300 includes a selection receiving unit 302 that receives selection of music to be played back, a music storage unit 304 that stores music information, and a music title and album of the music from the music information stored in the music storage unit 304. And an identification information extraction unit 306 that extracts identification information such as a name and an artist name. The robot control unit 300 further includes an information acquisition unit 308 that accesses the network 120 such as the Internet based on the identification information read by the identification information extraction unit 306 and acquires information related to the music based on the identification information. Based on the amount of information acquired by the unit 308, the timing control unit 310 that controls the timing of reading out information about music and the timing of music playback, the music playback unit 314 that plays back music, and the audio output that outputs information about music Part 312.

音楽記憶部304は、音楽情報をたとえばMP3の形式で記憶する。情報取得部308は、識別情報抽出部306が抽出した識別情報に基づき、その音楽やアーティストに関する最新情報等を取得する。たとえば、「今週オリコンで何位です」とか、「このアーティストのデビュー曲」等の情報を取得する。   The music storage unit 304 stores music information, for example, in the MP3 format. The information acquisition unit 308 acquires the latest information on the music and artist based on the identification information extracted by the identification information extraction unit 306. For example, information such as “How much is this week in Oricon” or “This artist's debut song” is acquired.

タイミング制御部310は、情報取得部308が取得した情報の情報量と、たとえばこれから再生する音楽のイントロダクション部分の長さとを考慮して、そのイントロダクションの間に情報を読み上げることができるような速度で音声出力部312が情報を読み上げるよう制御する。また、たとえば、音声出力部312が、情報取得部308が取得した情報を読み上げてから音楽再生部314が音楽を再生するようにすることもできる。   The timing control unit 310 considers the amount of information acquired by the information acquisition unit 308 and the length of the introduction portion of the music to be played, for example, at such a speed that the information can be read out during the introduction. The audio output unit 312 is controlled to read out information. Further, for example, the music output unit 312 may read the information acquired by the information acquisition unit 308 and then the music playback unit 314 may play back the music.

図16は、音楽の再生タイミングと情報を音声で紹介するタイミングを示すタイミングチャートである。
たとえば、図16(a)に示すように、タイミング制御部310は、音楽のイントロダクション部分で音声紹介が終わるように紹介文を短縮したり、音声の出力速度を制御したりすることができる。
FIG. 16 is a timing chart showing music playback timing and timing for introducing information by voice.
For example, as shown in FIG. 16A, the timing control unit 310 can shorten the introduction sentence so that the voice introduction ends at the introduction part of the music, or can control the output speed of the voice.

また、たとえば図16(b)に示すように、音声紹介が終了してから、音楽が始まるようにすることもできる。   Further, for example, as shown in FIG. 16B, music can be started after the voice introduction is completed.

また、たとえば図16(c)に示すように、音声紹介と音楽を同時に開始し、イントロダクションが終了して歌が始まったら音声紹介がフェイドアウトするようにすることもできる。   For example, as shown in FIG. 16C, voice introduction and music can be started at the same time, and when the introduction ends and the song starts, the voice introduction fades out.

また、図16(d)に示すように、音楽を再生した後に、その音楽の音声紹介を行うようにすることもできる。このようにすれば、音楽が再生されている間に、その音楽に関する情報を取得したり、音声紹介の編集等を行うことができる。また、たとえば外国のアーティストの音楽の場合、音楽に関する最新情報が外国語で記載されている場合もあり、音楽が再生されている間に、翻訳処理を行い、ユーザの母国語で紹介するようにすることもできる。   In addition, as shown in FIG. 16D, after music is played, the music can be introduced to the voice. In this way, information related to the music can be acquired and voice introduction editing can be performed while the music is being played. Also, for example, in the case of music by foreign artists, the latest information on music may be written in a foreign language, so that translation processing is performed while the music is being played, and it is introduced in the user's native language. You can also

また、この場合、ロボット20がユーザに「紹介聞きたい?」等の問い合わせを行い、ユーザが「聞きたい」と答えた場合のみ、音楽紹介を行うようにすることもできる。また、前回同じ音楽を再生したときから新たなニュースがあった場合のみ、ロボット20が「新しいニュースがあるよ。聞きたい?」と問い合わせを行うようにすることもできる。これにより、同じ曲を何度も聞くユーザが毎回同じ紹介を聞く羽目になるのを防ぐことができる。   In this case, it is also possible to introduce music only when the robot 20 makes an inquiry to the user such as “I want to hear introduction” and the user answers “I want to hear”. Also, the robot 20 can make an inquiry “There is new news. Want to hear?” Only when there is new news since the same music was played last time. This prevents a user who listens to the same song many times from listening to the same introduction every time.

図16(a)から図16(c)に示した例においても、たとえば前の曲を再生している間に、次の曲に関する音楽紹介を取得する等の処理を行うことができる。これにより、音楽が再生されたときに、迅速にその音楽の音声紹介を開始することができる。   Also in the example shown in FIG. 16A to FIG. 16C, for example, while playing the previous song, it is possible to perform processing such as obtaining a music introduction regarding the next song. Thereby, when music is reproduced, the voice introduction of the music can be started quickly.

図17は、本実施の形態におけるロボット制御部300の処理手順を示すフローチャートである。
まず、選択受付部302は、ユーザから再生する音楽の選択を受け付ける(S200)。たとえば、音楽記憶部304に複数の音楽情報が記憶されており、「順番に聞くモード」や「ランダムに聞くモード」等に設定されている場合は、二曲目からの音楽の選択は自動で行われる。
FIG. 17 is a flowchart showing a processing procedure of the robot controller 300 in the present embodiment.
First, the selection receiving unit 302 receives selection of music to be played back from the user (S200). For example, when a plurality of pieces of music information are stored in the music storage unit 304 and the “listen to listening mode” or “random listening mode” is set, music selection from the second song is automatically performed. Is called.

識別情報抽出部306は、選択受付部302が選択を受け付けた音楽の音楽情報から識別情報を抽出する(S202)。情報取得部308は、識別情報に基づき、その音楽に関連する情報を取得する(S204)。タイミング制御部310は、情報取得部308が取得した情報の量およびたとえば音楽のイントロダクション部分の長さ等に基づき、タイミングを算出する(S206)。タイミング制御部310が制御するタイミングで、音楽再生および音声紹介の出力を行う(S208)。   The identification information extraction unit 306 extracts the identification information from the music information of the music for which the selection reception unit 302 has received the selection (S202). The information acquisition unit 308 acquires information related to the music based on the identification information (S204). The timing control unit 310 calculates timing based on the amount of information acquired by the information acquisition unit 308 and, for example, the length of an introduction portion of music (S206). At the timing controlled by the timing control unit 310, music reproduction and voice introduction are output (S208).

ロボット20に、以上のような機能を付与することにより、ユーザは、音楽を聴きながら、その音楽に関する情報を聞くことができ、自分の好きな曲を、DJが紹介してくれているような気分で音楽を聴くことができる。   By giving the above functions to the robot 20, the user can listen to information about the music while listening to the music, and the DJ introduces his favorite song. You can listen to music in the mood.

<メール読み上げロボット>
(第七の実施の形態)
本実施の形態において、ロボット20は、電子メールを受け取ると、その電子メールをたとえば「ラップ調」、「古文調」、「時代劇調」等に置換し、置換した電子メールを各調子に合わせたリズムで読み上げる。また、ロボット20は、音楽を再生可能に構成され、電子メールを読み上げるとともに、各調子に合わせた音楽を流す。
<Mail reading robot>
(Seventh embodiment)
In the present embodiment, when the robot 20 receives the e-mail, the robot 20 replaces the e-mail with, for example, “lap style”, “old tune style”, “period drama style”, etc., and matches the replaced e-mail to each tone. Read aloud with the rhythm. Further, the robot 20 is configured to be able to reproduce music, reads out an electronic mail, and plays music in accordance with each tone.

図18は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部400は、インターネット等のネットワーク120から電子メールを受信するメール受信部402と、メール受信部402が受信した電子メールを各調子の文章に置き換える置換処理部404と、置換処理部404が電子メールを置換する際に参照する単語を記憶する単語記憶部406を有する。ロボット制御部400は、さらに、置換処理部404が置換した電子メールを音声として出力する音声出力部408と、音声出力部408が電子メールを読むときに、BGMとして流す音楽を選択する音楽選択部410と、種々の音楽を記憶する音楽記憶部412と、音楽選択部410が選択した音楽を再生する音楽再生部414とを有する。
FIG. 18 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The robot control unit 400 includes a mail receiving unit 402 that receives an e-mail from the network 120 such as the Internet, a replacement processing unit 404 that replaces the e-mail received by the mail receiving unit 402 with each tone sentence, and a replacement processing unit 404 It has the word memory | storage part 406 which memorize | stores the word referred when replacing an electronic mail. The robot control unit 400 further includes a voice output unit 408 that outputs the email replaced by the replacement processing unit 404 as a voice, and a music selection unit that selects music to be played as BGM when the voice output unit 408 reads the email. 410, a music storage unit 412 that stores various music, and a music playback unit 414 that plays back the music selected by the music selection unit 410.

ここで図示していないが、ロボット制御部400は、ロボット20にいずれの調子で電子メールを読ませるかの選択を受け付ける選択受付部や、いずれの調子で電子メールを読むかを自動的に決定する決定部を有することができる。   Although not shown in the figure, the robot control unit 400 automatically determines a selection receiving unit that accepts a selection of which tone the robot 20 should read an e-mail and which tone the e-mail is read. It can have a determination part to do.

単語記憶部406は、各調子毎に、通常の単語と置換すべき単語を記憶する。たとえば、「時代劇調」の場合、通常の単語「です」には「でござる」が対応づけられる。「時代劇調」が選択されている場合、メール受信部402が、「私は学校に行きました」という電子メールを受信すると、置換処理部404は、「私」を「せっしゃ」に、「学校」を「寺子屋」に、「行きました」を「いったでござる」と置き換え、もとの文章を「せっしゃは寺子屋に行ったでござる」と置き換える。音声出力部408は、「せっしゃは寺子屋に行ったでござる」と出力する。このとき、音楽選択部410は、時代劇でよく使われるような音楽を選択し、音楽再生部414は、音楽記憶部412からその音楽を読み出し、音声出力部408が電子メールを音声出力する際にその音楽を再生する。   The word storage unit 406 stores words to be replaced with normal words for each tone. For example, in the case of “historical drama”, the normal word “is” is associated with “dezazuru”. When “period drama” is selected, when the mail receiving unit 402 receives an e-mail “I went to school”, the replacement processing unit 404 changes “I” to “Seki”, “ “School” is replaced with “Terakoya”, “I went” is replaced with “Tandogo Gozaru”, and the original sentence is replaced with “Seksha went to Terakoya”. The audio output unit 408 outputs “She's gone to Terakoya”. At this time, the music selection unit 410 selects music that is often used in historical plays, the music playback unit 414 reads the music from the music storage unit 412, and the voice output unit 408 outputs the email as voice. To play that music.

また、たとえば「ラップ調」が選択されている場合、置換処理部404は、各文章を文節に区切り、各文節の最後に「YO!」という言葉を付けるように電子メールを置き換える。「ラップ調」が選択されている場合、メール受信部402が「今日は何をしていたの?」という電子メールを受信すると、置換処理部404は、この文章を「今日は」、「何を」、「していたの」という文節に区切り、「今日はYO!、何をYO!、していたのYO!」と置き換える。音声出力部408は、ラップのテンポで「今日はYO!、何をYO!、していたのYO!」と出力する。このとき、音楽選択部410は、ラップ音楽を選択し、音楽再生部414は、音楽記憶部412からその音楽を読み出し、音声出力部408が電子メールを音声出力する際にその音楽を再生する。   For example, when “wrapping” is selected, the replacement processing unit 404 divides each sentence into phrases and replaces the e-mail so that the word “YO!” Is added to the end of each phrase. When the “lap tone” is selected, when the mail receiving unit 402 receives an e-mail “What were you doing today?”, The replacement processing unit 404 reads this sentence as “Today”, “What? ”And“ I was doing ”, and replaced with“ Today is YO !, what was YO !, what was YO! ”. The audio output unit 408 outputs “today is YO !, what is YO !, what was YO!” At the lap tempo. At this time, the music selection unit 410 selects rap music, the music playback unit 414 reads the music from the music storage unit 412, and plays the music when the voice output unit 408 outputs the email as voice.

また、ロボット制御部400は、各調子に合わせて、ロボット20の動作を制御することもでき、ロボット20が音楽に合わせて踊るようにすることもできる。   Further, the robot control unit 400 can control the operation of the robot 20 in accordance with each tone, and can also cause the robot 20 to dance in accordance with music.

ロボット20に、以上のような機能を付与することにより、ユーザは受信した電子メールを楽しく聞くことができる。   By giving the above functions to the robot 20, the user can enjoy listening to the received e-mail.

<マルチリンガルロボット>
(第八の実施の形態)
本実施の形態において、ロボット20は、複数の言語を理解し、また複数の言語を話す。ここで、言語とは、複数国語の他、たとえば古語や方言等も含む。
<Multilingual robot>
(Eighth embodiment)
In the present embodiment, the robot 20 understands a plurality of languages and speaks a plurality of languages. Here, the language includes, for example, old languages and dialects in addition to a plurality of languages.

図19は、本実施の形態におけるロボット制御部の構成を示すブロック図である。
ロボット制御部500は、ユーザからの問いかけを入力する音声入力部502と、音声入力部502が入力した問いかけの言語と、その意味を認識する音声認識部504と、音声認識部504が認識した結果に応じて、ロボット20が応答する応答を応答例データベース510から読み出す読み出し部508と、読み出し部508が読み出した応答を音声として出力する音声出力部512とを有する。ロボット制御部500は、さらに、複数の言語の辞書を記憶する辞書記憶部506を有する。音声認識部504は、辞書記憶部506を参照して、ユーザの問いかけの意味を認識する。
FIG. 19 is a block diagram showing a configuration of the robot control unit in the present embodiment.
The robot control unit 500 includes a voice input unit 502 for inputting a question from the user, a question language input by the voice input unit 502, a voice recognition unit 504 for recognizing the meaning, and a result of recognition by the voice recognition unit 504. Accordingly, a response unit 508 that reads a response to which the robot 20 responds is read from the response example database 510, and a sound output unit 512 that outputs the response read by the read unit 508 as a sound. The robot control unit 500 further includes a dictionary storage unit 506 that stores dictionaries of a plurality of languages. The voice recognition unit 504 refers to the dictionary storage unit 506 to recognize the meaning of the user's question.

以下、ロボット20が現代語と古語を話す場合を例として説明する。
たとえば、ユーザが古語で「このごろの時」と問いかけた場合、音声認識部504は、辞書記憶部506を参照して、ユーザが古語を話していること、および「このごろの時」が現代語で「今何時?」に対応することを把握する。この問い合わせに対する応答として、応答例データベース510には、「今は○○時です」と記憶されている。図示していないが、ロボット制御部500は、計時機能を有し、読み出し部508は、「○○」の部分に現在の時刻を入れて、たとえば「今は午前2時です」と応答する。また、ロボット20は、ユーザからの古語での問いかけに対して古語で応答することもでき、この場合、読み出し部508は、辞書記憶部506を参照して、「今は午前2時です」に対応する「このごろの時は丑三つ時」という古語で応答することもできる。この場合に、ユーザが「どういう意味?」と問いかけると、音声認識部504は、ユーザが現代語で話していることを認識し、読み出し部508に「今は午前2時です」という現代語の応答例を読み出させることができる。
Hereinafter, a case where the robot 20 speaks modern language and old language will be described as an example.
For example, when the user asks “this time” in an old language, the speech recognition unit 504 refers to the dictionary storage unit 506 to indicate that the user is speaking an old language and “the time in recent times” is a modern language. Knowing what time is it? As a response to this inquiry, the response example database 510 stores “currently XX time”. Although not shown, the robot control unit 500 has a timekeeping function, and the reading unit 508 puts the current time in the “OO” portion and responds, for example, “Now is 2 AM”. In addition, the robot 20 can also respond in old language to questions from the user in the old language. In this case, the reading unit 508 refers to the dictionary storage unit 506 and reads “now at 2 am”. You can also respond with the corresponding old word “The Three Times Now”. In this case, when the user asks “What does it mean?”, The voice recognition unit 504 recognizes that the user is speaking in a modern language, and reads the modern language of “Now at 2 am” to the reading unit 508. Response examples can be read out.

また、応答例データベース510に、複数言語の応答例が記憶されていてもよく、読み出し部508は、応答例データベース510から該当する言語の応答例を読み出してもよい。   Further, response examples in a plurality of languages may be stored in the response example database 510, and the reading unit 508 may read the response examples in the corresponding language from the response example database 510.

以上と同様の処理で、たとえばユーザが日本語で話しかけた場合にロボット20が英語で返事をしたり、ユーザとロボット20が英語で会話をしたり、等の処理を行うことができる。これにより、言語学習を行うこともできる。   By the same processing as described above, for example, when the user speaks in Japanese, the robot 20 can reply in English, or the user and the robot 20 can communicate in English. Thereby, language learning can also be performed.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.

第三の実施の形態において、ロボット20がニュースの中から固有名詞を抽出し、他の単語に置き換える処理を行う機能を有するとしたが、たとえば第七の実施の形態において、取得した電子メールの中から固有名詞を抽出し、他の単語に置き換える処理を行う機能を付与することもできる。   In the third embodiment, the robot 20 has a function of extracting proper nouns from news and replacing them with other words. For example, in the seventh embodiment, It is also possible to give a function of extracting proper nouns from inside and replacing them with other words.

また、第八の実施の形態において、ロボット20が複数の言語を理解したり話したりする機能を有するとしたが、他の形態においても、ロボット20に複数の言語を理解したり話したりする機能を付与することができる。たとえば、第一の実施の形態および第二の実施の形態において、ロボットが複数の言語を理解する機能を有するようにすれば、外国語のニュースを翻訳してユーザに伝えることができる。   In the eighth embodiment, the robot 20 has a function of understanding and speaking a plurality of languages. However, in another embodiment, the robot 20 can understand and speak a plurality of languages. Can be granted. For example, in the first embodiment and the second embodiment, if the robot has a function of understanding a plurality of languages, news in a foreign language can be translated and transmitted to the user.

本実施の形態で用いられるロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the robot used by this Embodiment. 本実施の形態におけるロボットの外観(前面図)を示す図である。It is a figure which shows the external appearance (front view) of the robot in this Embodiment. 図2に示したロボットの電気的構成を示す図であるIt is a figure which shows the electrical structure of the robot shown in FIG. 図3に示したコントローラを詳細に示す機能ブロック図である。FIG. 4 is a functional block diagram showing details of the controller shown in FIG. 3. 本発明の実施の形態におけるロボット制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the robot control part in embodiment of this invention. ニュース記憶部を詳細に示す図である。It is a figure which shows a news memory | storage part in detail. 本発明の実施の形態におけるロボット制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the robot control part in embodiment of this invention. 本発明の実施の形態におけるロボット制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the robot control part in embodiment of this invention. 分類済ニュース記憶部を詳細に示す図である。It is a figure which shows a classified news storage part in detail. 本発明の実施の形態におけるロボット制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the robot control part in embodiment of this invention. 本発明の実施の形態におけるロボット制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the robot control part in embodiment of this invention. 図11に示したロボット制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the robot control part shown in FIG. 本発明の実施の形態におけるロボット制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the robot control part in embodiment of this invention. 本発明の実施の形態におけるロボット制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the robot control part in embodiment of this invention. 本発明の実施の形態におけるロボット制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the robot control part in embodiment of this invention. 音楽の再生タイミングと情報を音声で紹介するタイミングとを示すタイミングチャートである。It is a timing chart which shows the reproduction timing of music, and the timing which introduces information by voice. 本発明の実施の形態におけるロボット制御部の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the robot control part in embodiment of this invention. 本発明の実施の形態におけるロボット制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the robot control part in embodiment of this invention. 本発明の実施の形態におけるロボット制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the robot control part in embodiment of this invention.

符号の説明Explanation of symbols

1 胴体部
2 頭部
3 車輪
12 スピーカ
13 マイクロフォン
14 アクチュエータ
20 ロボット
21 CCDカメラ
22 アクチュエータ
32 音声入力手段
34 画像入力手段
36 音声認識手段
38 画像認識手段
40 行動決定手段
42 記憶手段
44 音声出力手段
46 動作手段
51 センサ入力処理部
51A 画像認識部
51B 音声認識部
52 行動決定部
53 制御部
54 音声合成部
55 出力部
56 記憶部
100 ロボット制御部
102 ニュース取得部
104 分類処理部
106 読み出し部
108 ニュース記憶部
108a 取得ニュース記憶部
108b 分類済ニュース記憶部
108c キャッシュ部
110 音声認識部
112 読み出し指示部
114 解析処理部
115 キーワード記憶部
116 動作制御部
117 行動パターン記憶部
120 ネットワーク
200 ロボット制御部
202 音声取得部
204 音声解析部
206 パラメータ記憶部
208 音声出力部
220 ロボット制御部
222 対話者選択受付部
224 パラメータ取得部
226 パラメータ記憶部
228 音声出力部
300 ロボット制御部
302 選択受付部
304 音楽記憶部
306 識別情報抽出部
308 情報取得部
310 タイミング制御部
312 音声出力部
314 音楽再生部
400 ロボット制御部
402 メール受信部
404 置換処理部
406 単語記憶部
408 音声出力部
410 音楽選択部
412 音楽記憶部
414 音楽再生部
500 ロボット制御部
502 音声入力部
504 音声認識部
506 辞書記憶部
508 読み出し部
510 応答例データベース
512 音声出力部
DESCRIPTION OF SYMBOLS 1 Body part 2 Head 3 Wheel 12 Speaker 13 Microphone 14 Actuator 20 Robot 21 CCD camera 22 Actuator 32 Voice input means 34 Image input means 36 Voice recognition means 38 Image recognition means 40 Action determination means 42 Storage means 44 Voice output means 46 Operation Means 51 Sensor input processing unit 51A Image recognition unit 51B Speech recognition unit 52 Action determination unit 53 Control unit 54 Speech synthesis unit 55 Output unit 56 Storage unit 100 Robot control unit 102 News acquisition unit 104 Classification processing unit 106 Reading unit 108 News storage unit 108a Acquired news storage unit 108b Classified news storage unit 108c Cache unit 110 Speech recognition unit 112 Read instruction unit 114 Analysis processing unit 115 Keyword storage unit 116 Operation control unit 117 Action pattern storage unit 120 Network 200 Robot control unit 202 Audio acquisition unit 204 Audio analysis unit 206 Parameter storage unit 208 Audio output unit 220 Robot control unit 222 Dialogue person selection reception unit 224 Parameter acquisition unit 226 Parameter storage unit 228 Audio output unit 300 Robot control unit 302 Selection reception Unit 304 music storage unit 306 identification information extraction unit 308 information acquisition unit 310 timing control unit 312 voice output unit 314 music playback unit 400 robot control unit 402 mail reception unit 404 replacement processing unit 406 word storage unit 408 voice output unit 410 music selection unit 412 Music storage unit 414 Music playback unit 500 Robot control unit 502 Voice input unit 504 Voice recognition unit 506 Dictionary storage unit 508 Reading unit 510 Response example database 512 Voice output unit

Claims (23)

情報を取得する情報取得手段と、
前記情報を音声で出力する音声出力手段と、
ユーザからの前記情報の再出力要請に応じて、前記音声出力手段が出力した前記情報を前記音声出力手段に再出力させる再生手段と、
を含むことを特徴とする対話型ロボット。
Information acquisition means for acquiring information;
Voice output means for outputting the information by voice;
In response to a request for re-outputting the information from the user, reproduction means for causing the sound output means to re-output the information output by the sound output means;
An interactive robot characterized by including:
請求項1に記載の対話型ロボットにおいて、
前記音声出力手段が出力した前記情報を記憶する記憶手段をさらに含み、
前記再生手段は、前記ユーザからの前記情報の再出力要請に応じて、前記音声出力手段に前記記憶手段から該当する前記情報を読み出させることを特徴とする対話型ロボット。
The interactive robot according to claim 1,
And further comprising storage means for storing the information output by the audio output means,
The interactive robot according to claim 1, wherein the reproduction unit causes the audio output unit to read out the corresponding information from the storage unit in response to a re-output request of the information from the user.
請求項1または請求項2に記載の対話型ロボットにおいて、
前記音声出力手段は、前記情報の内容に応じて、当該内容の雰囲気をユーザに伝える音声で前記情報を出力することを特徴とする対話型ロボット。
The interactive robot according to claim 1 or 2,
The interactive robot characterized in that the voice output means outputs the information in a voice that conveys the atmosphere of the content to the user according to the content of the information.
請求項3に記載の対話型ロボットにおいて、
前記情報の内容と、当該内容の雰囲気を伝える音声情報とを対応づけて記憶する音声記憶手段をさらに含み、
前記音声出力手段は、前記音声記憶手段を参照して、出力する前記情報の内容に対応づけられた音声情報に基づき、前記情報を出力することを特徴とする対話型ロボット。
The interactive robot according to claim 3, wherein
A voice storage means for storing the contents of the information and voice information conveying the atmosphere of the contents in association with each other;
The interactive robot characterized in that the voice output means outputs the information based on voice information associated with the content of the information to be output with reference to the voice storage means.
請求項1乃至4いずれかに記載の対話型ロボットにおいて、
前記情報の内容に応じて、当該内容の雰囲気をユーザに伝えるための演出を行う演出実行手段をさらに含むことを特徴とする対話型ロボット。
The interactive robot according to any one of claims 1 to 4,
An interactive robot characterized by further including an effect execution means for performing an effect to convey the atmosphere of the content to the user according to the content of the information.
請求項5に記載の対話型ロボットにおいて、
前記情報の内容と、当該内容の雰囲気を伝える演出内容とを対応づけて記憶する演出内容記憶手段をさらに含み、
前記演出実行手段は、前記演出内容記憶手段を参照して、前記音声出力手段が出力する前記情報の内容に対応づけられた演出内容で前記演出を行うことを特徴とする対話型ロボット。
The interactive robot according to claim 5, wherein
Production content storage means for storing the content of the information and production content that conveys the atmosphere of the content in association with each other;
The interactive robot characterized in that the effect execution means refers to the effect content storage means and performs the effect with the effect contents associated with the content of the information output by the audio output means.
請求項1乃至6いずれかに記載の対話型ロボットにおいて、
前記情報取得手段が取得した前記情報の内容を解析する解析手段をさらに含むことを特徴とする対話型ロボット。
The interactive robot according to any one of claims 1 to 6,
An interactive robot characterized by further comprising an analysis means for analyzing the content of the information acquired by the information acquisition means.
請求項1乃至7いずれかに記載の対話型ロボットにおいて、
前記情報に含まれる所定の単語を他の単語に置き換える置換手段をさらに含み、
前記音声出力手段は、前記置換手段が置き換えた前記他の単語を用いて音声を出力することを特徴とする対話型ロボット。
The interactive robot according to any one of claims 1 to 7,
A replacement unit that replaces the predetermined word included in the information with another word;
The interactive robot characterized in that the voice output means outputs a voice using the other word replaced by the replacement means.
ユーザの音声を取得する手段と、
前記ユーザの音声をまねして同じ言葉を出力する音声出力手段と、
を含むことを特徴とする対話型ロボット。
Means for obtaining the user's voice;
Voice output means for imitating the user's voice and outputting the same words;
An interactive robot characterized by including:
ユーザへの問いかけを行う音声出力手段と、
前記問いかけに対する前記ユーザの音声を、当該ユーザに対応づけて記憶する記憶手段と、
前記記憶手段に記憶された前記ユーザの音声を解析して、当該ユーザの音声の特徴を示すパラメータを取得するパラメータ取得手段と、
を含むことを特徴とする対話型ロボット。
A voice output means for asking a user;
Storage means for storing the voice of the user in response to the inquiry in association with the user;
Analyzing the user's voice stored in the storage means and acquiring parameters indicating the characteristics of the user's voice;
An interactive robot characterized by including:
請求項10に記載の対話型ロボットにおいて、
前記音声出力手段は、前記ユーザのパラメータに基づき生成された音声を用いて、前記ユーザの音声を真似して同じ言葉を出力することを特徴とする対話型ロボット。
The interactive robot according to claim 10, wherein
The interactive robot characterized in that the voice output means imitates the user's voice and outputs the same words using the voice generated based on the user's parameters.
請求項10または11に記載の対話型ロボットにおいて、
前記特徴は、ユーザの音声のピッチ、速度、およびアクセントを含むことを特徴とする対話型ロボット。
The interactive robot according to claim 10 or 11,
The interactive robot characterized in that the features include the pitch, speed, and accent of the user's voice.
特定の人の音声の特徴を示すパラメータを取得するパラメータ取得手段と、
前記パラメータに基づき生成された音声を出力する音声出力手段と、
を含むことを特徴とする対話型ロボット。
Parameter acquisition means for acquiring parameters indicating the characteristics of a specific person's voice;
Audio output means for outputting audio generated based on the parameters;
An interactive robot characterized by including:
請求項13に記載の対話型ロボットにおいて、
特定の人の音声の特徴を示すパラメータを当該特定の人に対応づけて記憶する記憶手段と、
ユーザから、対話を行いたい人の指定を受け付ける受付手段と、
をさらに含み、
前記パラメータ取得手段は、前記記憶手段から、前記受付手段が受け付けた人の前記パラメータを取得することを特徴とする対話型ロボット。
The interactive robot according to claim 13, wherein
Storage means for storing parameters indicating characteristics of a specific person's voice in association with the specific person;
An accepting means for accepting designation of a person who wants to interact with the user;
Further including
The interactive robot characterized in that the parameter acquisition means acquires the parameters of the person received by the reception means from the storage means.
請求項13または14に記載の対話型ロボットにおいて、
前記特徴は、前記特定の人の音声のピッチ、速度、およびアクセントを含むことを特徴とする対話型ロボット。
The interactive robot according to claim 13 or 14,
The interactive robot characterized in that the features include pitch, speed, and accent of the voice of the specific person.
音楽を再生する音楽再生手段と、
前記音楽に関する情報を取得する情報取得手段と、
前記音楽再生手段により音楽を再生する際に、当該音楽に関する情報を音声で出力する音声出力手段と、
を含むことを特徴とする音楽再生ロボット。
Music playback means for playing music,
Information acquisition means for acquiring information about the music;
An audio output means for outputting information related to the music by voice when the music is played by the music playback means;
A music playback robot characterized by including:
請求項16に記載の音楽再生ロボットにおいて、
前記情報取得手段は、前記音楽に含まれる当該音楽の識別情報に基づき、ネットワークを介して接続された他の端末から、当該音楽に関する情報を取得することを特徴とする音楽再生ロボット。
The music playback robot according to claim 16, wherein
The said information acquisition means acquires the information regarding the said music from the other terminal connected via the network based on the identification information of the said music contained in the said music, The music reproduction robot characterized by the above-mentioned.
請求項16または17に記載の音楽再生ロボットにおいて、
前記音楽再生手段が前記音楽を出力するタイミングと、前記音声出力手段が前記音楽に関する情報を音声で出力するタイミングとを制御するタイミング制御手段をさらに含むことを特徴とする音楽再生ロボット。
The music playback robot according to claim 16 or 17,
A music reproducing robot, further comprising timing control means for controlling a timing at which the music reproducing means outputs the music and a timing at which the audio output means outputs information related to the music by voice.
請求項18に記載の音楽再生ロボットにおいて、
前記タイミング制御手段は、前記音楽において、イントロダクションが再生されている間だけ前記音楽に関する情報が出力されるように、前記音声出力手段を制御することを特徴とする音楽再生ロボット。
The music playback robot according to claim 18, wherein
The music reproduction robot according to claim 1, wherein the timing control means controls the sound output means so that information relating to the music is output only while the introduction is being reproduced in the music.
請求項16乃至19いずれかに記載の音楽再生ロボットにおいて、
前記情報取得手段は、前記音楽再生手段が音楽を再生している間に、当該音楽に関する情報、または次に再生される音楽に関する情報を取得することを特徴とする音楽再生ロボット。
The music playback robot according to any one of claims 16 to 19,
The information acquisition means acquires information relating to the music or information relating to music to be reproduced next while the music reproduction means is reproducing music.
文字で表された文字情報を取得する文字情報取得手段と、
前記文字情報を、当該情報の意味を維持したまま所定の調子の文章に置き換える置換手段と、
前記置換手段が置換した文章を音声出力する音声出力手段と、
を含むことを特徴とする音声出力ロボット。
Character information acquisition means for acquiring character information represented by characters;
Replacement means for replacing the character information with a sentence of a predetermined tone while maintaining the meaning of the information;
Voice output means for outputting the sentence replaced by the replacement means by voice;
A voice output robot comprising:
請求項21に記載の音声出力ロボットにおいて、
前記調子に合致した音楽を再生する音楽再生手段をさらに含み、
当該音楽再生手段は、前記音声出力手段が前記文章を出力する際に、音楽を再生することを特徴とする音声出力ロボット。
The voice output robot according to claim 21, wherein
Music reproduction means for reproducing music that matches the tone,
The music output robot according to claim 1, wherein the music playback means plays music when the voice output means outputs the text.
言語変換手段を有する対話型ロボットであって、
少なくとも二種以上の言語を解析可能な解析手段と、
ユーザからの問いかけに対して、あらかじめ設定された第一の言語で応答するとともに、ユーザからの言語の変換要求に応じて、第二の言語で応答する音声出力手段と、
を含むことを特徴とする対話型ロボット。
An interactive robot having language conversion means,
An analysis means capable of analyzing at least two kinds of languages;
A voice output unit that responds to a user's inquiry in a preset first language and responds in a second language in response to a language conversion request from the user;
An interactive robot characterized by including:
JP2004167547A 2004-06-04 2004-06-04 robot Pending JP2005342862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004167547A JP2005342862A (en) 2004-06-04 2004-06-04 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004167547A JP2005342862A (en) 2004-06-04 2004-06-04 robot

Publications (1)

Publication Number Publication Date
JP2005342862A true JP2005342862A (en) 2005-12-15

Family

ID=35495692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004167547A Pending JP2005342862A (en) 2004-06-04 2004-06-04 robot

Country Status (1)

Country Link
JP (1) JP2005342862A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172745A (en) * 2005-12-22 2007-07-05 Nec Electronics Corp Music reproducing device, program and music selecting method
JP2007200495A (en) * 2006-01-27 2007-08-09 Nec Corp Music reproduction apparatus, music reproduction method and music reproduction program
US7262669B2 (en) 2004-12-30 2007-08-28 Hynix Semiconductor Inc. Control circuit for refresh oscillator
WO2008093841A1 (en) * 2007-02-02 2008-08-07 Zmp Inc. Reproduction log analysis program, terminal device, and autonomously moving type robot
JP2010131748A (en) * 2008-12-08 2010-06-17 Korea Electronics Telecommun Apparatus and method for controlling multi-robot linked in virtual space
JP2011237621A (en) * 2010-05-11 2011-11-24 Honda Motor Co Ltd Robot
JP2013113966A (en) * 2011-11-28 2013-06-10 Toyota Motor Corp Interaction device, interaction method, interactive program
JP2014052630A (en) * 2012-09-05 2014-03-20 Honda Motor Co Ltd Sound processing device, sound processing method and sound processing program
JP2015524934A (en) * 2012-04-04 2015-08-27 アルデバラン ロボティクス Robot capable of incorporating natural dialogue with a user into the behavior of the robot, and method for programming and using the robot
JP2016522465A (en) * 2013-03-15 2016-07-28 ジボ インコーポレイテッド Apparatus and method for providing a persistent companion device
JP2016198859A (en) * 2015-04-10 2016-12-01 ヴイストン株式会社 Robot, robot control method and robot system
WO2016203965A1 (en) * 2015-06-17 2016-12-22 Cocoro Sb株式会社 Emotion control system, system, and program
JPWO2016068262A1 (en) * 2014-10-29 2017-08-10 京セラ株式会社 Communication robot
JP2017215603A (en) * 2012-06-18 2017-12-07 エイディシーテクノロジー株式会社 Response request device
JP2018077599A (en) * 2016-11-08 2018-05-17 富士ゼロックス株式会社 Information processing device
JP2019504353A (en) * 2016-01-04 2019-02-14 グレースノート インコーポレイテッド Generation and distribution of playlists with music and stories with relevant atmosphere
CN109496332A (en) * 2016-07-28 2019-03-19 国立研究开发法人情报通信研究机构 Voice dialogue device, speech dialog method and storage medium
CN109891498A (en) * 2016-11-08 2019-06-14 国立研究开发法人情报通信研究机构 Speech dialogue system, voice dialogue device, user terminal and speech dialog method
US10343884B2 (en) 2015-07-10 2019-07-09 E. & J. Gallo Winery System and method for dispensing a beverage
JP2019203998A (en) * 2018-05-24 2019-11-28 カシオ計算機株式会社 Conversation device, robot, conversation device control method and program
JP2020046478A (en) * 2018-09-14 2020-03-26 株式会社フュートレック Robot system
JP2021005114A (en) * 2020-10-16 2021-01-14 パイオニア株式会社 Information output device and information output method
CN112720527A (en) * 2020-12-25 2021-04-30 航天科工深圳(集团)有限公司 Music and dance self-programming robot

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6318458A (en) * 1986-07-10 1988-01-26 Nec Corp Method and apparatus for extracting feeling information
JPH11327872A (en) * 1998-05-18 1999-11-30 Nippon Telegr & Teleph Corp <Ntt> E-mail presentation method, e-mail terminal, and storage medium storing e-mail presentation program
JP2001343979A (en) * 2000-03-20 2001-12-14 Matsushita Electric Ind Co Ltd Music / information providing device used in the car
JP2002205291A (en) * 2000-10-23 2002-07-23 Sony Corp Leg type robot and movement control method for leg type robot, as well as recording medium
JP2002307354A (en) * 2000-11-07 2002-10-23 Sega Toys:Kk Electronic toys
JP2002328693A (en) * 2001-05-03 2002-11-15 Sony Corp Robot system, robot apparatus and its control method
JP2003150186A (en) * 2001-11-16 2003-05-23 Nippon Telegr & Teleph Corp <Ntt> Robot system, robot control method, robot control device, and robot control program
JP2003202885A (en) * 2001-12-28 2003-07-18 Canon Electronics Inc Information processor and information processing method
JP2003308142A (en) * 2002-04-17 2003-10-31 Seiko Epson Corp Message processing system, voice signal processing system, message processing equipment, message transmission terminal, voice signal processing equipment, message processing program, voice signal processing program, equipment program, terminal program and message data structure, message processing method, voice Signal processing method and message generation method
JP2003340166A (en) * 2002-05-29 2003-12-02 Nec Corp Robot device, control method of robot device and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6318458A (en) * 1986-07-10 1988-01-26 Nec Corp Method and apparatus for extracting feeling information
JPH11327872A (en) * 1998-05-18 1999-11-30 Nippon Telegr & Teleph Corp <Ntt> E-mail presentation method, e-mail terminal, and storage medium storing e-mail presentation program
JP2001343979A (en) * 2000-03-20 2001-12-14 Matsushita Electric Ind Co Ltd Music / information providing device used in the car
JP2002205291A (en) * 2000-10-23 2002-07-23 Sony Corp Leg type robot and movement control method for leg type robot, as well as recording medium
JP2002307354A (en) * 2000-11-07 2002-10-23 Sega Toys:Kk Electronic toys
JP2002328693A (en) * 2001-05-03 2002-11-15 Sony Corp Robot system, robot apparatus and its control method
JP2003150186A (en) * 2001-11-16 2003-05-23 Nippon Telegr & Teleph Corp <Ntt> Robot system, robot control method, robot control device, and robot control program
JP2003202885A (en) * 2001-12-28 2003-07-18 Canon Electronics Inc Information processor and information processing method
JP2003308142A (en) * 2002-04-17 2003-10-31 Seiko Epson Corp Message processing system, voice signal processing system, message processing equipment, message transmission terminal, voice signal processing equipment, message processing program, voice signal processing program, equipment program, terminal program and message data structure, message processing method, voice Signal processing method and message generation method
JP2003340166A (en) * 2002-05-29 2003-12-02 Nec Corp Robot device, control method of robot device and program

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7262669B2 (en) 2004-12-30 2007-08-28 Hynix Semiconductor Inc. Control circuit for refresh oscillator
JP2007172745A (en) * 2005-12-22 2007-07-05 Nec Electronics Corp Music reproducing device, program and music selecting method
JP2007200495A (en) * 2006-01-27 2007-08-09 Nec Corp Music reproduction apparatus, music reproduction method and music reproduction program
WO2008093841A1 (en) * 2007-02-02 2008-08-07 Zmp Inc. Reproduction log analysis program, terminal device, and autonomously moving type robot
JP2010131748A (en) * 2008-12-08 2010-06-17 Korea Electronics Telecommun Apparatus and method for controlling multi-robot linked in virtual space
JP2011237621A (en) * 2010-05-11 2011-11-24 Honda Motor Co Ltd Robot
JP2013113966A (en) * 2011-11-28 2013-06-10 Toyota Motor Corp Interaction device, interaction method, interactive program
JP2015524934A (en) * 2012-04-04 2015-08-27 アルデバラン ロボティクス Robot capable of incorporating natural dialogue with a user into the behavior of the robot, and method for programming and using the robot
US10052769B2 (en) 2012-04-04 2018-08-21 Softbank Robotics Europe Robot capable of incorporating natural dialogues with a user into the behaviour of same, and methods of programming and using said robot
JP2017215603A (en) * 2012-06-18 2017-12-07 エイディシーテクノロジー株式会社 Response request device
JP2014052630A (en) * 2012-09-05 2014-03-20 Honda Motor Co Ltd Sound processing device, sound processing method and sound processing program
JP2016522465A (en) * 2013-03-15 2016-07-28 ジボ インコーポレイテッド Apparatus and method for providing a persistent companion device
US10366689B2 (en) 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
JPWO2016068262A1 (en) * 2014-10-29 2017-08-10 京セラ株式会社 Communication robot
JP2016198859A (en) * 2015-04-10 2016-12-01 ヴイストン株式会社 Robot, robot control method and robot system
US10486312B2 (en) 2015-04-10 2019-11-26 Vstone Co., Ltd. Robot, robot control method, and robot system
CN107924482A (en) * 2015-06-17 2018-04-17 情感爱思比株式会社 Emotional control system, system and program
JP2017010133A (en) * 2015-06-17 2017-01-12 Cocoro Sb株式会社 Emotion control system, system and program
WO2016203965A1 (en) * 2015-06-17 2016-12-22 Cocoro Sb株式会社 Emotion control system, system, and program
US10343884B2 (en) 2015-07-10 2019-07-09 E. & J. Gallo Winery System and method for dispensing a beverage
JP2019504353A (en) * 2016-01-04 2019-02-14 グレースノート インコーポレイテッド Generation and distribution of playlists with music and stories with relevant atmosphere
US11017021B2 (en) 2016-01-04 2021-05-25 Gracenote, Inc. Generating and distributing playlists with music and stories having related moods
US11921779B2 (en) 2016-01-04 2024-03-05 Gracenote, Inc. Generating and distributing a replacement playlist
US10706099B2 (en) 2016-01-04 2020-07-07 Gracenote, Inc. Generating and distributing playlists with music and stories having related moods
US11868396B2 (en) 2016-01-04 2024-01-09 Gracenote, Inc. Generating and distributing playlists with related music and stories
US11061960B2 (en) 2016-01-04 2021-07-13 Gracenote, Inc. Generating and distributing playlists with related music and stories
CN109496332A (en) * 2016-07-28 2019-03-19 国立研究开发法人情报通信研究机构 Voice dialogue device, speech dialog method and storage medium
JP2018077599A (en) * 2016-11-08 2018-05-17 富士ゼロックス株式会社 Information processing device
CN109891498A (en) * 2016-11-08 2019-06-14 国立研究开发法人情报通信研究机构 Speech dialogue system, voice dialogue device, user terminal and speech dialog method
JP2019203998A (en) * 2018-05-24 2019-11-28 カシオ計算機株式会社 Conversation device, robot, conversation device control method and program
JP7131077B2 (en) 2018-05-24 2022-09-06 カシオ計算機株式会社 CONVERSATION DEVICE, ROBOT, CONVERSATION DEVICE CONTROL METHOD AND PROGRAM
JP2020046478A (en) * 2018-09-14 2020-03-26 株式会社フュートレック Robot system
JP7028942B2 (en) 2020-10-16 2022-03-02 パイオニア株式会社 Information output device and information output method
JP2021005114A (en) * 2020-10-16 2021-01-14 パイオニア株式会社 Information output device and information output method
CN112720527A (en) * 2020-12-25 2021-04-30 航天科工深圳(集团)有限公司 Music and dance self-programming robot
CN112720527B (en) * 2020-12-25 2024-04-09 航天科工深圳(集团)有限公司 Music dance self-programming robot

Similar Documents

Publication Publication Date Title
JP2005342862A (en) robot
CN111566656B (en) Speech translation method and system using multi-language text-to-speech synthesis models
CN108962217B (en) Speech synthesis method and related equipment
JP4363590B2 (en) Speech synthesis
US10789937B2 (en) Speech synthesis device and method
WO2014192959A1 (en) Technology for responding to remarks using speech synthesis
JP7363954B2 (en) Singing synthesis system and singing synthesis method
JP2001215993A (en) Device and method for interactive processing and recording medium
JP2003521750A (en) Speech system
JP2003084800A (en) Method and apparatus for synthesizing emotion conveyed on sound
JP2007183421A (en) Speech synthesizer
JP6977323B2 (en) Singing voice output method, voice response system, and program
Aylett et al. Building and designing expressive speech synthesis
CN119783689A (en) A 3D digital human real-time dialogue interaction system and method
JPH11109991A (en) Man-machine interface system
WO2023225232A1 (en) Methods for dubbing audio-video media files
JP2007086316A (en) Speech synthesis apparatus, speech synthesis method, speech synthesis program, and computer-readable storage medium storing speech synthesis program
JP2005215888A (en) Display device for text sentence
JP2001188782A (en) Device and method for processing information and recording medium
JP2020003762A (en) Simple operation voice quality conversion system
JP2001188788A (en) Conversation processing apparatus and method, and recording medium
JP2001314649A (en) Voice game method and apparatus, and recording medium
JP2005181840A (en) Speech synthesis apparatus and speech synthesis program
CN119811362B (en) An intelligent interactive robot control system
JP4718163B2 (en) Audio processing apparatus, audio processing method, audio processing program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120214