[go: up one dir, main page]

JP2001188788A - Conversation processing apparatus and method, and recording medium - Google Patents

Conversation processing apparatus and method, and recording medium

Info

Publication number
JP2001188788A
JP2001188788A JP37577199A JP37577199A JP2001188788A JP 2001188788 A JP2001188788 A JP 2001188788A JP 37577199 A JP37577199 A JP 37577199A JP 37577199 A JP37577199 A JP 37577199A JP 2001188788 A JP2001188788 A JP 2001188788A
Authority
JP
Japan
Prior art keywords
user
unit
parameter
input
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP37577199A
Other languages
Japanese (ja)
Other versions
JP2001188788A5 (en
Inventor
Seiichi Aoyanagi
誠一 青柳
Koji Asano
康治 浅野
Miyuki Tanaka
幸 田中
Jun Yokono
順 横野
Toshio Oe
敏生 大江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP37577199A priority Critical patent/JP2001188788A/en
Publication of JP2001188788A publication Critical patent/JP2001188788A/en
Publication of JP2001188788A5 publication Critical patent/JP2001188788A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

(57)【要約】 【課題】 ユーザに変化に富んだ対応の対話を供給す
る。 【解決手段】 ユーザの音声などにより言語情報入力部
41に入力された情報は、言語処理部42により、言語処
理される。対話管理部43は、言語処理部42による処
理結果と、パラメータ記憶部44に記憶されているパラ
メータに基づき、対話文の元となるデータを作成し、応
答生成部45に出力する。応答生成部45は、対話管理
部43からのデータに基づき、また、反応生成部47の
指示に従い、応答文を生成し、発話する。パラメータ記
憶部44に記憶されているパラメータは、パラメータ更
新部46により、さまざまな条件により、動的に更新さ
れる。
(57) [Summary] [Problem] To provide a user with a variety of corresponding dialogues. SOLUTION: Information input to a language information input unit 41 by a user's voice or the like is subjected to language processing by a language processing unit 42. The dialogue management unit 43 creates data as a source of a dialogue sentence based on the processing result of the language processing unit 42 and the parameters stored in the parameter storage unit 44, and outputs the data to the response generation unit 45. The response generation unit 45 generates a response sentence based on the data from the interaction management unit 43 and according to the instruction of the reaction generation unit 47, and utters the response sentence. The parameters stored in the parameter storage unit 44 are dynamically updated by the parameter update unit 46 under various conditions.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は会話処理装置および
方法、並びに記録媒体に関し、特に、パラメータ値を動
的に変更することにより、会話の応対の仕方などを動的
に変化させる会話処理装置および方法、並びに記録媒体
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a conversation processing apparatus and method, and a recording medium, and more particularly to a conversation processing apparatus and a conversation processing method for dynamically changing a parameter value to dynamically change a way of responding to a conversation. The present invention relates to a method and a recording medium.

【0002】[0002]

【従来の技術】従来より、玩具等として、タッチスイッ
チが押圧操作されると、合成音を出力するロボット(ぬ
いぐるみ状のものを含む)が数多く製品化されている。
また、コンピュータを相手に会話を行うといったものも
普及しつつある。
2. Description of the Related Art Hitherto, as toys and the like, a large number of robots (including stuffed ones) that output a synthetic sound when a touch switch is pressed have been commercialized.
In addition, a conversation with a computer is becoming popular.

【0003】また、コンピュータとの定型的な会話方式
(タスクオリエンテッド)が用いられ、航空券の予約が
行なわれたり、旅行案内のサービスを提供するなどのサ
ービスがある。これは、予め決められたことを話すだけ
で、雑談を含む人間との自然な会話を行うものではなか
った。コンピュータと人間とが、雑談を含む自然な会話
を行うための試みとして、Eliza(James Allen:Natura
l Language Understanding,6乃至9頁などに開示され
ている)などの実験的なものがある。
[0003] In addition, a standard conversation system (task-oriented) with a computer is used, and there are services such as reservation of air tickets and provision of a travel guide service. This does not mean a natural conversation with a person, including a chat, only by talking about a predetermined matter. Eliza (James Allen: Natura) tried to make natural conversations, including chats, between computers and humans.
l Language Understanding, disclosed on pages 6-9).

【0004】[0004]

【発明が解決しようとする課題】上述したElizaなど
は、人間(ユーザ)とやりとりしている会話の内容は、
殆ど理解しておらず、換言すれば、オウム返し的な会話
しかできないので、ユーザは、すぐに飽きてしまうとい
った課題があった。
The above-mentioned Eliza and others describe that the contents of conversations with humans (users) are as follows.
He hardly understands, in other words, he can only talk back like a parrot, so that there is a problem that the user gets tired immediately.

【0005】本発明はこのような状況に鑑みてなされた
ものであり、パラメータ値を動的に変化させることによ
り、会話の応対の仕方などに変化をもたらすようにし、
もって、ユーザが飽きないような会話を提供することを
目的とする。
[0005] The present invention has been made in view of such a situation, and by changing the parameter value dynamically, it is possible to bring about a change in the way of responding to conversation, and the like.
Accordingly, an object of the present invention is to provide a conversation that the user does not get tired of.

【0006】[0006]

【課題を解決するための手段】請求項1に記載の会話処
理装置は、言語情報を入力する入力手段と、入力手段に
より入力された言語情報を解析する解析手段と、パラメ
ータを記憶する記憶手段と、記憶手段に記憶されている
パラメータを更新する更新手段と、解析手段による解析
結果と、記憶手段により記憶されているパラメータを基
に、ユーザとの会話を制御する制御手段とを含むことを
特徴とする。
According to a first aspect of the present invention, there is provided a conversation processing apparatus comprising: input means for inputting linguistic information; analysis means for analyzing linguistic information input by the input means; and storage means for storing parameters. And updating means for updating parameters stored in the storage means, and control means for controlling a conversation with the user based on the analysis result by the analysis means and the parameters stored in the storage means. Features.

【0007】前記入力手段は、ユーザから、音声形式、
テキスト形式、または、ジェスチャ形式のうちの、少な
くても1つの形式が用いられて供給される言語情報を入
力するようにすることができる。
[0007] The input means is provided by a user in a voice format,
At least one of a text format and a gesture format can be used to input language information supplied.

【0008】前記更新手段は、ユーザの音声による指示
により、記憶手段に記憶されているパラメータの更新を
開始するようにすることができる。
[0008] The updating means may start updating the parameters stored in the storage means in response to a user's voice instruction.

【0009】前記更新手段は、ユーザの発話から得られ
る韻律情報、ユーザと会話を交わした回数の情報、また
は、ユーザの返答が返ってくるまでにかかった時間の情
報のうち、少なくても1つの情報を用い、その情報が、
所定の条件を満たす場合、記憶手段に記憶されているパ
ラメータを更新するようにすることができる。
[0009] The updating means may include at least one of prosodic information obtained from the utterance of the user, information on the number of conversations with the user, and information on the time required until a response from the user is returned. Information, and that information is
When the predetermined condition is satisfied, the parameters stored in the storage unit can be updated.

【0010】前記パラメータは、おしゃべり度、忠実
度、関心度、対応度を、それぞれ示すものであるように
することができる。
[0010] The parameters may indicate the degree of talk, the degree of fidelity, the degree of interest, and the degree of correspondence, respectively.

【0011】請求項6に記載の会話処理方法は、言語情
報の入力を制御する入力制御ステップと、入力制御ステ
ップの処理で入力された言語情報を解析する解析ステッ
プと、パラメータの記憶を制御する記憶制御ステップ
と、記憶制御ステップの処理で記憶されたパラメータを
更新する更新ステップと、解析ステップの処理による解
析結果と、記憶制御ステップの処理で記憶されたパラメ
ータを基に、ユーザとの会話を制御する制御ステップと
を含むことを特徴とする。
According to a sixth aspect of the present invention, there is provided a conversation processing method, wherein an input control step of controlling input of linguistic information, an analyzing step of analyzing the linguistic information input in the processing of the input control step, and controlling storage of parameters. A conversation with the user is performed based on the storage control step, an update step of updating the parameters stored in the processing of the storage control step, an analysis result by the processing of the analysis step, and the parameters stored in the processing of the storage control step. And a control step of controlling.

【0012】請求項7に記載の記録媒体のプログラム
は、言語情報の入力を制御する入力制御ステップと、入
力制御ステップの処理で入力された言語情報を解析する
解析ステップと、パラメータの記憶を制御する記憶制御
ステップと、記憶制御ステップの処理で記憶されたパラ
メータを更新する更新ステップと、解析ステップの処理
による解析結果と、記憶制御ステップの処理で記憶され
たパラメータを基に、ユーザとの会話を制御する制御ス
テップとを含むことを特徴とする。
According to a seventh aspect of the present invention, a program for a recording medium controls an input control step of controlling input of linguistic information, an analyzing step of analyzing linguistic information input in the processing of the input control step, and controls storage of parameters. A storage control step, an update step of updating parameters stored in the processing of the storage control step, a conversation with the user based on an analysis result by the processing of the analysis step, and the parameters stored in the processing of the storage control step. And a control step of controlling

【0013】請求項1に記載の会話処理装置、請求項6
に記載の会話処理方法、および請求項7に記載の記録媒
体においては、入力された言語情報が解析され、パラメ
ータが記憶され、その記憶されているパラメータが動的
に更新され、解析結果と、記憶されているパラメータと
を基に、ユーザとの会話が制御される。
[0013] The conversation processing apparatus according to claim 1, claim 6,
In the conversation processing method described in the above, the input language information is analyzed, the parameters are stored, the stored parameters are dynamically updated, the analysis result, The conversation with the user is controlled based on the stored parameters.

【0014】[0014]

【発明の実施の形態】以下に、本発明の実施の形態につ
いて図を参照しながら説明する。図1は、本発明を適用
した対話装置の外観を示す図である。対話装置1の本体
2には、文字入力を行う際に用いられるキーボード3や
マウス4が接続されている。また、音声入力を行う際に
用いられるマイクロフォン5や、音声出力する際に用い
られるスピーカ6も接続されている。さらに、テキスト
などを表示するディスプレイ8や、画像を取り込む際に
用いられるCCD(Charge Coupled Device)8も接続され
ている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing the appearance of a dialogue apparatus to which the present invention is applied. A keyboard 3 and a mouse 4 used when performing character input are connected to the main body 2 of the interactive device 1. Further, a microphone 5 used when performing voice input and a speaker 6 used when performing voice output are also connected. Further, a display 8 for displaying text and the like and a CCD (Charge Coupled Device) 8 used for capturing an image are also connected.

【0015】図2は、対話装置1の内部構成を示す図で
ある。対話装置1のCPU11は、ROM(Read Only Memor
y)12に記憶されているプログラムに従って各種の処
理を実行する。RAM(Random Access Memory)13に
は、CPU11が各種の処理を実行する上において必要な
データやプログラムなどが適宜記憶される。入出力イン
タフェース15には、キーボード3、マウス4、マイク
ロフォン5、およびCCD8から構成される入力部16、
スピーカ2とディスプレイ7から構成される出力部17
が接続されているまた、入出力インタフェース15に
は、ハードディスク(HDD)などから構成される記憶部
18や、インターネットなどを介して他の装置と通信を
行う通信部19も接続されている。
FIG. 2 is a diagram showing the internal configuration of the interactive device 1. The CPU 11 of the interactive device 1 has a ROM (Read Only Memor
y) Various processes are executed in accordance with the program stored in 12. A RAM (Random Access Memory) 13 stores data and programs necessary for the CPU 11 to execute various processes as appropriate. The input / output interface 15 includes an input unit 16 including a keyboard 3, a mouse 4, a microphone 5, and a CCD 8,
Output unit 17 composed of speaker 2 and display 7
The storage unit 18 composed of a hard disk (HDD) and the like, and a communication unit 19 for communicating with other devices via the Internet or the like are also connected to the input / output interface 15.

【0016】さらに、入出力インタフェース15には、
磁気ディスク31、光ディスク32、光磁気ディスク3
3、および半導体メモリ34などにデータの記録、又
は、データの再生を行うドライブ20も接続されてい
る。
Further, the input / output interface 15 includes:
Magnetic disk 31, optical disk 32, magneto-optical disk 3
3, and a drive 20 for recording data on the semiconductor memory 34 or reproducing data.

【0017】図3は、対話装置1の機能ブロック図であ
る。言語情報入力部41は、音声形式、テキスト形式、
画像形式により入力されたデータを認識処理し、言語情
報(テキストデータ)に変換する機能をもつ。言語処理
部42は、言語情報入力部41から出力された言語情報
を構文や意味の解析を行い、対話装置1を制御するため
のコマンドなどの検出を行う。
FIG. 3 is a functional block diagram of the interactive device 1. The linguistic information input unit 41 includes a voice format, a text format,
It has a function of recognizing data input in an image format and converting it into linguistic information (text data). The language processing unit 42 analyzes the syntax and meaning of the language information output from the language information input unit 41, and detects a command or the like for controlling the interactive device 1.

【0018】対話管理部43は、言語情報入力部41か
ら出力される音声認識の結果としての韻律情報、言語処
理部42から出力される解析結果の情報とコマンドに関
する情報、およびパラメータ記憶部44に記憶されてい
る各種パラメータの値を基に、ユーザが入力したことに
対応する反応を決定し、応答生成部45により、その決
定した応答が実行されるための情報を出力する。
The dialog management section 43 stores prosody information as a result of speech recognition output from the linguistic information input section 41, information on analysis results and information output from the language processing section 42, information on commands, and a parameter storage section 44. Based on the stored values of the various parameters, a response corresponding to the user's input is determined, and the response generator 45 outputs information for executing the determined response.

【0019】パラメータ更新部46は、ユーザにより入
力されたことを解析することにより得られた言語情報、
韻律情報、および各種パラメータの情報を用いてパラメ
ータ記憶部44に記憶されているパラメータの値を更新
する機能を有する。反応生成部47は、パラメータ記憶
部44に記憶されている各種パラメータの値に応じて、
ユーザに対する反応を決定する。反応生成部47が生成
する反応としては、例えば、スピーカ6により出力され
る音声を変えたり、ディスプレイ7に表示させるキャラ
クターの表情を変えたりするなどがある。
The parameter updating unit 46 analyzes the language information obtained by the user,
It has a function of updating parameter values stored in the parameter storage unit 44 using prosody information and information on various parameters. The reaction generation unit 47 determines the value of various parameters stored in the parameter storage unit 44,
Determine the response to the user. The reaction generated by the reaction generation unit 47 includes, for example, changing the sound output from the speaker 6 and changing the expression of the character displayed on the display 7.

【0020】応答生成部45は、対話管理部43から出
力された応答命令、反応生成部47で決定した反応内
容、およびパラメータ記憶部44に記憶されている各種
パラメータの値に応じて、応答文やキャラクターの動作
などを生成し、スピーカ6により音声として応答文を出
力させたり、ディスプレイ7上に表示されているキャラ
クターの表示を変化させたりする。
The response generation unit 45 responds to the response command output from the dialog management unit 43, the content of the reaction determined by the reaction generation unit 47, and the values of various parameters stored in the parameter storage unit 44. And a response of the character, and output a response sentence as a voice through the speaker 6 or change the display of the character displayed on the display 7.

【0021】図4は、言語情報入力部41の内部構成を
示す図である。ユーザは、対話装置1と音声、テキス
ト、ジェスチャーを用いて対話を行うことが可能であ
る。ユーザが発話したことは、マイクロフォン5により
言語情報入力部41に取り込まれる。マイクロフォン5
からの出力は、音声認識部51に入力され、音声認識が
行われる。また、CCD8により取り込まれたユーザの画
像は、ジェスチャーとしてとらえられ、ジェスチャー認
識部52により認識される。音声認識部51、キーボー
ド3、または、ジェスチャー認識部52から出力された
認識結果(テキストデータ)は、言語処理部42に出力
される。
FIG. 4 is a diagram showing the internal configuration of the language information input unit 41. The user can interact with the interactive device 1 using voice, text, and gesture. The fact that the user has spoken is taken into the language information input unit 41 by the microphone 5. Microphone 5
Is input to the voice recognition unit 51, and voice recognition is performed. The image of the user captured by the CCD 8 is regarded as a gesture, and is recognized by the gesture recognition unit 52. The recognition result (text data) output from the voice recognition unit 51, the keyboard 3, or the gesture recognition unit 52 is output to the language processing unit 42.

【0022】図5は、音声認識部51の内部構成を示す
図である。ユーザの発話は、マイクロフォン5を介して
音声信号として、音声認識部51のAD(Analog Digita
l)変換部61に入力される。AD変換部61では、アナ
ログ信号である音声信号がサンプリング、量子化され、
ディジタル信号である音声データに変換される。この音
声データは、特徴抽出部62に供給される。
FIG. 5 is a diagram showing the internal configuration of the voice recognition unit 51. The utterance of the user is converted into a voice signal via the microphone 5 by an AD (Analog Digita) of the voice recognition unit 51.
l) Input to the conversion unit 61. The AD converter 61 samples and quantizes the audio signal, which is an analog signal,
It is converted into audio data which is a digital signal. This audio data is supplied to the feature extraction unit 62.

【0023】特徴抽出部62は、AD変換部61からの
音声データについて、適当なフレームごとに、例えば、
スペクトルや、線形予測係数、ケプストラム係数、線ス
ペクトル対等の特徴パラメータを抽出し、マッチング部
63に供給する。また、特徴抽出部62からは、韻律情
報が、必要に応じ、対話管理部43などに出力される。
The feature extraction unit 62 converts the audio data from the AD conversion unit 61 into appropriate frames, for example,
A feature parameter such as a spectrum, a linear prediction coefficient, a cepstrum coefficient, and a line spectrum pair is extracted and supplied to the matching unit 63. In addition, the prosody information is output from the feature extraction unit 62 to the dialog management unit 43 and the like as necessary.

【0024】マッチング部63は、特徴抽出部62から
の特徴パラメータに基づき、音響モデルデータベース6
4、辞書データベース65、および文法データベース6
6を必要に応じて参照しながら、入力された音声信号を
認識する。
The matching unit 63 is based on the feature parameters from the feature extraction unit 62 and
4. Dictionary database 65 and grammar database 6
The input voice signal is recognized while referring to 6 as necessary.

【0025】即ち、音響モデルデータベース64は、音
声認識する音声の言語における個々の音素や音節などの
音響的な特徴を表す音響モデルを記憶している。ここ
で、音響モデルとしては、例えば、HMM(Hidden Markov
Model)などを用いることができる。辞書データベース6
5は、認識対象の各単語について、その発音に関する情
報が記述された単語辞書を記憶している。文法データベ
ース66は、辞書データベース65の単語辞書に登録さ
れている各単語が、どのように連鎖する(つながる)か
を記述した文法規則を記憶している。ここで、文法規則
としては、例えば、文脈自由文法(CFG)や、統計的な
単語連鎖確率(N-gram)などに基づく規則を用いること
ができる。
That is, the acoustic model database 64 stores acoustic models representing acoustic features such as individual phonemes and syllables in the language of the speech to be recognized. Here, as the acoustic model, for example, HMM (Hidden Markov
Model) can be used. Dictionary database 6
Reference numeral 5 stores a word dictionary in which information on pronunciation of each word to be recognized is described. The grammar database 66 stores grammar rules that describe how the words registered in the word dictionary of the dictionary database 65 are linked (connected). Here, as the grammar rule, for example, a rule based on a context-free grammar (CFG), a statistical word chain probability (N-gram), or the like can be used.

【0026】マッチング部63は、辞書データベース6
5の単語辞書を参照することにより、音響モデルデータ
ベース64に記憶されている音響モデルを接続すること
で、単語の音響モデル(単語モデル)を構成する。さら
に、マッチング部63は、幾つかの単語モデルを、文法
データベース66に記憶された文法規則を参照すること
により接続し、そのようにして接続された単語モデルを
用いて、特徴パラメータに基づき、例えば、HMM法等に
よって、入力された音声を認識する。そして、マッチン
グ部63による音声認識結果は、例えば、テキストデー
タとして出力される。
The matching section 63 includes a dictionary database 6
By connecting the acoustic models stored in the acoustic model database 64 by referring to the 5th word dictionary, an acoustic model (word model) of a word is formed. Further, the matching unit 63 connects several word models by referring to the grammar rules stored in the grammar database 66, and uses the word models connected in this way, based on the feature parameters, for example, The input speech is recognized by the HMM method or the like. Then, the speech recognition result by the matching unit 63 is output as, for example, text data.

【0027】ジェスチャー認識部52の詳細な構成は示
さないが、テンプレートマッチングなどの方法を用い
て、ユーザが所定の動作を行ったか否かを判断し、所定
の動作をしたと判断された場合、その動作に対応するテ
キストデータを認識結果として出力する。
Although the detailed configuration of the gesture recognition unit 52 is not shown, it is determined whether or not the user has performed a predetermined operation by using a method such as template matching, and if it is determined that the user has performed the predetermined operation, The text data corresponding to the operation is output as a recognition result.

【0028】ユーザがキーボード3を用いて入力したテ
キストデータは、認識結果として用いられる。キーボー
ド3、音声認識部51、または、ジェスチャー認識部5
2から出力された認識結果は、言語処理部42に出力さ
れる。図6は、言語処理部42の内部構成を示す図であ
る。
The text data input by the user using the keyboard 3 is used as a recognition result. Keyboard 3, voice recognition unit 51, or gesture recognition unit 5
2 is output to the language processing unit 42. FIG. 6 is a diagram showing the internal configuration of the language processing unit 42.

【0029】言語情報入力部41から出力された認識結
果(テキストデータ)は、言語処理部42の言語解析部
71に入力される。言語解析部71は、辞書データベー
ス72、解析用文法データベース73、およびコマンド
辞書データベース74に記憶されているデータを基に、
入力された音声認識結果を、形態素解析、構文解析など
の解析を行うことにより、単語の情報や構文の情報など
の言語情報、コマンド情報を抽出する。また、辞書に記
述された内容を基に、入力された発話の意味、意図など
も抽出される。
The recognition result (text data) output from the language information input unit 41 is input to the language analysis unit 71 of the language processing unit 42. The language analysis unit 71, based on data stored in the dictionary database 72, the grammar database for analysis 73, and the command dictionary database 74,
The input speech recognition result is analyzed such as morphological analysis and syntax analysis to extract language information and command information such as word information and syntax information. Further, based on the contents described in the dictionary, the meaning and intention of the input utterance are also extracted.

【0030】すなわち、辞書データベース72には、単
語の表記や解析用文法を適用するために必要な品詞情報
などの情報、単語の個別の意味情報などが記憶されてお
り、解析用文法データベース73には、辞書データベー
ス72に記憶されている各単語の情報を基に、単語連鎖
に関する制約を記述したデータが記憶されている。ま
た、コマンド辞書データベース74には、コマンドに関
するデータが記憶されている。これらのデータを用いて
言語処理部42(言語解析部71)は、入力された音声
認識結果のテキストデータを解析する。
That is, the dictionary database 72 stores information such as part-of-speech information necessary for applying word notation and analysis grammar, and individual semantic information of words, and is stored in the analysis grammar database 73. Stores data describing restrictions on word chains based on information on each word stored in the dictionary database 72. The command dictionary database 74 stores data on commands. Using these data, the language processing unit 42 (language analysis unit 71) analyzes the text data of the input speech recognition result.

【0031】解析用文法データベース73に記憶されて
いるデータは、正規文法、文脈自由文法、統計的な単語
連鎖確立、意味的な解析までを含める場合はHPSGなどの
意味論を含んだ言語理論などを用いる、テキスト解析に
必要なデータである。
The data stored in the analysis grammar database 73 includes regular grammar, context-free grammar, statistical word chain establishment, and language theory including semantics such as HPSG when including semantic analysis. Is data necessary for text analysis.

【0032】言語処理部42から出力された解析結果
は、対話管理部43に供給される。図7は、対話管理部
43の内部構成を示す図である。対話管理部43の対話
処理部81は、入力された解析結果を用いて、後段の応
答生成部45が生成する応答文の基となるデータを作成
する。対話処理部81は、シナリオメモリ82に記憶さ
れているシナリオ(詳細は後述する)、知識データベー
ス83に記憶されている知識、および対話履歴メモリ8
4に記憶されている履歴を参照し、応答文の基となるデ
ータを作成する。
The analysis result output from the language processing unit 42 is supplied to the dialog management unit 43. FIG. 7 is a diagram showing the internal configuration of the dialog management unit 43. The dialogue processing unit 81 of the dialogue management unit 43 uses the input analysis result to create data on which a response sentence generated by the response generation unit 45 at the subsequent stage is based. The dialogue processing unit 81 includes a scenario (details will be described later) stored in the scenario memory 82, knowledge stored in the knowledge database 83, and the dialogue history memory 8
Reference is made to the history stored in No. 4 to create data serving as the basis of the response sentence.

【0033】シナリオメモリ82に記憶されているシナ
リオは、対話のパターンを記述したものであり、タスク
により異なる。例えば、目的志向型のタスク(パラメー
タ設定)に関するシナリオは、ユーザに質問し、情報を
収集するようなシナリオである。以下に、その一例を示
す。 (action(Question(speak,devotion,interest,reciv
e))) (speak ???) #おしゃべり度 (devotion ???) #忠実度 (interest ???) #関心度 (recive ???) #応対度
The scenario stored in the scenario memory 82 describes a dialogue pattern, and differs depending on the task. For example, a scenario related to a goal-oriented task (parameter setting) is a scenario in which a user is asked a question and information is collected. An example is shown below. (Action (Question (speak, devotion, interest, reciv
e))) (speak ???) # chatter (devotion ???) # fidelity (interest ???) # interest (recive ???) # reception

【0034】他の例として、無目的型(ELAZAなど)の
対話シナリオ(雑談などに使用)は、以下のようにな
る。 If X exist then speak(Y) #X:キーワード、Y:応答文 (X:お金 Y:何が欲しいの) #(XY) (X:食べたい Y:お腹がすいているの)
As another example, a non-purpose type (eg, ELAZA) dialogue scenario (used for chat, etc.) is as follows. If X exist then speak (Y) #X: keyword, Y: response sentence (X: money Y: what do you want) # (XY) (X: I want to eat Y: I am hungry)

【0035】知識データベース83に記憶されている知
識としては、対話動作に関する制御情報や応答に必要な
情報を管理している。例えば、ユーザが挨拶をしたと判
断されるときには、挨拶の応答を返すといった対話にお
ける規則、雑談モード(タスク)時に使用する話題など
である。
As the knowledge stored in the knowledge database 83, control information relating to the interactive operation and information necessary for a response are managed. For example, there are rules in a dialog such as returning a greeting response when it is determined that the user has made a greeting, a topic used in a chat mode (task), and the like.

【0036】対話履歴メモリ84には、ユーザと対話装
置1との間でやり取りされた各種情報(例えば、ユーザ
入力、応答内容など)や、対話管理情報(例えば、応答
回数、応答時間など)が記憶されている。対話履歴メモ
リ84に記憶されているこれらの情報は、応答文生成や
応答回数の制御などの対話処理に利用される。
The dialog history memory 84 stores various information (for example, user input, response content, etc.) exchanged between the user and the dialog device 1 and dialog management information (for example, the number of responses, response time, etc.). It is remembered. These pieces of information stored in the dialog history memory 84 are used for dialog processing such as generation of a response sentence and control of the number of responses.

【0037】パラメータ記憶部44は、図8に示すよう
なパラメータが記憶されている。図8(A)は、パラメ
ータの値を離散値して表現した場合を示し、図8(B)
は、パラメータの値を連続値として表現した場合を示し
ている。実際に構成する場合は、離散値、または、連続
値の、どちらか一方を用いればよい。これらのパラメー
タの値は、パラメータ更新部46の指示により更新され
る。
The parameter storage section 44 stores parameters as shown in FIG. FIG. 8A shows a case where the values of the parameters are represented as discrete values, and FIG.
Indicates a case where the value of the parameter is represented as a continuous value. In an actual configuration, either one of a discrete value or a continuous value may be used. The values of these parameters are updated by an instruction from the parameter updating unit 46.

【0038】パラメータ記憶部44に記憶されているパ
ラメータは、ユーザ入力に対応する応答を行う場合、例
えば、音声で応答する時には、応答文の選択、生成、声
の高さの変化を制御するのに用いられるとともに、ディ
スプレイ7上に表示されるキャラクターの表情の変化を
制御するのにも用いられる。
The parameters stored in the parameter storage unit 44 control the selection and generation of a response sentence and the change in voice pitch when responding to a user input, for example, when responding by voice. , And is also used to control changes in the expression of the character displayed on the display 7.

【0039】識別子は、各パラメータを区別するための
記号(情報)であり、種類は、パラメータの特徴を表し
ている、値は、各パラメータの影響の程度を表してい
る。確率値は、パラメータ更新時に用いられ、図8
(A)のように、値が離散値で表現される場合、値が0
または1になる確率であり、図8(B)にように、値が
連続値で表現される場合、各値が増加または減少する確
率である。
The identifier is a symbol (information) for distinguishing each parameter, the type represents the characteristic of the parameter, and the value represents the degree of influence of each parameter. The probability value is used at the time of updating the parameter,
When the value is represented by a discrete value as in (A), the value is 0.
Alternatively, when the values are represented by continuous values as shown in FIG. 8B, the probability is that each value increases or decreases.

【0040】パラメータ記憶部44に記憶されているパ
ラメータは、パラメータ更新部46の指示により更新さ
れる。パラメータ更新部46は、例えば、図9に示すよ
うな、処理モデルに従って行う。各ニューロン(N1乃
至N4)は、相互結合型のネットワークで結合されてお
り、所定のニューロンへの入力が、自分自身の値や、他
のニューロンの値に変化をもたらすようになっている。
結合の種類としては、側興奮性結合や側抑制結合などを
用いることが可能である。
The parameters stored in the parameter storage unit 44 are updated according to an instruction from the parameter update unit 46. The parameter updating unit 46 performs, for example, according to a processing model as shown in FIG. Each neuron (N1 to N4) is connected by an interconnected network, and an input to a given neuron changes its own value or the value of another neuron.
As the type of the connection, a side excitatory connection, a side suppression connection, or the like can be used.

【0041】反応生成部47は、図10に示すようなテ
ーブルを保持している。すなわち、図9に示したパラメ
ータ記憶部44に記憶されているパラメータ情報のう
ち、識別子、種類、および、条件(図10に示した例で
は、図8(B)の値に対応する)により、反応内容が決
定される為のテーブルである。
The reaction generator 47 holds a table as shown in FIG. That is, among the parameter information stored in the parameter storage unit 44 shown in FIG. 9, the identifier, the type, and the condition (in the example shown in FIG. 10, corresponding to the value in FIG. 8B), This is a table for determining the content of the reaction.

【0042】図11は、応答生成部45の内部構成を示
す図である。対話管理部43から出力された応答文作成
用データは、応答生成部45の応答文生成部91に入力
される。応答文生成部91は、テンプレートデータベー
ス92、応答文生成規則データベース93、および、辞
書データベース94に記憶されているデータを参照して
適切な応答文(テキストデータ)を生成する。
FIG. 11 is a diagram showing the internal configuration of the response generation unit 45. The response sentence creation data output from the dialog management unit 43 is input to the response sentence generation unit 91 of the response generation unit 45. The response sentence generation unit 91 generates an appropriate response sentence (text data) by referring to data stored in the template database 92, the response sentence generation rule database 93, and the dictionary database 94.

【0043】テンプレートデータベース92は、テンプ
レート情報を記憶している。そのテンプレート情報とし
ては、例えば、パラメータの値として連続値を用いる場
合、以下に示すようなものである。 反応 条件 文例 R3 7以上 丁寧(−いたしましょうか) R3 4以上 (−するの) テンプレートとは、すなわち、識別子と条件により、ど
のような態度の応答文を生成するかを決定する情報であ
る。
The template database 92 stores template information. For example, when a continuous value is used as a parameter value, the template information is as follows. Reaction condition Sentence example R3 7 or more Careful (-I will do it) R3 4 or more (-I do) A template is information that determines what kind of attitude a response sentence is generated based on an identifier and a condition.

【0044】応答文生成規則データベース93は、どの
ような応答文を、どのように生成するのかに関する規則
が記憶されている。例えば、仮に、話題が意味的なフレ
ーム構造などで管理されているなら、そこから自然言語
文を生成する規則などが書かれている。この意味構造か
ら自然言語文を生成する方法は、言語処理部42により
行われる処理の逆の処理として行うことにより、実現す
ることが可能である。辞書データベース94は、応答文
を作成するのに必要な単語情報が記憶されている。
The response sentence generation rule database 93 stores rules regarding what response sentence is generated and how. For example, if topics are managed in a semantic frame structure, rules for generating a natural language sentence therefrom are written. The method of generating a natural language sentence from this semantic structure can be realized by performing the reverse of the processing performed by the language processing unit 42. The dictionary database 94 stores word information necessary for creating a response sentence.

【0045】このようにして、応答文生成部91により
生成された、テキストデータとしての応答文は、テキス
ト解析部96に出力される。テキスト解析部96は、入
力されたテキストデータを、辞書データベース94や解
析用文法データベース95を参照しながら解析する。
Thus, the response sentence as text data generated by the response sentence generation unit 91 is output to the text analysis unit 96. The text analysis unit 96 analyzes the input text data with reference to the dictionary database 94 and the grammar database 95 for analysis.

【0046】即ち、辞書データベース94には、各単語
の品詞情報や、読み、アクセント等の情報が記述された
単語辞書が記憶されており、また、解析用文法データベ
ース95には、辞書データベース94の単語辞書に記述
された単語について、単語連鎖に関する制約等の解析用
文法規則が記憶されている。そして、テキスト解析部9
6は、この単語辞書および解析用文法規則に基づいて、
そこに入力されるテキストの形態素解析や構文解析等の
解析を行い、後段の規則合成部97で行われる規則音声
合成に必要な情報を抽出する。ここで、規則音声合成に
必要な情報としては、例えば、ポーズの位置や、アクセ
ントおよびイントネーションを制御するための情報、そ
の他の韻律情報や、各単語の発音等の音韻情報などがあ
る。
That is, the dictionary database 94 stores a word dictionary in which part-of-speech information of each word, information such as reading, accent, and the like are described. For words described in the word dictionary, grammatical rules for analysis such as restrictions on word chains are stored. Then, the text analysis unit 9
6 is based on the word dictionary and the grammatical rules for analysis,
An analysis such as morphological analysis or syntax analysis of the text input thereto is performed, and information necessary for rule-based speech synthesis performed by the rule synthesis unit 97 at the subsequent stage is extracted. Here, the information necessary for the rule speech synthesis includes, for example, information for controlling the position of a pause, accent and intonation, other prosody information, and phonological information such as pronunciation of each word.

【0047】テキスト解析部96で得られた情報は、規
則合成部97に供給され、規則合成部97では、音素片
データベース98を用いて、テキスト解析部96に入力
されたテキストに対応する合成音の音声データ(デジタ
ルデータ)が生成される。
The information obtained by the text analysis unit 96 is supplied to the rule synthesis unit 97, and the rule synthesis unit 97 uses the phoneme segment database 98 to generate synthesized speech corresponding to the text input to the text analysis unit 96. (Digital data) is generated.

【0048】即ち、音素片データベース98には、例え
ば、CV(Consonant, Vowel)や、VCV、CVC等の形で音素
片データが記憶されており、規則合成部97は、テキス
ト解析部96からの情報に基づいて、必要な音素片デー
タを接続し、さらに、ポーズ、アクセント、イントネー
ション等を適切に付加することで、テキスト解析部96
に入力されたテキストに対応する合成音の音声データを
生成する。
That is, the speech segment database 98 stores speech segment data in the form of, for example, CV (Consonant, Vowel), VCV, CVC, and the like. Based on the information, necessary phoneme segment data is connected, and a pause, an accent, an intonation, and the like are appropriately added, so that the text analysis unit 96 can be used.
To generate speech data of a synthesized sound corresponding to the text input to the.

【0049】この音声データは、DA変換部99に供給
され、そこで、アナログ信号としての音声信号に変換さ
れる。この音声信号は、スピーカ6(図1)に供給さ
れ、これにより、テキスト解析部96に入力されたテキ
ストに対応する合成音が出力される。
The audio data is supplied to a DA converter 99, where it is converted into an audio signal as an analog signal. This audio signal is supplied to the speaker 6 (FIG. 1), whereby a synthesized sound corresponding to the text input to the text analysis unit 96 is output.

【0050】以下に、対話装置1の動作について説明す
る。まず、ユーザの指示により、記憶部18(図2)に
記憶されている、対話を行うためのプログラムが起動さ
れ、ディスプレイ7(図1)上に対話を行う時に表示さ
れる画面が表示される。そのディスプレイ7上に表示さ
れる画面の表示例を図12に示す。図12に示すよう
に、ディスプレイ7上には、キャラクター表示部11
1、テキスト表示部112、およびパラメータ設定部1
13が表示されている。
The operation of the interactive device 1 will be described below. First, in response to a user's instruction, a program for performing a dialogue stored in the storage unit 18 (FIG. 2) is started, and a screen displayed when the dialogue is performed is displayed on the display 7 (FIG. 1). . FIG. 12 shows a display example of a screen displayed on the display 7. As shown in FIG. 12, on the display 7, a character display section 11 is provided.
1, text display unit 112, and parameter setting unit 1
13 is displayed.

【0051】キャラクター表示部111は、予めキャラ
クターとして複数、登録されている中から、ユーザが選
択したキャラクターが表示され、上述したように、パラ
メータの値により、表情や態度が変化する。テキスト表
示部112は、ユーザが発話したこや対話装置1が発話
したことが、テキストとして表示される。テキスト表示
部112に表示されるテキストとしては、ユーザがキー
ボード3により入力したことを表示し、さらに、そのユ
ーザ入力に対する対話装置1の応答文を表示するように
しても良い。また、ユーザが入力した文または対話装置
1の応答文の、どちらか一方を表示するようにしても良
い。
The character display section 111 displays a character selected by the user from among a plurality of characters registered in advance, and as described above, the expression and attitude change according to the value of the parameter. The text display unit 112 displays, as text, the fact that the user has spoken or that the interactive device 1 has spoken. As the text displayed on the text display unit 112, the fact that the user has made an input with the keyboard 3 may be displayed, and further, a response sentence of the interactive device 1 to the user input may be displayed. Either a sentence input by the user or a response sentence of the interactive device 1 may be displayed.

【0052】また、マイクロフォン5から入力されたユ
ーザの発話に対する認識結果を表示し、その認識結果に
対する対話装置1の応答文を表示するようにしても良
い。この場合も、ユーザが音声により入力した文または
対話装置1の応答文の、どちらか一方を表示するように
しても良い。また、対話装置1の応答文をテキスト表示
部112に表示すると共に、同一内容の応答文をスピー
カ6より発話させるようにしても良い。さらに、スピー
カ6により発話させる場合には、テキスト表示部112
には、対話装置1の応答文を表示させないようにしても
良い。
It is also possible to display the recognition result for the user's utterance input from the microphone 5 and display the response sentence of the interactive device 1 to the recognition result. Also in this case, either one of the sentence input by the user by voice or the response sentence of the interactive device 1 may be displayed. Further, the response sentence of the interactive device 1 may be displayed on the text display unit 112 and the response sentence having the same content may be uttered from the speaker 6. Further, when making the speaker 6 speak, the text display unit 112
, The response sentence of the interactive device 1 may not be displayed.

【0053】さらに、CCD8により入力されたユーザ
のジェスチャーに関する認識結果を表示するようにして
も良い。
Further, the recognition result regarding the user's gesture input by the CCD 8 may be displayed.

【0054】このような、何を表示し、何を表示しない
かは、ユーザにより設定することができるようにしてお
くと、ユーザにとって使い勝手の良い対話装置1を提供
することが可能となる。
If what can be displayed and what should not be displayed can be set by the user, it is possible to provide the user-friendly interactive device 1.

【0055】パラメータ設定部113は、パラメータ記
憶部44に記憶されているパラメータを変更する、従っ
て、パラメータ更新部46の機能を実行する部分であ
る。図13は、パラメータ設定部113の詳細を示す図
である。図13に示した例では、パラメータとして、”
おしゃべり度”、”忠実度”、”関心度”、および”応
対度”の4つのパラメータが設定できるようになってい
る。各パラメータの左側には、チェック欄が設けられて
いる。チェック欄がチェックされたパラメータは、その
値が変更されるようになっている。
The parameter setting section 113 is a section for changing the parameters stored in the parameter storage section 44, and thus executing the function of the parameter updating section 46. FIG. 13 is a diagram illustrating details of the parameter setting unit 113. In the example shown in FIG. 13, ""
Four parameters can be set: “talking degree”, “fidelity”, “interest level”, and “agreement level.” A check box is provided on the left side of each parameter. The value of the checked parameter is changed.

【0056】ここで、パラメータ更新部46が行うパラ
メータ更新処理について、図14のフローチャートを参
照して説明する。パラメータ更新部46は、ステップS
1において、ユーザによる更新指示か否かが判断され
る。ユーザによりパラメータの更新が指示される場合と
しては、パラメータ設定部113のチェック欄にチェッ
クがされた(外された)ときや、音声コマンドにより指
示されるときが考えられる。そこで、ステップS1にお
いて、ユーザによる更新指示であると判断されると、ス
テップS2に進み、音声コマンドによる更新指示である
か否かが判断される。
Here, the parameter updating process performed by the parameter updating unit 46 will be described with reference to the flowchart of FIG. The parameter updating unit 46 determines in step S
At 1, it is determined whether or not the update instruction is issued by the user. The case where the user instructs to update the parameter may be when the check box of the parameter setting unit 113 is checked (removed) or when an instruction is given by a voice command. Therefore, if it is determined in step S1 that the instruction is an update instruction by the user, the process proceeds to step S2, and it is determined whether the instruction is an update instruction by a voice command.

【0057】ステップS2において、音声コマンドによ
る更新指示ではないと判断されると、換言すれば、パラ
メータ設定部113のチェック欄(図13)が操作され
たと判断されると、ステップS3に進み、設定部による
更新処理が開始される。図15は、ステップS3の詳細
な処理を説明するフローチャートである。ステップS2
1において、パラメータ設定部113のチェック欄のう
ちオンまたはオフされたチェック欄を判断することによ
り、更新が指示されたパラメータを判断する。
If it is determined in step S2 that the instruction is not an update instruction by a voice command, in other words, if it is determined that the check box (FIG. 13) of the parameter setting unit 113 has been operated, the process proceeds to step S3 and the setting is performed. The update process by the unit is started. FIG. 15 is a flowchart illustrating a detailed process of step S3. Step S2
In step 1, by determining which of the check boxes of the parameter setting unit 113 is turned on or off, the parameter for which updating is instructed is determined.

【0058】パラメータとして離散値(0または1)を
用いた場合、チェック欄がオンにされたとき、そのオン
にされたパラメータは1に設定され、オフにされたと
き、そのオフにされたパラメータは0に設定されるよう
にすればよい。しかしながら、そのように、ユーザの指
示に忠実に従った処理では、例えば、全くパラメータ設
定部113の設定を変更しないユーザに対しては、対話
装置1は、常に同じ反応をしてしまうことになる。ま
た、パラメータの値として連続値を用いた場合、その値
が変化しないことになってしまう。そこで、本実施の形
態においては、ユーザの指示であっても、パラメータ値
を変更するか否かを判断するステップを設ける。
When a discrete value (0 or 1) is used as a parameter, when a check box is turned on, the turned-on parameter is set to 1, and when turned off, the turned-off parameter is turned off. May be set to 0. However, in such a process that faithfully follows the user's instruction, for example, the interactive device 1 always responds the same to a user who does not change the setting of the parameter setting unit 113 at all. . When a continuous value is used as a parameter value, the value does not change. Therefore, in the present embodiment, there is provided a step of determining whether or not to change the parameter value even if the instruction is from the user.

【0059】ステップS22において、パラメータ更新
処理が行われる。図16は、ステップS22の詳細な処
理を説明するフローチャートである。ステップS31に
おいて、確率値を用いた変更処理計算が行われる。例え
ば、図13に示したパラメータ設定部113の”おしゃ
べり度”のチェック欄がオフにされた場合、まず、パラ
メータ更新部46は、パラメータ記憶部44に記憶され
ている”おしゃべり度”に関するパラメータ情報を読み
出す。この場合、離散値表現が用いられているとする
と、図8(A)に従い、”おしゃべり度”のパラメータ
は、値が1で、確率値が0.5である。
In step S22, a parameter updating process is performed. FIG. 16 is a flowchart illustrating the detailed process of step S22. In step S31, a change processing calculation using a probability value is performed. For example, if the “talking degree” check box of the parameter setting unit 113 shown in FIG. 13 is turned off, first, the parameter updating unit 46 sets the parameter information related to “talking degree” stored in the parameter storage unit 44. Is read. In this case, assuming that a discrete value expression is used, the value of the parameter of "talking degree" is 1 and the probability value is 0.5 according to FIG. 8A.

【0060】この場合、”おしゃべり度”のパラメータ
の値は1であるので、1/2の確率で、0に更新され
る。ステップS31において、この確率値を用いて、変
更処理計算を行った結果を用いて、ステップS32にお
いて、パラメータの値を変更するか否かが判断される。
ステップS32において、パラメータの値を変更すると
判断された場合、その判断に従い、ステップS34にお
いて、パラメータの変更が行われる。一方、ステップS
32において、パラメータの値は変更しないと判断され
た場合、パラメータの変更処理を行わずに、ステップS
1(図14)の処理に戻り、それ以降の処理が行われ
る。
In this case, since the value of the parameter of "talking degree" is 1, it is updated to 0 with a probability of 1/2. In step S31, it is determined whether or not to change the value of the parameter in step S32 by using the result of performing the change processing calculation using the probability value.
When it is determined in step S32 that the value of the parameter is to be changed, the parameter is changed in step S34 according to the determination. On the other hand, step S
If it is determined in step 32 that the parameter value is not to be changed, the parameter change process is not performed and step S
Returning to the process of FIG. 1 (FIG. 14), the subsequent processes are performed.

【0061】図14のフローチャートの説明に戻り、ス
テップS2において、音声コマンドによる更新指示であ
ると判断された場合、ステップS4に進み、音声による
更新処理が開始される。音声コマンドによる更新指示で
あると判断される場合としては、ユーザが、”パラメー
タの更新”と発話し、言語処理入力部41により音声認
識処理が実行され、言語処理部42により、構文解析な
どが行われた結果、コマンドであると解析された場合で
ある。対話処理部43は、言語処理部42からコマンド
であるという解析結果を入力し、そのコマンドがパラメ
ータの更新指示であると判断すると、パラメータ更新部
46に、パラメータの更新指示を出す。このように、更
新指示を受けることにより、パラメータ更新部46は、
音声コマンドによる更新指示であるか否かを、ステップ
S2において判断する。
Returning to the description of the flowchart of FIG. 14, when it is determined in step S2 that the update instruction is a voice command, the process proceeds to step S4, and the voice update process is started. When it is determined that the instruction is an update instruction by a voice command, the user utters “update parameter”, the speech recognition processing is executed by the language processing input unit 41, and the syntax analysis and the like are performed by the language processing unit 42. In this case, the command is analyzed as a command. The dialogue processing unit 43 receives an analysis result indicating that the command is a command from the language processing unit 42 and, when determining that the command is a parameter update instruction, issues a parameter update instruction to the parameter update unit 46. As described above, by receiving the update instruction, the parameter update unit 46
It is determined in step S2 whether or not the update instruction is a voice command.

【0062】図17は、ステップS4の処理の詳細を説
明するフローチャートである。ステップS41におい
て、パラメータ更新処理が行われる。パラメータ更新処
理の詳細に付いては、既に、図16のフローチャートを
参照して説明したので、ここでは、その説明を省略す
る。パラメータ更新部46によりパラメータ更新処理が
実行されている一方で、ステップS42において、対話
管理部43は、入力されたコマンドに対応するシナリオ
を、シナリオメモリ82(図7)から読み出す。
FIG. 17 is a flowchart illustrating the details of the process in step S4. In step S41, a parameter update process is performed. Since the details of the parameter update processing have already been described with reference to the flowchart of FIG. 16, the description thereof is omitted here. While the parameter updating process is being performed by the parameter updating unit 46, in step S42, the dialog management unit 43 reads a scenario corresponding to the input command from the scenario memory 82 (FIG. 7).

【0063】対話処理部43は、読み出したシナリオを
基に、他のパラメータの更新はないか否か、パラメータ
更新処理は終了して良いか否かなどを、ユーザに問い、
返答を受け、その返答に応じた処理を、シナリオに基づ
いて行う。そのような処理を行うことにより、ユーザが
パラメータの更新処理の終了を指示したか否かが判断さ
れ、指示していないと判断された場合、ステップS41
に戻り、他のパラメータに対して同様の処理が繰り返さ
れる。一方、ステップS43において、終了であると判
断されると、ステップS1(図14)に戻り、それ以降
の処理が繰り返される。
The dialogue processing unit 43 asks the user whether or not there is any other parameter update based on the read scenario and whether or not the parameter update processing can be ended.
Upon receiving the reply, the processing corresponding to the reply is performed based on the scenario. By performing such processing, it is determined whether or not the user has instructed the end of the parameter update processing. If it is determined that the user has not instructed, the process proceeds to step S41.
And the same processing is repeated for the other parameters. On the other hand, if it is determined in step S43 that the processing is to be ended, the process returns to step S1 (FIG. 14), and the subsequent processing is repeated.

【0064】ここで、上述した処理について、具体例を
挙げて説明する。時刻t1において、ユーザが、”キャ
ラクターの性格を変えたい”と発話する。この発話を受
け、対話装置1は、言語入力部41、言語処理部42、
および対話処理部43の、各部において上述した処理
を、それぞれ行うことにより、対話管理部43は、キャ
ラクターの性格を変えたいということは、パラメータの
値を更新することが指示されたと判断する。
Here, the above-described processing will be described with a specific example. At time t 1, the user, to the utterance, "I want to change the personality of the character." Upon receiving the utterance, the interactive device 1 sets the language input unit 41, the language processing unit 42,
By performing the above-described processing in each unit of the dialogue processing unit 43, the dialogue management unit 43 determines that the user wants to change the character of the character and that it is instructed to update the parameter value.

【0065】そこで、対話管理部43は、シナリオメモ
リ82から、パラメータ更新に関するシナリオを読み出
し、そのシナリオに従い、時刻t2において、”パラメ
ータの更新をするよ。どのパラメータを変えるの?”と
いった文面を発話させるためのデータを生成する。そし
て、その生成されたデータが用いられて、応答生成部4
5およびスピーカ6により発話される。このような発話
を受け、ユーザは、時刻t3において、”おしゃべり度
を高くして”と発話する。この発話を受け、パラメータ
更新部46により、パラメータ記憶部44に記憶されて
いる”おしゃべり度”に関するパラメータの値が、上述
したような処理に従い更新される。
Then, the dialogue management unit 43 reads a scenario related to parameter update from the scenario memory 82, and according to the scenario, at time t 2 , writes a message such as “Update parameters. Which parameter should be changed?” Generate data for speaking. Then, using the generated data, the response generation unit 4
5 and the speaker 6. Response to such utterances, the user At time t 3, utters "chatter degree increased to". In response to the utterance, the parameter updating unit 46 updates the value of the parameter related to “talking degree” stored in the parameter storage unit 44 according to the above-described processing.

【0066】さらに、対話装置1は、時刻t4におい
て、”おしゃべり度を高くしたよ。他はどうする?”と
質問する。これに対し、時刻t5において、ユーザ
が、”忠実度も上げて”と発話すると、”忠実度”のパ
ラメータの更新処理が、”おしゃべり度”の時と同じ処
理により行われ、ユーザが”他はそのまま”と発話する
と、対話処理装置1は、終了の指示が出されたと判断
し、時刻t6において、”パラメータの更新処理を終わ
るよ”と発話する。
Further, at time t 4 , the interactive device 1 asks a question “I have increased the degree of talk. What else should I do?”. In contrast, at time t 5, when the user utters "fidelity raised", updating of the parameters of "fidelity" is carried out by the same process as in the "chatter" specification, users'"When speaking with, interactive processing apparatus 1, it is determined that the instruction of termination is issued, at time t 6," the other as it is to speak and by the end of the process of updating the parameter ".

【0067】このように、パラメータの更新処理は、ユ
ーザと対話することにより行うことができる。
As described above, the parameter updating process can be performed by interacting with the user.

【0068】図14のフローチャートの処理の説明に戻
り、ステップS1において、ユーザによる更新指示では
ないと判断されると、ステップS5に進み、韻律情報に
よる更新指示であるか否かが判断される。韻律情報によ
る更新指示であると判断される場合は、音声認識部51
の特徴抽出部62(図5)の処理により抽出された韻律
情報が、対話管理部43に入力され、対話管理部43
が、知識データベース83(図7)に記憶されている知
識を参照し、韻律情報に関する処理情報を取得する。そ
して、その取得された処理情報により、更新指示である
か否かが判断される。
Returning to the description of the processing of the flowchart in FIG. 14, when it is determined in step S1 that the instruction is not an update instruction by the user, the process proceeds to step S5, and it is determined whether the instruction is an update instruction based on prosody information. If it is determined that the update instruction is based on the prosody information, the voice recognition unit 51
The prosody information extracted by the process of the feature extracting unit 62 (FIG. 5) is input to the dialog managing unit 43, and the dialog managing unit 43
Refers to the knowledge stored in the knowledge database 83 (FIG. 7) and obtains processing information related to prosodic information. Then, based on the acquired processing information, it is determined whether the instruction is an update instruction.

【0069】韻律情報による更新指示であると判断され
ると、ステップS6に進み、韻律情報による更新処理が
開始される。図18は、ステップS6の処理の詳細を説
明するフローチャートである。ここでは、韻律情報とし
て、ピッチが用いられる場合を例に上げて説明する。ス
テップS51において、対話管理部43において、入力
された韻律情報に基づき、ピッチが高いか否かが判断さ
れる。ステップS51において、ピッチが高いと判断さ
れた場合、ステップS53に進み、パラメータ更新部4
6に、”忠実度”のパラメータの値を増加させる方向で
更新するように指示が出される。
If it is determined that the update instruction is based on the prosody information, the process proceeds to step S6, and the update process based on the prosody information is started. FIG. 18 is a flowchart illustrating details of the process in step S6. Here, a case where a pitch is used as the prosody information will be described as an example. In step S51, the dialog management unit 43 determines whether or not the pitch is high based on the input prosody information. If it is determined in step S51 that the pitch is high, the process proceeds to step S53, where the parameter updating unit 4
At 6, an instruction is issued to update in the direction of increasing the value of the "fidelity" parameter.

【0070】一方、ステップS51において、ピッチは
高くはないと判断された場合、ステップS53に進み、
パラメータ更新部46に、”忠実度”のパラメータの値
を減少させる方向で更新するように指示が出される。
On the other hand, if it is determined in step S51 that the pitch is not high, the process proceeds to step S53,
The parameter updating unit 46 is instructed to update in the direction of decreasing the value of the parameter of “fidelity”.

【0071】このような処理が終了されると、ステップ
S1に戻り、それ以降の処理が繰り返される。
When such processing is completed, the process returns to step S1, and the subsequent processing is repeated.

【0072】ステップS5(図14)において、韻律情
報による更新指示ではないと判断された場合、ステップ
S7に進み、内部情報による更新指示であるか否かが判
断される。内部情報とは、例えば、対話装置1が発話し
たことに対してユーザが返答するまでの時間や、対話装
置1とユーザが交わした対話の回数などである。これら
の情報は、対話履歴メモリ84(図7)に記憶されてい
る。対話管理部43は、対話履歴メモリ84に記憶され
ている情報を参照し、上述した返答までの時間が所定値
を越えた、会話回数が所定値を越えたなどの、所定の条
件が満たされると、内部情報による更新指示が出された
と判断する。
If it is determined in step S5 (FIG. 14) that the instruction is not an update instruction based on prosody information, the flow advances to step S7 to determine whether the instruction is an update instruction based on internal information. The internal information is, for example, a time until the user responds to the speech of the interactive device 1 or the number of interactions between the interactive device 1 and the user. These pieces of information are stored in the dialog history memory 84 (FIG. 7). The dialogue management unit 43 refers to the information stored in the dialogue history memory 84 and satisfies predetermined conditions such as the above-described time until a reply exceeds a predetermined value and the number of conversations exceeds a predetermined value. It is determined that an update instruction based on the internal information has been issued.

【0073】ステップS7において、内部情報による更
新指示が出されたと判断された場合、ステップS8に進
み、内部情報による更新処理が開始される。図19は、
ステップS8の処理の詳細を説明するフローチャートで
ある。ここでは、内部情報として、対話装置1が発話し
たことに対してユーザが返答を返すまでの時間(ユーザ
応答時間)を用いた場合を説明する。ステップS61に
おいて、対話管理部43は、ユーザ応答時間が短いか否
かを判断する。短いか否かの判断は、予め設定された値
を閾値として用い、その閾値以下であれば短いと判断す
る。
If it is determined in step S7 that an update instruction based on the internal information has been issued, the process proceeds to step S8, and an update process based on the internal information is started. FIG.
It is a flowchart explaining the detail of a process of step S8. Here, a case will be described in which the time until the user returns a response (user response time) to the utterance of the interactive device 1 is used as the internal information. In step S61, the dialog management unit 43 determines whether the user response time is short. The determination as to whether or not it is short is made using a preset value as a threshold, and if it is equal to or less than the threshold, it is determined to be short.

【0074】ステップS61において、ユーザ応答時間
が短いと判断された場合、ステップS62に進み、パラ
メータ更新部46に、”関心度”のパラメータの値を増
加させる方向で更新するように指示が出される。一方、
ステップS61において、ユーザ応答時間が短くはない
と判断された場合、ステップS63に進み、パラメータ
更新部46に、”関心度”のパラメータの値を減少させ
る方向で更新するように指示が出される。
If it is determined in step S61 that the user response time is short, the process proceeds to step S62, and the parameter updating unit 46 is instructed to update the parameter of the "degree of interest" in a direction of increasing the value. . on the other hand,
If it is determined in step S61 that the user response time is not short, the process proceeds to step S63, and the parameter updating unit 46 is instructed to update the parameter value of “degree of interest” in a decreasing direction.

【0075】このような処理が終了されると、ステップ
S1に戻り、それ以降の処理が繰り返される。
When such processing is completed, the flow returns to step S1, and the subsequent processing is repeated.

【0076】ステップS7において、内部情報による更
新指示ではないと判断された場合、ステップS9に進
む。ステップS9において、ニューラルによる更新指示
であるか否かが判断される。この判断は、例えば、所定
周期を設定し、その周期毎に行われる。ニューラルネッ
トワークによる更新指示であると判断されると、ステッ
プS10に進み、ニューラルによる更新処理が開始され
る。図20は、ステップS10の処理の詳細を説明する
フローチャートである。なお、ニューラルネットワーク
としては、例えば、図9に示した処理モデルが用いられ
る。
If it is determined in step S7 that the instruction is not an update instruction based on internal information, the process proceeds to step S9. In step S9, it is determined whether the instruction is a neural update instruction. This determination is made, for example, by setting a predetermined cycle and at each cycle. If it is determined that the instruction is an update instruction by the neural network, the process proceeds to step S10, and the update process by the neural network is started. FIG. 20 is a flowchart illustrating details of the process in step S10. As the neural network, for example, the processing model shown in FIG. 9 is used.

【0077】ステップS71において、パラメータ更新
部46は、パラメータ記憶部44に記憶されているパラ
メータの値を取得する。そして、ステップS72におい
て、取得したパラメータの値を各々のパラメータに対応
するニューロンに対して入力する。ニューラルネットワ
ークを利用して各パラメータの計算が行われ、各ニュー
ロンから更新された各々のパラメータの値が算出され
る。
In step S 71, the parameter updating section 46 acquires the value of the parameter stored in the parameter storage section 44. Then, in step S72, the acquired parameter values are input to the neuron corresponding to each parameter. The calculation of each parameter is performed using the neural network, and the value of each parameter updated from each neuron is calculated.

【0078】ステップS72の処理により算出されたパ
ラメータの値を用いて、ステップS73において、パラ
メータ記憶部44に記憶されているパラメータの値が更
新される。このような処理が終了されると、ステップS
1に戻り、それ以降の処理が繰り返される。
In step S73, the parameter values stored in the parameter storage unit 44 are updated using the parameter values calculated in step S72. When such processing is completed, step S
The process returns to 1 and the subsequent processes are repeated.

【0079】図14示したフローチャートの処理は、繰
り返し行われ、パラメータの記憶部44に記憶されてい
るパラメータの値は、動的に更新される。このように、
ユーザの指示および対話装置1自身の処理によりパラメ
ータを更新することにより、ユーザに対する対話装置1
の対応を変化させることが可能となり、もって、自然
な、変化に富んだ対話をユーザに提供することが可能と
なる。
The processing of the flowchart shown in FIG. 14 is repeatedly performed, and the parameter values stored in the parameter storage unit 44 are dynamically updated. in this way,
By updating the parameters by the user's instruction and the processing of the interactive device 1 itself, the interactive device 1 for the user is updated.
Can be changed, and a natural and varied conversation can be provided to the user.

【0080】このように動的に変化するパラメータを用
いた対話装置1の、応答文の生成処理について、図21
のフローチャートを参照して説明する。反応生成部47
は、ステップS81において、パラメータ記憶部44に
記憶されている各パラメータの値を読み出す。その読み
出した値を基に、ステップS82以下の処理を行う。ま
ず、ステップS82において、”おしゃべり度”の処理
が行われる。図22は、ステップS82の処理の詳細を
説明するフローチャートである。
FIG. 21 shows a process of generating a response sentence of the interactive apparatus 1 using such dynamically changing parameters.
This will be described with reference to the flowchart of FIG. Reaction generator 47
Reads the value of each parameter stored in the parameter storage unit 44 in step S81. Based on the read value, the process from step S82 is performed. First, in step S82, a process of "talking degree" is performed. FIG. 22 is a flowchart illustrating details of the process in step S82.

【0081】ステップS91において、読み出されたパ
ラメータの値を元に、反応が選択される。反応生成部4
7は、上述したように、図10に示すようなパラメータ
の値と反応の関係が記述されたテーブルを保持してい
る。そのテーブルにしたがって、反応が選択されるわけ
だが、いま、おしゃべり度は、種別がP1(図8に示し
たテーブルの識別子に対応)であり、反応としては「雑
談する」と「言葉数が少なくなる」の2通りが設定され
ている。この2通りの反応のうち、どちらか一方が、条
件により選択される。
In step S91, a reaction is selected based on the read parameter values. Reaction generator 4
7 holds a table in which the relationship between parameter values and reactions as shown in FIG. 10 is described, as described above. The reaction is selected according to the table, but the type of the chatter is P1 (corresponding to the identifier in the table shown in FIG. 8), and the response is "chat" or "the number of words is small.""Naru" is set. Either of the two reactions is selected depending on the conditions.

【0082】すなわち、パラメータの値として連続値が
用いられた場合、その値が、5以上の場合、「雑談す
る」が選択され、5以下の場合、「言葉数が少なくな
る」が選択される。ステップS92において、ステップ
S91において選択された反応が、雑談するであるか否
かが判断される。ステップS92において、雑談するが
選択されていると判断されると、ステップS93に進
む。ステップS93において、対話管理部43におい
て、パラメータの値に応じて、ユーザとの応答回数が決
定される。パラメータの値が大きいほど、すなわち、お
しゃべり度が高いほど、応答回数として大きな値が設定
される。
That is, when a continuous value is used as a parameter value, if the value is 5 or more, "chat" is selected, and if it is 5 or less, "the number of words is reduced" is selected. . In step S92, it is determined whether or not the reaction selected in step S91 is chat. If it is determined in step S92 that chat is selected, the process proceeds to step S93. In step S93, the interaction management unit 43 determines the number of responses with the user according to the value of the parameter. The larger the value of the parameter, that is, the higher the chatter degree, the larger the value of the number of responses is set.

【0083】ステップS94において、対話管理部81
は、シナリオメモリ82に記憶されている雑談モードの
シナリオを読み出し、ステップS95において、システ
ム(対話装置1)主導で、ユーザに話し掛ける。このよ
うに、おしゃべり度が高い場合、対話装置1の方からユ
ーザに対して話し掛ける。
In step S94, the dialog management section 81
Reads the chat mode scenario stored in the scenario memory 82, and in step S95, speaks to the user under the initiative of the system (interactive device 1). As described above, when the chatter degree is high, the interactive device 1 talks to the user.

【0084】一方、ステップS92において、雑談する
が選択されているのではないと判断される、すなわち、
おしゃべり度が高くなく、言葉数が少なくなるが選択さ
れいると判断されると、対話装置1の方からユーザに話
し掛けることが少なくなるため、ステップS93乃至S
95の処理はスキップされる。
On the other hand, in step S92, it is determined that chat is not selected, ie,
If it is determined that the chatter degree is not high and the number of words is small but selected, the dialogue device 1 is less likely to talk to the user.
Step 95 is skipped.

【0085】このようにして、おしゃべり度に関する処
理が終了されると、ステップS83(図21)に進み、
忠実度の処理が開始される。図23は、ステップS83
の処理の詳細を説明するフローチャートである。ステッ
プS101において、反応生成部47は、パラメータ記
憶部44に記憶されている忠実度に関するパラメータの
値を読み出す。反応生成部47は、保持している図10
に示したようなテーブルを参照する。種別がP2である
忠実度に関する反応としては、識別子としてR3乃至R
5の3つの反応が設定されている。
When the process relating to the chatter degree is completed in this way, the process proceeds to step S83 (FIG. 21),
Fidelity processing begins. FIG.
5 is a flowchart for explaining the details of the processing of FIG. In step S101, the reaction generation unit 47 reads a parameter value related to fidelity stored in the parameter storage unit 44. The reaction generation unit 47 holds the
Refer to the table as shown in. As the response regarding the fidelity whose type is P2, R3 to R3 are used as identifiers.
Five reactions are set.

【0086】反応生成部47は、ステップS102にお
いて、パラメータ記憶部44から読み出した忠実度に関
するパラメータの値が、どの条件に当てはまるかを判断
し、その当てはまる条件の反応を選択する。例えば、パ
ラメータの値が、8であった場合、7以上という条件に
当てはまるため、識別子R3の「対話の指示通りに処
理」という反応が選択される。
In step S102, the reaction generator 47 determines which condition the parameter value relating to fidelity read from the parameter storage unit 44 applies to, and selects a reaction of the applicable condition. For example, when the value of the parameter is 8, the condition of 7 or more is satisfied, and therefore, the reaction of the identifier R3 of "process as instructed by the dialogue" is selected.

【0087】このようにして選択された反応に基づき、
ステップS103において、応答生成部45において適
切な応答文が作成されるように制御される。例えば、反
応として識別子R3の「対話の指示通りに処理」が選択
された場合、応答生成部45の応答文生成部91は、テ
ンプレートデータベース92に記憶されているテンプレ
ートを参照し、識別子R3の場合、丁寧な表現(−いた
しましょうか)を用いるような応答文を生成する。
Based on the reaction thus selected,
In step S103, the response generation unit 45 is controlled so that an appropriate response sentence is created. For example, when "process as directed by dialog" of the identifier R3 is selected as the response, the response sentence generating unit 91 of the response generating unit 45 refers to the template stored in the template database 92, and in the case of the identifier R3. , And generates a response sentence using a polite expression (-Itashimashika).

【0088】このような忠実度の処理が終了されると、
ステップS84(図21)に進み、関心度の処理が行わ
れる。図24は、ステップS84の処理の詳細を説明す
るフローチャートである。反応生成部47は、ステップ
S111において、パラメータ記憶部44に記憶されて
いる関心度に関するパラメータの値を読み出す。反応生
成部47は、保持しているテーブルを参照し、反応の種
別がP3であり、その種別に対応する反応としては、識
別子R6,R7の2つが設定されていると認識する。
When the processing of such fidelity is completed,
Proceeding to step S84 (FIG. 21), interest level processing is performed. FIG. 24 is a flowchart illustrating details of the process in step S84. In step S111, the reaction generation unit 47 reads the parameter value related to the degree of interest stored in the parameter storage unit 44. The reaction generation unit 47 refers to the held table and recognizes that the type of the reaction is P3 and that two identifiers R6 and R7 are set as the reactions corresponding to the type.

【0089】ステップS112において、相槌の数が多
いが選択されているか否かが判断される。換言すれば、
読み出したパラメータの値が、6以上であるか否かが判
断される。このようにして判断されるのは、パラメータ
の値が6以上である場合、反応としては、識別子R6の
「相槌の数が多い」が選択され、パラメータの値が6以
下の場合、反応としては、識別子R7の「聞き流す」が
選択されるからである。
In step S112, it is determined whether or not the number of companions is large but selected. In other words,
It is determined whether the value of the read parameter is 6 or more. It is determined in this way that if the value of the parameter is 6 or more, “the number of companions” of the identifier R6 is selected as the response, and if the value of the parameter is 6 or less, the response is This is because "listening" of the identifier R7 is selected.

【0090】ステップS112において、相槌の数が多
いが選択されていると判断された場合、ステップS11
3に進み、対話管理部43は、ユーザの発話に対してど
れだけの相槌をいれるか、その相槌を行う数を設定す
る。一方、ステップS112において、相槌の数が多い
が選択されているわけではないと判断された場合、換言
すれば、反応として「聞き流す」が選択されていると判
断された場合、相槌の数を設定する必要は無いので、ス
テップS113の処理はスキップされる。
If it is determined in step S112 that the number of companions is large but selected, the process proceeds to step S11.
Proceeding to 3, the dialogue management unit 43 sets the number of hits for the user's utterance and the number of hits. On the other hand, if it is determined in step S112 that the number of companions is large but not selected, in other words, if it is determined that “listen” is selected as the response, the number of companions is set. Since there is no need to perform the process, the process of step S113 is skipped.

【0091】このような関心度の処理が終了されると、
ステップS85(図21)に進み、応対度の処理が開始
される。図25は、ステップS85の処理の詳細を説明
するフローチャートである。ステップS121におい
て、反応生成部47は、パラメータ記憶部44に記憶さ
れている応対度に関するパラメータの値を読み出す。ス
テップS122において、韻律情報を計算する。
When the processing of the degree of interest is completed,
Proceeding to step S85 (FIG. 21), the processing of the response level is started. FIG. 25 is a flowchart illustrating details of the process in step S85. In step S121, the reaction generation unit 47 reads the value of the parameter related to the degree of response stored in the parameter storage unit 44. In step S122, prosody information is calculated.

【0092】反応生成部47は、保持しているテーブル
を参照し、反応の種別がP4であり、その種別に対応す
る反応としては、識別子R8,R9の2つが設定されて
いると認識する。すなわち、対応度に関する反応は、識
別子R8の「表情、声を明るくする」と、識別子R9の
「表情は暗く、怒った声」という2つの設定が行われて
いる。この反応は、キャラクター表示部111(図1
2)に表示されるキャラクターの表情と、スピーカ6に
より発話される対話装置1の声に関するものである。
The reaction generator 47 refers to the table held and recognizes that the type of the reaction is P4, and two identifiers R8 and R9 are set as the reactions corresponding to the type. That is, as the reaction regarding the degree of correspondence, two settings are made for the identifier R8, "Expression and voice are bright," and for the identifier R9, "Expression is dark and angry." This reaction is performed by the character display unit 111 (FIG. 1).
This relates to the expression of the character displayed in 2) and the voice of the interactive device 1 uttered by the speaker 6.

【0093】ここでは、声に関する処理を例に挙げて説
明すると、ステップS122において、声の明るさ、暗
さを左右する韻律情報が計算される。この計算結果に基
づいて、ステップS123において、音声合成部(不図
示)により、音声が合成され、出力される。
Here, the processing relating to the voice will be described as an example. In step S122, prosody information which determines the brightness and darkness of the voice is calculated. Based on the calculation result, in step S123, a voice is synthesized by a voice synthesis unit (not shown) and output.

【0094】図21に示したフローチャートの処理は、
対話装置1が、ユーザと対話している間、繰り返し行わ
れる。パラメータの値は、上述したように、動的に変化
されるので、図21に示したフローチャートの処理を対
話している間、繰り返し行うことにより、対話装置1の
応対の仕方に変化をもたらすことが可能となり、もっ
て、単調な対話を行うことがなくなり、楽しい対話をユ
ーザに提供することが可能となる。
The processing of the flowchart shown in FIG.
It is repeatedly performed while the interactive device 1 is interacting with the user. Since the value of the parameter is dynamically changed as described above, by repeatedly performing the processing of the flowchart shown in FIG. 21 during the dialogue, it is possible to bring about a change in the way the dialogue apparatus 1 responds. Therefore, it is not necessary to perform a monotonous dialog, and it is possible to provide a fun dialog to the user.

【0095】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが専用のハードウェアに組み込まれているコンピ
ュータ、または、各種のプログラムをインストールする
ことで、各種の機能を実行することが可能な、例えば汎
用のパーソナルコンピュータなどに、記録媒体からイン
ストールされる。
The above series of processing can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, it is possible to execute various functions by installing a computer in which the programs constituting the software are embedded in dedicated hardware, or by installing various programs For example, it is installed from a recording medium to a general-purpose personal computer or the like.

【0096】この記録媒体は、図2に示すように、コン
ピュータとは別に、ユーザにプログラムを提供するため
に配布される、プログラムが記録されている磁気ディス
ク31(フロッピディスクを含む)、光ディスク32
(CD-ROM(Compact Disk-ReadOnly Memory),DVD(Dig
ital Versatile Disk)を含む)、光磁気ディスク33
(MD(Mini-Disk)を含む)、若しくは半導体メモリ3
4などよりなるパッケージメディアにより構成されるだ
けでなく、コンピュータに予め組み込まれた状態でユー
ザに提供される、プログラムが記憶されているROM12
や記憶部18が含まれるハードディスクなどで構成され
る。
As shown in FIG. 2, the recording medium is a magnetic disk 31 (including a floppy disk) on which the program is recorded and an optical disk 32 which are distributed separately from the computer to provide the program to the user.
(CD-ROM (Compact Disk-Read Only Memory), DVD (Dig
ital Versatile Disk), magneto-optical disk 33
(Including MD (Mini-Disk)) or semiconductor memory 3
ROM 12 that stores programs and is provided to the user in a state in which it is not only configured by a package medium such as
And a hard disk including the storage unit 18.

【0097】なお、本明細書において、媒体により提供
されるプログラムを記述するステップは、記載された順
序に従って、時系列的に行われる処理は勿論、必ずしも
時系列的に処理されなくとも、並列的あるいは個別に実
行される処理をも含むものである。
In the present specification, the steps of describing a program provided by a medium are not limited to processing performed in chronological order according to the order described, but are not necessarily performed in chronological order. Alternatively, it also includes individually executed processing.

【0098】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
[0098] In this specification, the system is
It represents the entire device composed of a plurality of devices.

【0099】[0099]

【発明の効果】以上の如く請求項1に記載の会話処理装
置、請求項6に記載の会話処理方法、および請求項7に
記載の記録媒体によれば、入力された言語情報を解析
し、パラメータを記憶し、その記憶されているパラメー
タを動的に更新し、解析結果と、記憶されているパラメ
ータとを基に、ユーザとの会話を制御するようにしたの
で、ユーザに変化に富んだ対応をする対話を提供するこ
とが可能となる。
As described above, according to the conversation processing apparatus of the first aspect, the conversation processing method of the sixth aspect, and the recording medium of the seventh aspect, the input language information is analyzed. The parameters are stored, the stored parameters are dynamically updated, and the conversation with the user is controlled based on the analysis result and the stored parameters. It is possible to provide a corresponding dialogue.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した対話装置1の一実施の形態の
外観を示す図である。
FIG. 1 is a diagram illustrating an appearance of an embodiment of a dialog device 1 to which the present invention is applied.

【図2】対話装置1の内部構成を示す図である。FIG. 2 is a diagram showing an internal configuration of the interactive device 1.

【図3】対話装置1の機能ブロック図である。FIG. 3 is a functional block diagram of the interactive device 1.

【図4】言語情報入力部41の内部構成を示す図であ
る。
FIG. 4 is a diagram showing an internal configuration of a language information input unit 41.

【図5】音声認識部51の内部構成を示す図である。FIG. 5 is a diagram showing an internal configuration of a voice recognition unit 51.

【図6】言語処理部42の内部構成を示す図である。FIG. 6 is a diagram showing an internal configuration of a language processing unit 42.

【図7】対話管理部43の内部構成を示す図である。FIG. 7 is a diagram showing an internal configuration of a dialog management unit 43.

【図8】パラメータ記憶部4に記憶されているテーブル
を説明する図である。
FIG. 8 is a diagram illustrating a table stored in a parameter storage unit 4;

【図9】パラメータ更新部46が行うパラメータ更新に
ついて説明する図である。
FIG. 9 is a diagram illustrating parameter updating performed by a parameter updating unit.

【図10】反応生成部47に記憶されているテーブルを
説明する図である。
FIG. 10 is a diagram illustrating a table stored in a reaction generation unit 47.

【図11】応答生成部45の内部構成を示す図である。11 is a diagram showing an internal configuration of a response generation unit 45. FIG.

【図12】ディスプレイ7上に表示される表示例であ
る。
FIG. 12 is a display example displayed on a display 7;

【図13】パラメータ設定部113の表示例である。13 is a display example of a parameter setting unit 113. FIG.

【図14】パラメータ更新処理について説明するフロー
チャートである。
FIG. 14 is a flowchart illustrating a parameter update process.

【図15】図14のステップS3の処理の詳細を説明す
るフローチャートである。
FIG. 15 is a flowchart illustrating details of a process in step S3 of FIG. 14;

【図16】図15のステップS22の処理の詳細を説明
するフローチャートである。
FIG. 16 is a flowchart illustrating details of a process in step S22 in FIG. 15;

【図17】図14のステップS4の処理の詳細を説明す
るフローチャートである。
FIG. 17 is a flowchart illustrating details of a process in step S4 of FIG. 14;

【図18】図14のステップS6の処理の詳細を説明す
るフローチャートである。
FIG. 18 is a flowchart illustrating details of a process in step S6 of FIG.

【図19】図14のステップS8の処理の詳細を説明す
るフローチャートである。
FIG. 19 is a flowchart illustrating details of a process in step S8 in FIG. 14;

【図20】図14のステップS10の処理の詳細を説明
するフローチャートである。
FIG. 20 is a flowchart illustrating details of a process in step S10 of FIG. 14;

【図21】応答文生成処理を説明するフローチャートで
ある。
FIG. 21 is a flowchart illustrating a response sentence generation process.

【図22】図21のステップS82の処理の詳細を説明
するフローチャートである。
FIG. 22 is a flowchart illustrating details of a process in step S82 in FIG. 21;

【図23】図21のステップS83の処理の詳細を説明
するフローチャートである。
FIG. 23 is a flowchart illustrating details of a process in step S83 of FIG. 21;

【図24】図21のステップS84の処理の詳細を説明
するフローチャートである。
FIG. 24 is a flowchart illustrating details of a process in step S84 in FIG. 21;

【図25】図21のステップS85の処理の詳細を説明
するフローチャートである。
FIG. 25 is a flowchart illustrating details of a process in step S85 in FIG. 21;

【符号の説明】[Explanation of symbols]

1 対話装置, 2 本体, 3 キーボード, 4
マウス, 5 マイクロフォン, 6 スピーカ, 7
ディスプレイ, 8 CCD, 41 言語情報入力
部, 42 言語処理部, 43 対話管理部, 44
パラメータ記憶部, 45 応答生成部, 46 パ
ラメータ更新部, 47 反応生成部
1 interactive device, 2 main body, 3 keyboard, 4
Mouse, 5 microphones, 6 speakers, 7
Display, 8 CCD, 41 language information input unit, 42 language processing unit, 43 dialogue management unit, 44
Parameter storage unit, 45 response generation unit, 46 parameter update unit, 47 reaction generation unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/22 G10L 3/00 571U (72)発明者 田中 幸 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 横野 順 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 大江 敏生 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B049 BB31 BB52 CC06 DD00 DD01 DD03 DD05 EE03 EE05 EE07 FF03 FF04 FF06 FF09 GG04 GG07 5B091 AA15 BA03 BA19 CA02 CA05 CA12 CB12 CB22 CB32 CC02 CC03 CD03 CD15 EA01 EA21 5D015 KK02 KK04 LL05 LL07 5D045 AA07 AB01 AB11 9A001 BB02 BB03 BB04 CC02 DD11 EE02 EE05 HH06 HH07 HH11 HH16 HH17 HH18 HH21 HH33 JJ01 JJ62 JJ72 KK46 KK56 KK60 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G10L 15/22 G10L 3/00 571U (72) Inventor Sachi Tanaka 6-7-35 Kita Shinagawa, Shinagawa-ku, Tokyo No. Sony Corporation (72) Inventor Jun Yokono 6-35, Kita Shinagawa, Shinagawa-ku, Tokyo Sony Corporation (72) Inventor Toshio Oe 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Soniー Internal F term (Reference) 5B049 BB31 BB52 CC06 DD00 DD01 DD03 DD05 EE03 EE05 EE07 FF03 FF04 FF06 FF09 GG04 GG07 5B091 AA15 BA03 BA19 CA02 CA05 CA12 CB12 CB22 CB32 CC02 CC03 CD03 CD15 EA01 EA21 KK02 AB11 9A001 BB02 BB03 BB04 CC02 DD11 EE02 EE05 HH06 HH07 HH11 HH16 HH17 HH18 HH21 HH33 JJ01 JJ62 JJ72 KK46 KK56 KK60

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 ユーザと会話する会話処理装置におい
て、 言語情報を入力する入力手段と、 前記入力手段により入力された前記言語情報を解析する
解析手段と、 パラメータを記憶する記憶手段と、 前記記憶手段に記憶されている前記パラメータを更新す
る更新手段と、 前記解析手段による解析結果と、前記記憶手段により記
憶されている前記パラメータを基に、前記ユーザとの会
話を制御する制御手段とを含むことを特徴とする会話処
理装置。
1. A conversation processing apparatus for talking with a user, wherein: input means for inputting linguistic information; analysis means for analyzing the linguistic information input by the input means; storage means for storing parameters; Updating means for updating the parameters stored in the means; control means for controlling a conversation with the user based on an analysis result by the analyzing means and the parameters stored in the storing means. A conversation processing device characterized by the above-mentioned.
【請求項2】 前記入力手段は、前記ユーザから、音声
形式、テキスト形式、または、ジェスチャ形式のうち
の、少なくても1つの形式が用いられて供給される前記
言語情報を入力することを特徴とする請求項1に記載の
会話処理装置。
2. The method according to claim 1, wherein the input unit inputs the language information supplied from the user using at least one of a voice format, a text format, and a gesture format. The conversation processing device according to claim 1.
【請求項3】 前記更新手段は、前記ユーザの音声によ
る指示により、前記記憶手段に記憶されている前記パラ
メータの更新を開始することを特徴とする請求項1に記
載の会話処理装置。
3. The conversation processing apparatus according to claim 1, wherein the updating unit starts updating the parameters stored in the storage unit in response to a voice instruction from the user.
【請求項4】 前記更新手段は、前記ユーザの発話から
得られる韻律情報、前記ユーザと会話を交わした回数の
情報、または、前記ユーザの返答が返ってくるまでにか
かった時間の情報のうち、少なくても1つの情報を用
い、その情報が、所定の条件を満たす場合、前記記憶手
段に記憶されている前記パラメータを更新することを特
徴とする請求項1に記載の会話処理装置。
4. The method according to claim 1, wherein the updating means includes: prosody information obtained from the utterance of the user; information on the number of conversations with the user; and information on the time required for the user to return a response. 2. The conversation processing apparatus according to claim 1, wherein at least one piece of information is used, and when the information satisfies a predetermined condition, the parameter stored in the storage unit is updated.
【請求項5】 前記パラメータは、おしゃべり度、忠実
度、関心度、対応度を、それぞれ示すものであることを
特徴とする請求項1に記載の会話処理装置。
5. The conversation processing apparatus according to claim 1, wherein the parameters indicate a degree of talk, a degree of fidelity, a degree of interest, and a degree of correspondence.
【請求項6】 ユーザと会話する会話処理装置の会話処
理方法において、言語情報の入力を制御する入力制御ス
テップと、 前記入力制御ステップの処理で入力された前記言語情報
を解析する解析ステップと、 パラメータの記憶を制御する記憶制御ステップと、 前記記憶制御ステップの処理で記憶された前記パラメー
タを更新する更新ステップと、 前記解析ステップの処理による解析結果と、前記記憶制
御ステップの処理で記憶された前記パラメータを基に、
前記ユーザとの会話を制御する制御ステップとを含むこ
とを特徴とする会話処理方法。
6. A conversation processing method of a conversation processing apparatus for conversation with a user, wherein: an input control step of controlling input of linguistic information; and an analyzing step of analyzing the linguistic information input in the processing of the input control step. A storage control step of controlling storage of the parameter; an update step of updating the parameter stored in the processing of the storage control step; an analysis result by the processing of the analysis step; and an analysis result stored in the processing of the storage control step. Based on the above parameters,
And a control step of controlling a conversation with the user.
【請求項7】 ユーザと会話する会話処理装置の会話処
理用のプログラムであって、言語情報の入力を制御する
入力制御ステップと、 前記入力制御ステップの処理で入力された前記言語情報
を解析する解析ステップと、 パラメータの記憶を制御する記憶制御ステップと、 前記記憶制御ステップの処理で記憶された前記パラメー
タを更新する更新ステップと、 前記解析ステップの処理による解析結果と、前記記憶制
御ステップの処理で記憶された前記パラメータを基に、
前記ユーザとの会話を制御する制御ステップとを含むこ
とを特徴とするコンピュータが読み取り可能なプログラ
ムが記録されている記録媒体。
7. A program for a conversation processing of a conversation processing apparatus for conversation with a user, comprising: an input control step of controlling input of linguistic information; and analyzing the linguistic information input in the processing of the input control step. An analysis step, a storage control step of controlling storage of parameters, an update step of updating the parameters stored in the processing of the storage control step, an analysis result by the processing of the analysis step, and a processing of the storage control step Based on the parameters stored in
And a control step of controlling a conversation with the user. A recording medium on which a computer-readable program is recorded.
JP37577199A 1999-12-28 1999-12-28 Conversation processing apparatus and method, and recording medium Pending JP2001188788A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37577199A JP2001188788A (en) 1999-12-28 1999-12-28 Conversation processing apparatus and method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37577199A JP2001188788A (en) 1999-12-28 1999-12-28 Conversation processing apparatus and method, and recording medium

Publications (2)

Publication Number Publication Date
JP2001188788A true JP2001188788A (en) 2001-07-10
JP2001188788A5 JP2001188788A5 (en) 2006-04-27

Family

ID=18506038

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37577199A Pending JP2001188788A (en) 1999-12-28 1999-12-28 Conversation processing apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP2001188788A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169591A (en) * 2000-12-01 2002-06-14 Namco Ltd Simulated conversation system and information storage medium
JP2003108376A (en) * 2001-10-01 2003-04-11 Denso Corp Response message generation apparatus, and terminal device thereof
JP2004073668A (en) * 2002-08-21 2004-03-11 P To Pa:Kk Race game machine, race game control method and program
JP2006171719A (en) * 2004-12-01 2006-06-29 Honda Motor Co Ltd Interactive information system
JP2017161637A (en) * 2016-03-08 2017-09-14 シャープ株式会社 Speech device, control method of speech device, control program, and record medium
JP2018142272A (en) * 2017-02-28 2018-09-13 株式会社エヌ・ティ・ティ・データ Content evaluation prediction system and content evaluation prediction method
JP2021101363A (en) * 2019-07-11 2021-07-08 株式会社フューチャーアイ Service providing system and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169591A (en) * 2000-12-01 2002-06-14 Namco Ltd Simulated conversation system and information storage medium
JP2003108376A (en) * 2001-10-01 2003-04-11 Denso Corp Response message generation apparatus, and terminal device thereof
JP2004073668A (en) * 2002-08-21 2004-03-11 P To Pa:Kk Race game machine, race game control method and program
JP2006171719A (en) * 2004-12-01 2006-06-29 Honda Motor Co Ltd Interactive information system
JP2017161637A (en) * 2016-03-08 2017-09-14 シャープ株式会社 Speech device, control method of speech device, control program, and record medium
JP2018142272A (en) * 2017-02-28 2018-09-13 株式会社エヌ・ティ・ティ・データ Content evaluation prediction system and content evaluation prediction method
JP2021101363A (en) * 2019-07-11 2021-07-08 株式会社フューチャーアイ Service providing system and program
JP2022003586A (en) * 2019-07-11 2022-01-11 株式会社フューチャーアイ Supporting system
JP7067755B2 (en) 2019-07-11 2022-05-16 株式会社フューチャーアイ Service provision system and terminal

Similar Documents

Publication Publication Date Title
KR102582291B1 (en) Emotion information-based voice synthesis method and device
KR20230056741A (en) Synthetic Data Augmentation Using Voice Transformation and Speech Recognition Models
JP3994368B2 (en) Information processing apparatus, information processing method, and recording medium
CN100401375C (en) Speech processing system and method
JP5174937B2 (en) Speech recognition apparatus and method
JP4729902B2 (en) Spoken dialogue system
JP2001215993A (en) Dialog processing apparatus, dialog processing method, and recording medium
JP2002304190A (en) Method for generating pronunciation change form and method for speech recognition
WO2007148493A1 (en) Emotion recognizer
US20090240499A1 (en) Large vocabulary quick learning speech recognition system
JP2024170506A (en) Instant text-to-speech learning during dialogue
CN110767240B (en) Equipment control method, equipment, storage medium and device for identifying child accent
Aylett et al. Building and designing expressive speech synthesis
Bharadwaj et al. Analysis of Prosodic features for the degree of emotions of an Assamese Emotional Speech
CN117174067A (en) Speech processing method, device, electronic equipment and computer-readable medium
KR20230067501A (en) Speech synthesis device and speech synthesis method
JP2001188779A (en) Information processing apparatus and method, and recording medium
Pugazhenthi et al. AI-Driven Voice Inputs for Speech Engine Testing in Conversational Systems
JP2018031851A (en) Discourse function estimation device and computer program for the same
JP2010197644A (en) Speech recognition system
JP2001188788A (en) Conversation processing apparatus and method, and recording medium
CN115881119A (en) Disambiguation method and system integrating rhythm characteristics, refrigeration equipment and storage medium
JP2001209644A (en) Information processing apparatus, information processing method, and recording medium
US12211482B1 (en) Configuring applications for speech processing
JP2001117752A (en) Information processing apparatus, information processing method, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071026