JP2012093972A - Conversation processing device - Google Patents
Conversation processing device Download PDFInfo
- Publication number
- JP2012093972A JP2012093972A JP2010240953A JP2010240953A JP2012093972A JP 2012093972 A JP2012093972 A JP 2012093972A JP 2010240953 A JP2010240953 A JP 2010240953A JP 2010240953 A JP2010240953 A JP 2010240953A JP 2012093972 A JP2012093972 A JP 2012093972A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- component
- user
- vocabulary
- current point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 73
- 230000008451 emotion Effects 0.000 claims abstract description 227
- 230000004044 response Effects 0.000 claims abstract description 58
- 238000000034 method Methods 0.000 claims description 66
- 230000002996 emotional effect Effects 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 38
- 230000014509 gene expression Effects 0.000 claims description 34
- 230000006870 function Effects 0.000 claims description 21
- 230000002452 interceptive effect Effects 0.000 claims description 7
- 230000003313 weakening effect Effects 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 11
- 239000013598 vector Substances 0.000 description 29
- 238000004364 calculation method Methods 0.000 description 19
- 238000013523 data management Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000008909 emotion recognition Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- LQIAZOCLNBBZQK-UHFFFAOYSA-N 1-(1,2-Diphosphanylethyl)pyrrolidin-2-one Chemical compound PCC(P)N1CCCC1=O LQIAZOCLNBBZQK-UHFFFAOYSA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000035508 accumulation Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、ユーザの言葉に対して応答文を作成する対話処理装置に関するものである。 The present invention relates to a dialogue processing apparatus that creates a response sentence for a user's words.
従来の対話処理は、ATMのように装置側から一方的な発話がなされたり、また自動電話サービスのように、ありきたりな定型文を挿入してユーザからの問いかけに答えるというものが一般的であった。かかる応対は、機械的・事務的な印象をユーザに与え、装置との対話を楽しむような余地がなかった。
しかし、近年では、ゲームや愛玩用のペット型玩具、介護や癒しを目的としたコミュニケーションロボット等の用途で対話処理装置の利用が期待されている。このような用途では、人間と対面しているかのような印象をユーザに与える対話処理が求められる。
Conventional dialog processing is generally one-way utterance from the device side like ATM, or answering a user's question by inserting a common fixed sentence like automatic telephone service. there were. Such a response gives a user a mechanical / office-like impression, and there is no room for enjoying a dialogue with the apparatus.
However, in recent years, the use of dialog processing devices is expected for applications such as pet toys for games and pets, and communication robots for the purpose of nursing and healing. In such an application, an interactive process that gives the user the impression that they are facing a human being is required.
例えば、コミュニケーションロボットとしては、特許文献1がある。また、特許文献2には、ユーザの性格に応じたコミュニケーション行動を行うコミュニケーションロボットが開示されている。
For example, there is
しかしながら、特許文献2に記載のものは、ユーザの感情を汲み、その感情状態の変化を促すような応答を返すものではない。
本発明は、ユーザ感情状態の変化を促すような応答文を作成することができる対話処理装置を提供することを目的とする。
However, the device described in
An object of the present invention is to provide an interactive processing apparatus that can create a response sentence that prompts a change in a user emotional state.
上記目的を達成するために、本発明に係る対話処理装置は、ユーザの感情の認識と、知識データベースを用いたユーザに対する感情表現とを実行する対話処理装置であって、ユーザ感情の認識結果から、感情の種別及び感情の強さを成分とした座標系における現在点を得るとともに、この座標系において現在点よりも目標とする感情の収束状態に近い経由点を決定する処理を含み、知識データベースは、複数の語彙及び定型文のそれぞれを、感情の種別及び感情の強さに応じたパラメータに関連付けて示すものであり、前記ユーザに対する感情表現は、経由点での感情の種別及び感情の強さに応じたパラメータで知識データベースを検索することで、対話に用いるべき語彙及び定型文の少なくとも一方を得て、その取得結果を用いた応答文を作成することでなされることを特徴とする。 In order to achieve the above object, a dialogue processing apparatus according to the present invention is a dialogue processing apparatus that executes recognition of a user's emotion and expression of emotion for the user using a knowledge database, from the recognition result of the user's emotion A knowledge database that includes a process for obtaining a current point in a coordinate system having the emotion type and emotion strength as components, and determining a via point closer to the target emotion convergence state than the current point in this coordinate system. Indicates each of a plurality of vocabularies and fixed phrases in association with parameters according to the type of emotion and the strength of emotion, and the emotional expression for the user includes the type of emotion and the strength of emotion at the waypoint By searching the knowledge database with parameters according to the size, we obtain at least one of the vocabulary and fixed phrases that should be used in the dialogue, and the response sentence using the acquired results Characterized in that it is made by forming.
本発明に係る対話処理装置は、現在のユーザ感情よりも目標とする感情の収束状態に近い経由点での感情種別、及び感情の強さと対応するような語彙を用いて、応答文を作成する。これにより、目標とする感情の収束状態に緩やかに近づけるようなユーザ感情の変化を促すことができる。このような緩やかな感情変化を促す応答は、人間と対面しているかのような印象をユーザに与えることができる。 The dialogue processing apparatus according to the present invention creates a response sentence by using an emotion type at a waypoint closer to the target emotion convergence state than the current user emotion and a vocabulary corresponding to the emotion strength. . As a result, it is possible to promote a change in user emotion that gently approaches the target emotion convergence state. Such a response that prompts a gentle emotional change can give the user the impression that they are facing humans.
以下、本発明に係る対話処理装置の実施の形態について、図を用いて説明する。
図1は、本実施形態に係る対話処理装置の利用形態を示す図である。本発明に係る対話処理装置1は、マイク、スピーカ、マイコンシステムを内蔵したヌイグルミ様の玩具であり、ユーザの発話に対して応答文を音声にて出力する動作を繰り返すことで、ユーザとの対話処理を実現する。このような対話処理において、ユーザの言葉に強い怒りや、強い哀しみ等の好ましくない感情が認識される場合、対話処理装置1は、ユーザ感情をなだめたり、あるいは好ましい感情に変化するよう促す語彙、若しくは定型文を応答文に用いる。対話処理においてユーザ感情が目標とする感情状態に収束するように語彙、若しくは定型文を用いることを、対話処理装置1の感情表現処理と称する。感情表現処理では、ユーザの発話に基づくユーザ感情の認識と、それに対する応答文の出力とで1回の「試行」とし、対話処理装置1は、試行を繰り返すことでユーザの感情が目標とする感情状態に収束した場合に、感情表現処理を終了する。
DESCRIPTION OF EMBODIMENTS Hereinafter, an embodiment of a dialogue processing apparatus according to the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a usage pattern of the dialogue processing apparatus according to the present embodiment. The
次に、対話処理装置1の内部構成について説明する。図2は、対話処理装置1の内部構成を示すブロック図である。対話処理装置1は、マイコンシステム10、マイク20、及び、スピーカ30を有する。
マイク20は、入力された音声から音声信号を生成し、これをPCM WAVE形式の音声データに変換した後に出力する。
Next, the internal configuration of the
The
スピーカ30は、PCM WAVE形式の音声データを、音声に変換して出力する。
マイコンシステム10はCPU、RAM、ROMからなり、ROMに記録されたプログラムをCPUが実行することにより、本図の破線内に示す音声認識部11、感情認識部12、感情表現制御部13、知識データベース14、応答文作成部15、及び、音声合成部16の機能を実現する。
The
The
音声認識部11は、音声認識ソフトの実行により実現される機能ブロックであり、マイク20から入力された音声データを解析し、ユーザが発した言葉をテキストデータとして出力する。
感情認識部12は、マイク20から入力された音声データの抑揚等を解析し、発話したユーザの感情の認識結果として、感情情報を出力する。感情認識部の実現には、例えば、株式会社AGI製の感情認識ソフトである「ST Emotion」等の利用が考えられる。ST Emotionは、「怒り」「喜び」「哀しみ」「平常」「笑い」「興奮」の6つの感情要素について、それぞれ強度を検出する。「怒り」「喜び」「哀しみ」「平常」「興奮」については0〜10の11段階で検出され、「笑い」についてはある/ないの2段階で検出される。以下、本実施の形態では、ST Emotionを利用するものとし、感情認識部12が出力する感情情報としては、「ST Emotion」の検出値のうち「怒り」、「喜び」、「哀しみ」、「平常」の4つの感情要素の検出値を用いる。
The
The
感情表現制御部13は、応答文で用いるべき感情表現を含む語彙や定型文を知識データベースから取得し、応答文作成部15へ提示する機能を有する。具体的には、感情認識部12が出力した感情情報において強い怒りや、強い哀しみが示されている場合に、これらをなだめたり、慰撫する語彙や定型文を知識データベース14から取得し、取得結果を応答文作成部15へ出力する。ここで知識データベース14から複数の語彙や定型文が取得される場合、感情表現制御部13は尤度に従って、取得結果の語彙や定型文に順位付けをした上で応答文作成部15へ出力する。
The emotion
知識データベース14は、対話処理における応答のために用いる語彙管理データベースである。知識データベース14は、様々な会話のカテゴリー(以下、クラスタ)について語彙及び定型文を収集し、クラスタ毎にXMLファイルを作成し管理する。各クラスタファイルでは、語彙及び定型文が意味属性で分類されている。また、知識データベース14では更に、語彙及び定型文に共起頻度等の関連情報が付加されている。図3は、感情語彙クラスタファイルの一例を示す図である。感情語彙クラスタファイルには、感情表現を伴う語彙及び定型文(以下、「感情語彙」と総称する。)が収録されており、これらの感情語彙を応答文で使用することが望ましいと考えられる会話相手の感情種別及び感情の強さを意味属性として、各感情語彙が分類されている。 The knowledge database 14 is a vocabulary management database used for responses in dialogue processing. The knowledge database 14 collects vocabulary and fixed phrases for various conversation categories (hereinafter referred to as clusters), and creates and manages XML files for each cluster. In each cluster file, vocabulary and fixed phrases are classified by semantic attributes. Further, in the knowledge database 14, related information such as the co-occurrence frequency is added to the vocabulary and fixed phrases. FIG. 3 is a diagram illustrating an example of an emotion vocabulary cluster file. The emotional vocabulary cluster file contains vocabulary with emotional expressions and fixed phrases (hereinafter collectively referred to as “emotional vocabulary”), and conversations that it is desirable to use these emotional vocabularies in response sentences. Each emotional vocabulary is classified with the other party's emotion type and emotion strength as semantic attributes.
知識データベース14は更に、このようなデータ構造で収録している語彙及び定型文から、応答文に用いるべき語彙や定型文を検索する機能を有する。知識データベース14の検索機能としては、具体的には、入力テキストで使用された語彙に対してマハラノビス距離や共起頻度から蓋然性の高い語彙及び定型文を返す中立語彙検索機能と、ユーザ感情に対する応答として適した感情語彙を返す感情語彙検索機能とがある。 The knowledge database 14 further has a function of searching for a vocabulary and a fixed sentence to be used for a response sentence from a vocabulary and a fixed sentence recorded in such a data structure. Specifically, as the search function of the knowledge database 14, a neutral vocabulary search function that returns a vocabulary and a fixed phrase that have a high probability from the Mahalanobis distance and co-occurrence frequency for the vocabulary used in the input text, and a response to user emotion And an emotion vocabulary search function that returns a suitable emotion vocabulary.
感情語彙検索機能では、感情語彙クラスタファイルに収録された感情語彙を母集団としたマハラノビス距離を用いて語彙選択がなされる。感情語彙検索機能として知識データベース14は、検索用マハラノビス距離が入力されると、感情語彙クラスタファイルに収録された感情語彙のうちマハラノビス距離が入力に近いものから所定数(例えば4つ)だけ応答として返す。 In the emotion vocabulary search function, vocabulary selection is performed using the Mahalanobis distance with the emotion vocabulary recorded in the emotion vocabulary cluster file as a population. As the emotion vocabulary search function, when a search Mahalanobis distance is input, the knowledge database 14 returns a predetermined number (for example, four) of responses from the emotion vocabulary recorded in the emotion vocabulary cluster file from those whose Mahalanobis distance is close to the input. return.
ここで用いるマハラノビス距離は、感情の種別及び感情の強さをX−Y成分とした直交座標系における母集団の共分散行列A、検索対象の感情種別及び強さを表すベクトルXを用いて、以下の式1により算出される。
マハラノビス距離=X*Aの逆行列*X ・・・式1
このようなマハラノビス距離は、感情語彙クラスタファイルに収録された感情語彙に変化がなければ、検索したい感情の種別及び強さに応じて一意に定まるものである。そこで、感情の種別及び強さに、感情語彙クラスタファイルから算出したマハラノビス距離を関連付けたマハラノビステーブルを作成しておき、感情語彙検索機能を用いた問合せ元となる感情表現制御部13へ予め提供しておく。図4は、感情語彙クラスタに収録された語彙及び定型文を母集団としたマハラノビステーブルを示す図である。マハラノビステーブルを用いることにより、感情表現制御部13では、応答文に使用したい語彙の感情の種別及び感情の強さから容易にマハラノビス距離を得て、感情語彙を検索することができる。
The Mahalanobis distance used here is a covariance matrix A of a population in an orthogonal coordinate system in which the type of emotion and the strength of emotion are XY components, and a vector X representing the emotion type and strength of the search target, It is calculated by the following
Mahalanobis distance = X * A inverse matrix *
Such Mahalanobis distance is uniquely determined according to the type and strength of the emotion to be searched if there is no change in the emotion vocabulary recorded in the emotion vocabulary cluster file. Therefore, a Mahalanobis table in which the Mahalanobis distance calculated from the emotion vocabulary cluster file is associated with the type and strength of the emotion is created and provided in advance to the emotion
応答文作成部15は、音声認識部11が出力したテキストデータを入力として、ユーザが発した言葉をに対する応答文を作成する。応答文作成部15による応答文作成では、先ず、知識データベース14が提供する中立語彙検索機能を利用して、入力テキストに対する感情表現を伴わない価値中立な文章が作成される。その後、感情表現制御部13から感情表現を含む語彙や定型文が提供された場合、応答文作成部15は、感情表現制御部13が付した尤度順位や共起頻度に従って提供された語彙、定型文の中から適切なものを選択し、選択したものを価値中立な文章に挿入して応答文の作成を完了する。感情表現制御部13から感情表現を含む語彙や定型文が提供されなかった場合には、価値中立な文章をそのまま応答文とする。こうして作成された応答文は応答文テキストデータとして音声合成部16へ出力される。
The response
音声合成部16は、応答文作成部15が出力した応答文テキストデータに基づいて、PCM WAVE形式の音声データを生成する。
以上が、対話処理装置1の内部構成の概略である。
<感情表現制御部13の詳細>
本実施形態に係る対話処理装置1の特徴的な機能として、感情表現処理がある。感情表現処理は、応答文に感情語彙を挿入することで実現される。そこで以下では、応答文に挿入する感情語彙を決定する感情表現制御部13の詳細を説明する。
The
The above is the outline of the internal configuration of the
<Details of Emotion
A characteristic function of the
図5は、感情表現制御部13の詳細な構成を示すブロック図である。感情表現制御部13は、座標変換部101、経由点算出部102、学習データ管理部103、語彙選択部104、マハラノビステーブル保持部105の各機能ブロックを含む。
座標変換部101は、4種類の感情要素についてその強度を示す感情情報を、1つの合成ベクトルに変換することで、感情の種別をθ成分、感情の強さをR成分とした極座標系においてユーザ感情を示す現在点を決定する機能ブロックである。
FIG. 5 is a block diagram showing a detailed configuration of the emotion
The coordinate
経由点算出部102は、経由点を決定する機能ブロックである。経由点とは、1回の試行によって変化させることを目指すユーザの感情状態であり、極座標系における1点で表現される。経由点には極座標系において現在点よりも目標とする感情の収束状態に近い点を設定する。
学習データ管理部103は、学習データを蓄積及び更新することで、経由点決定の強化学習を実現する機能ブロックである。学習データは、過去のエピソードでの経由点のθ成分を、初回試行から順にならべた数列fθ{θ1、θ2、・・・、θn}、及び、過去のエピソードでの経由点のR成分を、初回試行から順にならべた数列fR{R1、R2、・・・、Rn}のデータ形式で保存される。ここで「エピソード」とは、初回試行からユーザ感情が目標範囲に収束するまで繰り返された一連の試行である。
The
The learning
学習データを更新するために、学習データ管理部103は、図6に示すように各エピソードで全試行の経由点データを、RAM上の作業領域に一時学習データとして蓄積しておき、ユーザ感情が目標範囲に収束した時に一時学習データでの試行回数と既存の学習データでの試行回数を比較する。一時学習データの方が試行回数が少なければ、学習データ管理部103は一時学習データを新たな学習データとして更新する。
In order to update the learning data, the learning
尚、学習データ管理部103には、「恥」、「怖」、「哀」、「厭」、「怒」、「昂」、「驚」、「喜」、「好」、「安」の感情が割り当てられた各領域を開始位置とする10のθ成分学習データfθ、及び10のR成分学習データfRが蓄積されている。このように領域毎に学習データを管理し更新するために、学習データ管理部103は、初回試行での現在点を会話開始位置としてエピソード終了まで保持しておき、エピソード終了時の一時学習データとの比較、更新には、会話開始位置が属する領域での学習データを対象とする。
The learning
語彙選択部104は、応答文で使用すべき感情語彙をリストにして応答文作成部15へ提供する機能ブロックである。先ず語彙選択部104は、マハラノビステーブル保持部105に保持されている図4のマハラノビステーブルを参照して、経由点の感情の種別θ、及び感情の強さRに応じたマハラノビス距離を得る。この経由点のマハラノビス距離を用いて、知識データベース14から感情語彙を検索することで、マハラノビス距離が近い複数の感情語彙を得ることができる。ただし、こうして得られる感情語彙にはマハラノビス距離が近くとも、経由点と感情の種類が異なるものが含まれる。そこで語彙選択部104では、検索により得られた感情語彙のうち経由点と感情種類が一致するものだけを、経由点のマハラノビス距離と近い順に順位付けしてリストに登録し、応答文作成部15へ提供する。
The
マハラノビステーブル保持部105は、マハラノビステーブルを保持する機能ブロックであり、FeRAM等の書き換え可能な不揮発性メモリに確保された記録領域により実現される。
以上が感情表現制御部13の詳細な構成である。続いて、座標変換部101における現在点の決定方法、及び、経由点算出部102における経由点の決定方法の詳細について説明する。
The Mahalanobis
The detailed configuration of the emotion
<座標変換部101における現在点の決定方法>
現在点は、4種類の感情要素についてその強度を示す感情情報を1つの合成ベクトルに変換することで、感情の種別をθ成分、感情の強さをR成分とした極座標系の1点に決定される。
<Determination Method of Current Point in Coordinate
The current point is determined by converting emotion information indicating the strength of four types of emotion elements into one composite vector, thereby determining the emotion type as one component in the polar coordinate system with the θ component and emotion strength as the R component. Is done.
ユーザ感情の現在点を示すために用いる極座標系では、図7の(a)のように、θ成分36度毎に分割した10の領域に「感情表現辞典」(1993 東京堂出版 中村明)において分類される10種類の感情が、「恥」、「怖」、「哀」、「厭」、「怒」、「昂」、「驚」、「喜」、「好」、「安」の順番で反時計回りに割り当てられている。以下、反時計回りをθの正方向、時計回りをθの負方向とする。 In the polar coordinate system used to indicate the current point of user emotion, as shown in FIG. 7 (a), there are 10 regions divided every 36 degrees of the θ component in the “Emotion Expression Dictionary” (1993 Akira Nakamura Publishing). The ten emotions that are classified are "shame", "fear", "sorrow", "厭", "anger", "昂", "surprise", "joy", "good", "low" Assigned counterclockwise. Hereinafter, the counterclockwise direction is the positive direction of θ, and the clockwise direction is the negative direction of θ.
このような極座標系上で感情情報を1つの合成ベクトルに変換するために、感情情報の各感情要素に対応する4つの単位ベクトルを定義する。具体的には、原点から「安」の領域の中央方向に感情情報のうち「平常」の感情要素に対応する単位ベクトルを定義し、原点から「怒」の領域の中央方向に感情情報のうち「怒り」の感情要素に対応する単位ベクトルを定義し、原点から「喜」の領域の中央方向に感情情報のうち「喜び」の感情要素に対応する単位ベクトルを定義し、原点から「哀」の領域の中央方向に感情情報のうち「哀しみ」の感情要素に対応する単位ベクトルを定義する。こうして定義した単位ベクトルを基に、感情情報により示される4つの感情要素は図7の(b)のように、その強度に応じた4つのベクトルで表現できる。 In order to convert emotion information into one synthetic vector on such a polar coordinate system, four unit vectors corresponding to emotion elements of emotion information are defined. Specifically, a unit vector corresponding to the emotional element of “normal” in the emotional information is defined in the center direction of the “cheap” area from the origin, and the emotional information in the central direction of the “angry” area from the origin. Define a unit vector corresponding to the emotion element of “anger”, define a unit vector corresponding to the emotion element of “joy” in the emotion information from the origin toward the center of the area of “joy”, and define “sorrow” from the origin. A unit vector corresponding to the emotion element of “sorrow” in the emotion information is defined in the central direction of the region. Based on the unit vector thus defined, the four emotion elements indicated by the emotion information can be expressed by four vectors according to their strengths as shown in FIG.
これら4つのベクトルのうち「喜び」のベクトルVpと「平常」のベクトルVnとを合成したものをベクトルV1とし、また、「怒り」のベクトルVaと「哀しみ」のベクトルVsとを合成したものをベクトルV2とし、ベクトルV1とベクトルV2とを合成することで、現在点を示す合成ベクトルV3が得られる。
現在点の具体的な計算方法としては、「喜び」方向の偏角θ1、「平常」方向の偏角θ2、「哀しみ」方向の偏角θ3、「怒り」方向の偏角θ4とすると、各単位ベクトルのx成分、y成分は、
喜び(x)=cosθ1 喜び(y)=sinθ1
平常(x)=cosθ2 平常(y)=sinθ2
哀しみ(x)=cosθ3 哀しみ(y)=sinθ3
怒り(x)=cosθ4 喜び(y)=sinθ4
となるので、各成分について、感情情報で示される各感情要素の強度(0〜10)の値を乗算して合計することで、合成ベクトルのx成分である「X」、及び合成ベクトルのy成分である「Y」が求められる。この現在点のx、y成分から以下の式2により、合成ベクトルの偏角θt、即ち現在点のθ成分が求められる。
These four and vector V p of "joy" in the vector obtained by combining the vector V n of the "normal" and the vector V 1, also the vector V a of "anger" and the vector V s of "sorrow" Is a vector V 2 and a vector V 1 and a vector V 2 are combined to obtain a combined vector V 3 indicating the current point.
As a specific calculation method of the current point, if the declination angle θ1 in the “joy” direction, the declination angle θ2 in the “normal” direction, the declination angle θ3 in the “sorrow” direction, and the declination angle θ4 in the “anger” direction, The x and y components of the unit vector are
Joy (x) = cos θ1 Joy (y) = sin θ1
Normal (x) = cos θ2 Normal (y) = sin θ2
Sorrow (x) = cos θ3 Sorrow (y) = sin θ3
Anger (x) = cos θ4 Joy (y) = sin θ4
Therefore, by multiplying each component by the value of the intensity (0 to 10) of each emotion element indicated by the emotion information, “X” that is the x component of the composite vector, and y of the composite vector The component “Y” is determined. From the x and y components of the current point, the deviation angle θt of the combined vector, that is, the θ component of the current point, is obtained by the
θt=tan-1(Y/X) ・・・式2
また、合成ベクトルの大きさ、(X2+Y2)の平方根が、現在点のR成分となる。以上が座標変換部101における現在点の決定方法の詳細である。
<経由点算出部102における経由点の決定方法>
次に経由点決定方法の詳細について説明する。本実施形態に係る対話処理装置1は、θ成分が安、好、喜の何れかの感情が割り当てられた領域であるか、感情の強さを示すR成分が1以下である状態にユーザ感情を収束させることを目的としており、図7の(c)に示すように、経由点は極座標系において現在点よりも目標とする感情の収束状態に近い点、即ち、現在点よりも安、好、喜の領域に近いか、現在点よりもR成分が小さい点に設定される。以下、θ成分が安、好、喜の何れかの感情が割り当てられた領域、及び感情の強さを示すR成分が1以下である領域を合わせた図7の(c)で斜線で示した領域を、「目標範囲」という。
θt = tan −1 (Y / X)
The square root of the combined vector, (X 2 + Y 2 ), is the R component of the current point. The details of the current point determination method in the coordinate
<Method for Determining Via Point in Via
Next, details of the waypoint determination method will be described. In the
経由点の決定には2つの方法がある。1つ目は初期状態での経由点決定方法であり、2つ目は学習データを利用した経由点決定方法である。ユーザの発話音声の取得と応答文の出力とを繰り返す対話処理によって、以前にユーザ感情が目標範囲に収束したことがある場合、学習データ管理部103には、対話処理の開始からユーザ感情が収束するまでの一連の経過が学習データとして記録されている。初期状態とは、このような学習データが蓄積されていない状態である。
There are two ways to determine the waypoint. The first is a waypoint determination method in the initial state, and the second is a waypoint determination method using learning data. If the user emotion has previously converged to the target range by the interactive processing that repeats the acquisition of the user's speech and the output of the response sentence, the learning
<初期状態での経由点決定方法>
初期状態での経由点決定では、θ成分とR成分とを独立に決定する。1度の経過点決定で現在点からθ成分を変化させる幅は、0〜36度であり、正規分布等の確率密度関数を用いて、試行の度に変化量を決定する。またθ成分を変化させる方向は、現在点が「哀」、「怖」、「恥」の何れかが割り当てられた領域及び「厭」が割り当てられた領域の中央より「安」側にあれば、「安」が割り当てられた領域に近づく方向、即ち、負方向である。逆に、現在点が「驚」、「昂」、「怒」の何れかが割り当てられた領域及び「厭」が割り当てられた領域の中央より「喜」側にあれば、「喜」が割り当てられた領域に近づく方向、即ち、正方向に変化させる。
<Via-point determination method in the initial state>
In the determination of the waypoint in the initial state, the θ component and the R component are determined independently. The range in which the θ component is changed from the current point by determining one elapsed point is 0 to 36 degrees, and the amount of change is determined for each trial using a probability density function such as a normal distribution. The direction in which the θ component is changed is when the current point is on the “low” side from the center of the area assigned with “sorrow”, “fear”, or “shame” and the area assigned with “厭”. , The direction approaching the area assigned “low”, that is, the negative direction. On the other hand, if the current point is on the “joy” side of the area to which any of “surprise”, “昂”, or “anger” is assigned and the center of the area to which “厭” is assigned, “joy” is assigned. It changes to the direction approaching the given area, that is, the positive direction.
1度の経過点決定で現在点からR成分を減少させる幅は、0〜1であり、正規分布等の確率密度関数を用いて、試行の度に変化量を決定する。
<学習データを利用した経由点決定方法>
学習データを利用した経由点決定においても、θ成分とR成分とを独立に決定する。この点は、初期状態での経由点決定と同様であり、学習データは、θ成分若しくはR成分の決定について用いられる。
The range in which the R component is decreased from the current point by determining the elapsed point once is 0 to 1, and the amount of change is determined for each trial using a probability density function such as a normal distribution.
<Via-point determination method using learning data>
Also in the waypoint determination using the learning data, the θ component and the R component are determined independently. This is the same as the waypoint determination in the initial state, and the learning data is used for determining the θ component or the R component.
学習データは、過去のエピソードでの経由点のθ成分、若しくはR成分を、初回試行から順にならべた数列fθ{θ1、θ2、・・・、θn}、fR{R1、R2、・・・、Rn}である。学習データ管理部103には、「恥」、「怖」、「哀」、「厭」、「怒」、「昂」、「驚」、「喜」、「好」、「安」の感情が割り当てられた各領域を開始位置とする10のθ成分学習データfθ、及び10のR成分学習データfRが蓄積されている。
The learning data is a series of fθ {θ1, θ2,..., Θn}, fR {R1, R2,. Rn}. The learning
図8は、学習データfθを用いた経由点θ成分の決定を示す図である。本図において矢印は、現在点のθ成分を示しており、白丸は数列fθのt番目の値である。経由点算出部102では、目標範囲外である現在点が最初に入力された試行を1回目の試行として、この現在点が属する領域を開始位置とする数列fθを選択し、数列fθの1番目の値を経由点のθ成分とする。続く2回目、3回目、4回目の試行においても同じ数列fθを用いて、2番目、3番目、4番目、の値を経由点のθ成分とする。学習データfRを用いて経由点R成分を決定する場合も同様に初回試行での現在点が属する領域を開始位置とする数列fRを選択し、その後は図9に示すように、1回目試行の現在点θ成分が属する領域を開始位置とする数列fRを選択し、数列fRの1番目、2番目、3番目、4番目の値を、それぞれ1回目、2回目、3回目、4回目の試行での経由点R成分に用いる。
FIG. 8 is a diagram illustrating determination of the via point θ component using the learning data fθ. In this figure, the arrow indicates the θ component of the current point, and the white circle is the t-th value of the sequence fθ. In the
ここで、t回目試行での経由点とt+1回目試行で認識される現在点とでθ成分の差が所定の閾値(例えば、36度)を超える場合や、R成分の差が所定の閾値(例えば、2.5)を超える場合、t回目試行を「無効試行」と呼ぶ。図10の(a)の例では4回目の試行が無効試行となっている。無効試行の次の試行、図10の(a)の例では5回目の試行が無効試行でない場合には、従前の学習データを用いて経由点決定を継続する。しかし、図10の(b)のように無効試行が2回連続した場合、2回目の無効試行の次の試行では、その試行での現在点が属する領域を開始位置とする学習データを新たに選びなおし、新たな初回試行として経由点決定を行う。このような無効試行の判定、学習データの選び直しは、θ成分とR成分とで独立して実行される。 Here, when the difference of the θ component exceeds a predetermined threshold (for example, 36 degrees) between the transit point in the t-th trial and the current point recognized in the t + 1-th trial, the difference in the R component is a predetermined value. When the threshold value (for example, 2.5) is exceeded, the t-th trial is referred to as an “invalid trial”. In the example of FIG. 10A, the fourth trial is an invalid trial. In the case of the trial next to the invalidation trial, in the example of FIG. 10A, if the fifth trial is not the invalid trial, the waypoint determination is continued using the previous learning data. However, when invalid trials are continued twice as shown in FIG. 10B, in the trial next to the second invalid trial, new learning data having a start position in the region to which the current point belongs in the trial is newly added. Re-select and make waypoint determination as a new first trial. Such determination of invalid trial and reselection of learning data are performed independently for the θ component and the R component.
以上が座標変換部101における経由点の決定方法の詳細である。
ここまで説明した感情表現制御部13の機能により、ユーザ感情を目標範囲に近づけるような感情語彙を選択することができ、このような感情語彙を応答文に挿入することで、本実施形態に係る対話処理装置1による感情表現処理が実現される。
<対話処理装置1の動作>
続いて、本実施形態に係る対話処理装置1の動作を説明する。
The details of the waypoint determination method in the coordinate
By the function of the emotion
<Operation of
Subsequently, the operation of the
図11は、本実施形態に係る対話処理装置1の動作手順を示すフローチャートである。
対話処理装置1の動作では、ステップS1で対話処理装置1の初期化処理が実行され、ユーザの発話が待ち受けられる。初期化処理とは、学習データ管理部103が一時学習データと会話開始位置とを管理するための記録領域を、RAM上の作業領域に確保する処理である。一時学習データ記録領域と会話開始位置の記録領域とは、θ成分用及びR成分用がそれぞれ別に確保される。
FIG. 11 is a flowchart showing an operation procedure of the
In the operation of the
初期化後、ユーザが発話するとマイク20を介して音声入力データが取得される(ステップS2)と、この音声入力データが感情認識部12により解析され4つの感情要素について強度を示す感情情報が取得される(ステップS3)。この感情情報に基づいて感情表現制御部13では、マハラノビス取得処理(ステップS4)が実行される。
ここで、感情情報を変換して得られるユーザ感情の現在点が目標範囲内にある場合、詳細を後述するマハラノビス取得処理においてマハラノビス距離は取得されない(ステップS5:No)。このような場合、応答文作成部15には感情語彙が提供されることがなく、応答文作成部15は、感情語彙を挿入させることなくステップS8にて応答文を作成する。例えばユーザの発言が「Tチームが負けた。」という言葉であり、感情の現在点が目標範囲を外れるような強い感情が認識されなかった場合、応答文作成部15は、「Tチームは、負けましたね。」という感情語彙を含まない応答文を作成する。
After the initialization, when the user speaks, voice input data is acquired through the microphone 20 (step S2). This voice input data is analyzed by the
Here, when the current point of user emotion obtained by converting emotion information is within the target range, the Mahalanobis distance is not acquired in the Mahalanobis acquisition process described in detail later (step S5: No). In such a case, no emotional vocabulary is provided to the response
一方、感情情報を変換して得られるユーザ感情の現在点が目標範囲外にある場合には、マハラノビス取得処理において何らかのマハラノビス距離が取得される(ステップS5:Yes)。このような場合、感情表現制御部13内の語彙選択部104によって、取得されたマハラノビス距離を用いて知識データベース14が検索され、マハラノビス距離が近い複数の感情語彙が取得される(ステップS6)。複数の感情語彙を取得した語彙選択部104は、詳細を後述する感情語彙絞り込み処理により不適切な感情語彙を除外し、適切な感情語彙のみをマハラノビス距離が近い順に並べた出力リストを作成し、応答文作成部15へ出力する(ステップS7)。感情語彙のリストが提供された応答文作成部15は、ステップS8にて感情語彙を挿入した応答文を作成する。
On the other hand, if the current point of user emotion obtained by converting emotion information is outside the target range, some Mahalanobis distance is acquired in the Mahalanobis acquisition process (step S5: Yes). In such a case, the knowledge database 14 is searched using the acquired Mahalanobis distance by the
例として、ユーザの「Tチームが負けた。」という言葉の抑揚等から目標範囲を外れるような強い感情が認識され、この認識結果から決定された経由点のマハラノビス距離が2.2であった場合を想定する。図4を参照すると、マハラノビス距離が2.2に近いのは、マハラノビス距離が2.3である感情種別「哀」強度「4」の感情語彙、マハラノビス距離が2.0である感情種別「哀」強度「5」の感情語彙、マハラノビス距離が2.4である感情種別「怒」強度「4」の感情語彙、及びマハラノビス距離が2.2である感情種別「怒」強度「5」の感情語彙である。本例では、これらの属性の感情語彙が図3に示す感情語彙クラスタファイルから抽出され、語彙選択部104に取得される。ここでユーザ感情の現在点が「哀」領域に含まれるのもであったなら、抽出された語彙のうち感情種別「怒」の感情語彙は除外され、マハラノビス距離が2.3の感情種別「哀」強度「4」の語彙「残念だけど」「気にすることはないですよ」と、マハラノビス距離が2.0の感情種別「哀」強度「5」の語彙「悲しいけど」「まだなんとかなりますよ」とがこの順番で出力リストに登録され、応答文作成部15へ出力される。応答文作成部15では、出力リストに登録された感情語彙からマハラノビス距離や共起頻度を用いて使用する語彙を選択する。ここで感情語彙「残念だけど」が選択された場合は、「Tチームは、残念だけど負けましたね。」という感情語彙「残念だけど」を挿入した応答文が作成される。こうして作成された応答文は、スピーカ30を介して音声としてユーザに提供される。
As an example, strong emotions that deviate from the target range due to the inflection of the user's word “T team lost” were recognized, and the Mahalanobis distance of the waypoint determined from this recognition result was 2.2 Assume a case. Referring to FIG. 4, the Mahalanobis distance is close to 2.2 because the emotional vocabulary of the emotion type “sorrow” strength “4” with the Mahalanobis distance 2.3, and the emotion type “sorrow” with the Mahalanobis distance of 2.0. "Emotion vocabulary with strength" 5 ", emotion vocabulary with emotion type" anger "intensity" 4 "with Mahalanobis distance 2.4, and emotion with" anger "intensity" 5 "with emotion type" Maharanobis distance 2.2 " Vocabulary. In this example, the emotional vocabulary of these attributes is extracted from the emotional vocabulary cluster file shown in FIG. 3 and acquired by the
以上の動作手順においてステップS2〜ステップS8が1回の試行となり、ユーザの発話の度に繰り返される。
<マハラノビス取得処理>
続いて、マハラノビス取得処理の詳細について説明する。図12は、マハラノビス取得処理の詳細を示すフローチャートである。
In the above operation procedure, steps S2 to S8 are one trial and are repeated every time the user speaks.
<Mahalanobis acquisition processing>
Next, details of the Mahalanobis acquisition process will be described. FIG. 12 is a flowchart showing details of the Mahalanobis acquisition process.
マハラノビス取得処理では、先ず座標変換部101が感情情報を合成ベクトルに変換し、図4の(b)で示したようにユーザ感情の現在点を決定する(ステップS11)。次に、詳細を後述する経由点算出・一時学習処理を経由点算出部102が実行し、現在点に基づいて経由点を決定する(ステップS12)。
ここで現在点が目標範囲外である場合(ステップS13:No)、語彙選択部104は、図4のマハラノビステーブルを参照し(ステップS14)、ステップS11で決定された経由点のθ成分、R成分を基にマハラノビス値を取得する(ステップS15)。
In the Mahalanobis acquisition process, first, the coordinate
Here, when the current point is outside the target range (step S13: No), the
現在点が目標範囲に含まれている場合(ステップS13:Yes)、語彙選択部104がマハラノビス値を取得しなかったことを応答文作成部15へ通知し(ステップS16)、その後、学習データ管理部103により、感情シーケンス終了処理が実行される。
以上がマハラノビス取得処理の詳細である。
<経由点算出・一時学習処理>
続いて、経由点算出・一時学習処理の詳細について説明する。図13は、経由点算出・一時学習処理の詳細の詳細を示すフローチャートである。
When the current point is included in the target range (step S13: Yes), the
The above is the details of the Mahalanobis acquisition process.
<Via-point calculation / temporary learning process>
Next, details of the waypoint calculation / temporary learning process will be described. FIG. 13 is a flowchart showing details of the waypoint calculation / temporary learning process.
経由点算出・一時学習処理では、先ずステップS21、ステップS22において、学習データ管理部103により一時学習データの蓄積回数が確認される。一時学習データの蓄積回数が所定の閾値Th1(例えば10回)を超えていれば(ステップS21:Yes)、一時学習データがリセットされる(ステップS35)。一時学習データのリセットとは、一時学習データ記録領域と会話開始位置の記録領域に記録されているデータを全て消去する処理である。
In the waypoint calculation / temporary learning process, first, in step S21 and step S22, the learning
一時学習データとして経由点が1つも記録されていない場合(ステップS22:Yes)、即ち、一時学習データリセット直後や初回試行時である場合、学習データ管理部103が現在点を会話開始位置の記録領域に記録し(ステップS23)、処理がステップS30へ移行する。
一時学習データとして経由点が記録されている場合(ステップS22:No)、即ち2回目以降の試行である場合は、ステップS24〜ステップS29の処理手順で、経由点算出部102によって前回試行が無効試行であったかが判定される。前回試行の経由点と現在点とのR成分の差が2.5より大きい場合(ステップS24:Yes)や、前回試行の経由点と現在点とのθ成分の差が36度より大きい場合(ステップS27:Yes)には、前回試行が無効試行であったとして、それぞれの成分について範囲外回数を記録する変数がインクリメントされる(ステップS26、ステップS29)。前回試行が無効試行ではなかった場合(ステップS24:No、ステップS27:No)には、それぞれの成分について範囲外回数を記録する変数が0に初期化される(ステップS25、ステップS28)。更に経由点算出部102は、ステップS30において、範囲外回数を記録する変数が2以上であるかを判定する。範囲外回数が2回以上であれば、一時学習データがリセットされる(ステップS36)。尚、範囲外回数を記録する変数は、一時学習データリセット処理において、0に初期化される。
When no transit point is recorded as temporary learning data (step S22: Yes), that is, immediately after the temporary learning data is reset or at the first trial, the learning
If a transit point is recorded as temporary learning data (step S22: No), that is, if it is a second or later trial, the transit
その後、学習データ管理部103が現在点を一時学習データ記録領域に追加記録し、現在点が目標範囲外の位置する場合(ステップS32:No)、経由点算出部102が、ステップS33、及びステップS34において今回試行の経由点としてR成分とθ成分を決定する。ステップS33、及びステップS34における経由点の決定では、「経由点算出部102における経由点の決定方法」として既に説明した初期状態での経由点決定方法、若しくは、学習データを利用した経由点決定方法が利用される。
Thereafter, when the learning
以上が経由点算出・一時学習処理の詳細である。
<感情語彙絞り込み処理>
続いて、感情語彙絞り込み処理の詳細について説明する。図14は、感情語彙絞り込み処理の詳細の詳細を示すフローチャートである。
感情語彙絞り込み処理は、語彙選択部104によって実行される処理であり、先ず、経由点のθ成分に基づいて経由点が属する領域に割り当てられた感情の種別を取得し(ステップS41)、この感情の種別を、意味属性文字列に設定する(ステップS42)。その後、RAM上の出力用テーブル記録領域を初期化し(ステップS43)する。
The above is the details of the waypoint calculation / temporary learning process.
<Emotion vocabulary narrowing process>
Next, details of the emotion vocabulary narrowing process will be described. FIG. 14 is a flowchart showing details of emotion vocabulary narrowing processing.
The emotion vocabulary narrowing process is a process executed by the
出力用テーブル記録領域を初期化した後は、ステップS45〜ステップS46の処理を知識データベース14から検出された全ての感情語彙について繰り返す。ステップS45の処理は、知識データベース14から検出された感情語彙で未処理のもののうち、経由点とマハラノビス距離が最も近いものを選択し、(ステップS45)、この感情語彙の意味属性である感情種別と、ステップS42で設定した意味属性文字列を比較する(ステップS46)。比較の結果が一致すれば(ステップS46:Yes)、選択した感情語彙を、出力用テーブル記録領域に追加記録する(ステップS47)。 After the output table recording area is initialized, the processes in steps S45 to S46 are repeated for all emotional vocabularies detected from the knowledge database 14. The processing in step S45 selects the unprocessed emotion vocabulary detected from the knowledge database 14 and selects the one having the closest waypoint and Mahalanobis distance (step S45), and the emotion type that is the semantic attribute of this emotion vocabulary And the semantic attribute character string set in step S42 are compared (step S46). If the comparison results match (step S46: Yes), the selected emotion vocabulary is additionally recorded in the output table recording area (step S47).
以上が感情語彙絞り込み処理の詳細である。
<感情シーケンス終了処理>
続いて、感情シーケンス終了処理の詳細について説明する。図15は、感情シーケンス終了処理の詳細の詳細を示すフローチャートである。
感情シーケンス終了処理は、試行を繰り返すことでユーザ感情を示す現在点が目標範囲に収束した場合に実行される処理である。
The above is the details of the emotion vocabulary narrowing process.
<Emotion sequence end processing>
Next, the details of the emotion sequence end process will be described. FIG. 15 is a flowchart showing details of emotion sequence end processing.
The emotion sequence end process is a process executed when the current point indicating the user emotion converges to the target range by repeating trials.
感情シーケンス終了処理において学習データ管理部103は、会話開始位置の記録領域に記録されているθ成分の値を取得し(ステップS51)、この値が「恥」、「怖」、「哀」、「厭」、「怒」、「昂」、「驚」、「喜」、「好」、「安」の何れの種類の感情が割り当てられた領域に含まれるかを判定し(ステップS52)、この領域を開始位置とする学習データが以前に蓄積されていない場合(ステップS53:No)、一時学習データ記録領域に記録されている経由点を、新たな学習データとして蓄積する(ステップS54)。
In the emotion sequence end process, the learning
ステップS52で判定した領域を開始位置とする学習データが以前に蓄積されている場合(ステップS53:Yes)には、この学習データの経由点の数と、一時学習データ記録領域に記録されている経由点の数とを比較する(ステップS55)。一時学習データ記録領域に記録されている経由点の数の方が少なければ(ステップS55:Yes)、既存の学習データを破棄し、一時学習データ記録領域に記録されている経由点を、新たな学習データとして蓄積する。 When the learning data having the area determined in step S52 as the start position has been accumulated before (step S53: Yes), the number of via points of the learning data and the temporary learning data recording area are recorded. The number of via points is compared (step S55). If the number of waypoints recorded in the temporary learning data recording area is smaller (step S55: Yes), the existing learning data is discarded, and the waypoints recorded in the temporary learning data recording area are replaced with new ones. Accumulate as learning data.
最後にステップS56において一時学習データをリセットする。以上が感情シーケンス終了処理の詳細である。
以上、本実施形態に係る対話処理装置によれば、現在のユーザ感情よりも目標とする感情の収束状態に近い経由点での感情種別、及び感情の強さと対応するような語彙を用いて、応答文を作成することができる。これにより、目標とする感情の収束状態に緩やかに近づけるようなユーザ感情の変化を促すことができる。このような緩やかな感情変化を促す応答は、人間と対面しているかのような印象をユーザに与えることができる。
Finally, temporary learning data is reset in step S56. The above is the details of the emotion sequence end process.
As described above, according to the dialogue processing apparatus according to the present embodiment, using the vocabulary corresponding to the emotion type at the waypoint closer to the convergence state of the target emotion than the current user emotion, and the strength of the emotion, Response sentences can be created. As a result, it is possible to promote a change in user emotion that gently approaches the target emotion convergence state. Such a response that prompts a gentle emotional change can give the user the impression that they are facing humans.
(変形例)
以上、本発明に係る対話処理装置について、実施形態に基づいて説明したが、本発明はこれらの実施形態に限られない。例えば、以下のような変形例が考えられる。
(1)本発明は、各実施形態で説明したフローチャートの処理手順が開示する記録方法であるとしてもよい。また、これらの方法をコンピュータにより実現するプログラムであるとしてもよいし、前記プログラムからなるデジタル信号であるとしてもよい。
(Modification)
As mentioned above, although the dialogue processing apparatus concerning the present invention was explained based on the embodiment, the present invention is not limited to these embodiments. For example, the following modifications can be considered.
(1) The present invention may be a recording method disclosed by the processing procedure of the flowchart described in each embodiment. Further, the present invention may be a program that realizes these methods by a computer, or may be a digital signal composed of the program.
また、本発明は、前記プログラム又は前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc)、半導体メモリなど、に記録したものとしてもよい。
また、本発明は、前記プログラム又は前記デジタル信号を、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送するものとしてもよい。
The present invention also provides a computer-readable recording medium for the program or the digital signal, such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). It may be recorded in a semiconductor memory or the like.
In the present invention, the program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.
また、前記プログラム又は前記デジタル信号を前記記録媒体に記録して移送することにより、又は前記プログラム又は前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(2)経由点は現在のユーザ感情よりも目標とする感情の収束状態に近い点であればよく、上記実施形態とは異なる手法により決定してもよい。
In addition, the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and is executed by another independent computer system. It is good.
(2) The via point may be a point closer to the target emotion convergence state than the current user emotion, and may be determined by a method different from the above embodiment.
例えば、先ず現在点からθ成分だけ変化させ、R成分は現在点と同じ値に設定した経由点を決定し、このような経由点を用いて試行を繰り返した結果、無効試行が所定回数(例えば2回)連続した場合に、次の試行からは現在点からR成分だけ減少させ、θ成分は現在点と同じ値に設定した経由点を決定するという手法を用いてもよい。
(3)上記実施形態では、学習データを、数列fθ{θ1、θ2、・・・、θn}、数列fR{R1、R2、・・・、Rn}というデータ形式で保持するとしたが、学習データは他のデータ形式であってもよい。
For example, first, the θ component is changed from the current point, and the R component is determined as a via point set to the same value as the current point. As a result of repeating the trial using such a via point, invalid trials are performed a predetermined number of times (for example, In the case of two consecutive times, a method may be used in which the R component is decreased from the current point by the next trial and the via point is set to the same value as the current point for the θ component.
(3) In the above embodiment, the learning data is held in the data format of the sequence fθ {θ1, θ2,..., Θn} and the sequence fR {R1, R2,. May be in other data formats.
例えば、横軸を試行回数t、縦軸をθ又はRとした直交座標に過去のエピソードでの経由点をプロットし、これらから最小二乗法により近似直線θ=at+b、又はR=at+bを求めることができる。このf(t)=at+bを学習データとして、t回目のθ、Rを決定してもよい。
また他の例として、上述の近似直線の傾きaを学習データとしてもよい。この場合には、初回試行の現在点を切片とした関数f(t)=at+θ1、f(t)=at+R1を生成して経由点を決定することができる。ここでθ1は初回試行での現在点のθ成分、R1は、初回試行での現在点R成分である。
For example, plotting via points in past episodes on Cartesian coordinates with the horizontal axis representing the number of trials t and the vertical axis representing θ or R, and obtaining an approximate line θ = at + b or R = at + b from these by the least square method Can do. Using this f (t) = at + b as learning data, the tth θ and R may be determined.
As another example, the inclination a of the above approximate line may be used as learning data. In this case, a function point f (t) = at + θ1 and f (t) = at + R1 with the current point of the first trial as an intercept can be generated to determine the via point. Here, θ1 is the θ component of the current point in the first trial, and R1 is the R component of the current point in the first trial.
(4)知識データベースを、対話処理装置の外部に設けてもよい。例えば、インターネットに接続されたサーバ装置を知識データベースとして機能させ、図16に示すように対話処理装置に通信インターフェースを設け、無線LAN等のネットワークを介して知識データベースと通信する構成としてもよい。このような変形例では、インターネットを介して知識データベースの収集語彙を適時更新することが容易になる。 (4) A knowledge database may be provided outside the dialogue processing apparatus. For example, a server device connected to the Internet may function as a knowledge database, and a communication interface may be provided in the dialog processing device as shown in FIG. 16 to communicate with the knowledge database via a network such as a wireless LAN. In such a modification, it becomes easy to update the collected vocabulary of the knowledge database in a timely manner via the Internet.
(5)上記実施形態では、ST emotionの出力を極座標上に合成して現在点を得るとした。しかしながら、ユーザ感情の現在点を表現する方法は、必ずしも極座標に限定されるものではない。
例えば、上記実施形態で説明した極座標に、ST emotionの出力値のうち「興奮」の値を対応させたz軸を追加することで、ユーザ感情の現在点を平面座標ではなく、空間座標で表現することもできる。
(5) In the above embodiment, the current point is obtained by combining the output of ST emotion on the polar coordinates. However, the method of expressing the current point of user emotion is not necessarily limited to polar coordinates.
For example, by adding a z-axis corresponding to the value of “excitement” among the output values of ST emotion to the polar coordinates described in the above embodiment, the current point of user emotion is expressed in spatial coordinates instead of plane coordinates You can also
(6)各実施形態及び変形例をそれぞれ組み合わせるとしてもよい。 (6) Each embodiment and modification may be combined.
本発明は、ユーザとの対話を行う玩具、ロボット装置等に有用である。 INDUSTRIAL APPLICABILITY The present invention is useful for toys, robot devices, and the like that interact with a user.
1 対話処理装置
10 マイコンシステム
11 音声認識部
12 感情認識部
13 感情表現制御部
14 知識データベース
15 応答文作成部
16 音声合成部
20 マイク
30 スピーカ
101 座標変換部
102 経由点算出部
103 学習データ管理部
104 語彙選択部
105 マハラノビステーブル保持部
DESCRIPTION OF
Claims (7)
ユーザ感情の認識結果から、感情の種別及び感情の強さを成分とした座標系における現在点を得るとともに、この座標系において現在点よりも目標とする感情の収束状態に近い経由点を決定する処理を含み、
知識データベースは、複数の語彙及び定型文のそれぞれを、感情の種別及び感情の強さに応じたパラメータに関連付けて示すものであり、
前記ユーザに対する感情表現は、経由点での感情の種別及び感情の強さに応じたパラメータで知識データベースを検索することで、対話に用いるべき語彙及び定型文の少なくとも一方を得て、その取得結果を用いた応答文を作成することでなされる
ことを特徴とする対話処理装置。 A dialogue processing device that executes recognition of a user's emotion and emotion expression for the user using a knowledge database,
From the recognition result of the user emotion, obtain the current point in the coordinate system with the emotion type and emotion strength as components, and determine the via point closer to the target emotion convergence state than the current point in this coordinate system Including processing,
The knowledge database shows each of a plurality of vocabularies and fixed phrases in association with parameters according to emotion type and emotion strength,
The emotional expression for the user is obtained by obtaining at least one of a vocabulary and a fixed sentence to be used for dialogue by searching a knowledge database with a parameter according to the type of emotion at the waypoint and the strength of the emotion. An interactive processing device characterized in that it is made by creating a response sentence using.
前記パラメータは、感情の種別及び感情の強さをX−Y成分とした直交座標系における、知識データベースに収録された語彙及び定型文を母集団としたマハラノビス距離である
ことを特徴とする請求項1記載の対話処理装置。 The coordinate system is a polar coordinate system in which an emotion type is assigned to each region of the θ component, and the strength of the emotion is an R component,
The parameter is a Mahalanobis distance using a vocabulary and a fixed sentence recorded in a knowledge database as a population in an orthogonal coordinate system in which an emotion type and an emotion strength are XY components. 1. The dialogue processing apparatus according to 1.
ことを特徴とする請求項2記載の対話処理装置。 The types of emotion indicated by the θ component of the polar coordinate system are the emotions of cheap, good, happy, surprise, jealousy, anger, jealousy, sadness, fear and shame in the polar coordinate system in a clockwise direction. The dialogue processing apparatus according to claim 2.
現在点のθ成分よりも安、好、喜の感情種別が割り当てられた領域に近い値を経由点のθ成分として設定する第1の処理、及び、現在点のR成分よりも感情の強さを弱めた値を経由点のR成分として設定する第2の処理の少なくとも一方を実行することでなされる
ことを特徴とする請求項3記載の対話処理装置。 The waypoint is determined
A first process for setting a value closer to the region to which the emotion type of cheap, good, and joy is assigned than the θ component at the current point as the θ component at the via point, and the strength of emotion than the R component at the current point 4. The dialogue processing apparatus according to claim 3, wherein the dialogue processing apparatus is configured to execute at least one of the second processing for setting a value obtained by weakening the value as the R component of the waypoint.
ことを特徴とする請求項2記載の対話処理装置。 The dialogue processing device has a learning function that reinforces and learns a waypoint determination method by presenting the created response sentence to the user and repeating an attempt to newly recognize the user emotion after the presentation. The dialogue processing apparatus according to claim 2.
経由点のθ成分と新たに認識されたユーザ感情に係る新たな現在点のθ成分との差、及び、経由点のR成分と前記新たな現在点のR成分との差が規定値以内である場合に、経由点を一時学習データとして蓄積し、
認識されたユーザ感情が目標とする感情の収束状態となった場合に、一時学習データとして蓄積されている経由点の件数が既存の学習結果よりも少なければ、一時学習データを新たな学習結果に設定する
ことを特徴とする請求項5記載の対話処理装置。 The learning function
The difference between the θ component of the via point and the θ component of the new current point related to the newly recognized user emotion, and the difference between the R component of the via point and the R component of the new current point are within the specified value. In some cases, the waypoints are stored as temporary learning data,
If the number of via points stored as temporary learning data is less than the existing learning result when the recognized user emotion becomes the target emotion convergence state, the temporary learning data becomes a new learning result. The interactive processing device according to claim 5, wherein the interactive processing device is set.
経由点の決定は、これらの関数に基づき、θ、Rを決定することでなされる
ことを特徴とする請求項6記載の対話処理装置。 The learning result is stored as a function θ = f (t) and a function R = f (t) that can be derived from the number of trials t,
The dialog processing apparatus according to claim 6, wherein the determination of the waypoint is performed by determining θ and R based on these functions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010240953A JP5539842B2 (en) | 2010-10-27 | 2010-10-27 | Dialogue processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010240953A JP5539842B2 (en) | 2010-10-27 | 2010-10-27 | Dialogue processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012093972A true JP2012093972A (en) | 2012-05-17 |
JP5539842B2 JP5539842B2 (en) | 2014-07-02 |
Family
ID=46387227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010240953A Expired - Fee Related JP5539842B2 (en) | 2010-10-27 | 2010-10-27 | Dialogue processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5539842B2 (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015014834A (en) * | 2013-07-03 | 2015-01-22 | 株式会社Lassic | Feeling estimation system and program by mechanic dialog |
CN105094315A (en) * | 2015-06-25 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | Method and apparatus for smart man-machine chat based on artificial intelligence |
JP2016036500A (en) * | 2014-08-07 | 2016-03-22 | シャープ株式会社 | Audio output device, network system, audio output method, and audio output program |
WO2016087982A1 (en) * | 2014-12-02 | 2016-06-09 | International Business Machines Corporation | Persona-based profiles in question answering system |
US20160171387A1 (en) * | 2014-12-16 | 2016-06-16 | The Affinity Project, Inc. | Digital companions for human users |
US20160171971A1 (en) * | 2014-12-16 | 2016-06-16 | The Affinity Project, Inc. | Guided personal companion |
US9626352B2 (en) | 2014-12-02 | 2017-04-18 | International Business Machines Corporation | Inter thread anaphora resolution |
US9626622B2 (en) | 2014-12-15 | 2017-04-18 | International Business Machines Corporation | Training a question/answer system using answer keys based on forum content |
JP2017157011A (en) * | 2016-03-02 | 2017-09-07 | 株式会社アイ・ビジネスセンター | Conversation system and program |
US9792825B1 (en) | 2016-05-27 | 2017-10-17 | The Affinity Project, Inc. | Triggering a session with a virtual companion |
US9802125B1 (en) | 2016-05-27 | 2017-10-31 | The Affinity Project, Inc. | On demand guided virtual companion |
US9811515B2 (en) | 2014-12-11 | 2017-11-07 | International Business Machines Corporation | Annotating posts in a forum thread with improved data |
US9990434B2 (en) | 2014-12-02 | 2018-06-05 | International Business Machines Corporation | Ingesting forum content |
US10140882B2 (en) | 2016-05-27 | 2018-11-27 | The Affinity Project, Inc. | Configuring a virtual companion |
JP2019101659A (en) * | 2017-11-30 | 2019-06-24 | 株式会社サイバーエージェント | Chat system, server, chat method, terminal device and computer program |
CN111241847A (en) * | 2020-01-15 | 2020-06-05 | 深圳前海微众银行股份有限公司 | Method and device for identifying conversation emotion reason |
WO2020225988A1 (en) * | 2019-05-09 | 2020-11-12 | ソニー株式会社 | Information processing device, information processing method, and program |
US20230223005A1 (en) * | 2020-04-21 | 2023-07-13 | Ntt Docomo, Inc. | Voice data creation device |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005339368A (en) * | 2004-05-28 | 2005-12-08 | Ntt Docomo Inc | Emotion grasping system and emotion grasping method |
-
2010
- 2010-10-27 JP JP2010240953A patent/JP5539842B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005339368A (en) * | 2004-05-28 | 2005-12-08 | Ntt Docomo Inc | Emotion grasping system and emotion grasping method |
Non-Patent Citations (4)
Title |
---|
CSNG200701025007; 竹内 将吾、外3名: '対話者好感度に基づく感性会話ロボットの感情生成モデル' 日本ロボット学会誌 第25巻,第7号, 20071015, p.103-111, 社団法人日本ロボット学会 * |
CSNG200701039010; 小澤 朋之、外3名: '癒し系ロボットPDDINの分析および福祉と認知リハビリテーションへの応用に関する考察' 電子情報通信学会技術研究報告 第106巻,第488号, 20070119, p.55-60, 社団法人電子情報通信学会 * |
JPN6014014714; 竹内 将吾、外3名: '対話者好感度に基づく感性会話ロボットの感情生成モデル' 日本ロボット学会誌 第25巻,第7号, 20071015, p.103-111, 社団法人日本ロボット学会 * |
JPN6014014717; 小澤 朋之、外3名: '癒し系ロボットPDDINの分析および福祉と認知リハビリテーションへの応用に関する考察' 電子情報通信学会技術研究報告 第106巻,第488号, 20070119, p.55-60, 社団法人電子情報通信学会 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015014834A (en) * | 2013-07-03 | 2015-01-22 | 株式会社Lassic | Feeling estimation system and program by mechanic dialog |
JP2016036500A (en) * | 2014-08-07 | 2016-03-22 | シャープ株式会社 | Audio output device, network system, audio output method, and audio output program |
US10180988B2 (en) | 2014-12-02 | 2019-01-15 | International Business Machines Corporation | Persona-based conversation |
WO2016087982A1 (en) * | 2014-12-02 | 2016-06-09 | International Business Machines Corporation | Persona-based profiles in question answering system |
US10102289B2 (en) | 2014-12-02 | 2018-10-16 | International Business Machines Corporation | Ingesting forum content |
US9990434B2 (en) | 2014-12-02 | 2018-06-05 | International Business Machines Corporation | Ingesting forum content |
US9626352B2 (en) | 2014-12-02 | 2017-04-18 | International Business Machines Corporation | Inter thread anaphora resolution |
US10169466B2 (en) | 2014-12-02 | 2019-01-01 | International Business Machines Corporation | Persona-based conversation |
US9811515B2 (en) | 2014-12-11 | 2017-11-07 | International Business Machines Corporation | Annotating posts in a forum thread with improved data |
US9626622B2 (en) | 2014-12-15 | 2017-04-18 | International Business Machines Corporation | Training a question/answer system using answer keys based on forum content |
US9710613B2 (en) * | 2014-12-16 | 2017-07-18 | The Affinity Project, Inc. | Guided personal companion |
US9704103B2 (en) * | 2014-12-16 | 2017-07-11 | The Affinity Project, Inc. | Digital companions for human users |
US10235620B2 (en) | 2014-12-16 | 2019-03-19 | The Affinity Project, Inc. | Guided personal companion |
US20160171971A1 (en) * | 2014-12-16 | 2016-06-16 | The Affinity Project, Inc. | Guided personal companion |
US20160171387A1 (en) * | 2014-12-16 | 2016-06-16 | The Affinity Project, Inc. | Digital companions for human users |
JP2017010517A (en) * | 2015-06-25 | 2017-01-12 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Human-machine intelligence chatting method with artificial intelligence and device therefor |
CN105094315B (en) * | 2015-06-25 | 2018-03-06 | 百度在线网络技术(北京)有限公司 | The method and apparatus of human-machine intelligence's chat based on artificial intelligence |
CN105094315A (en) * | 2015-06-25 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | Method and apparatus for smart man-machine chat based on artificial intelligence |
JP2017157011A (en) * | 2016-03-02 | 2017-09-07 | 株式会社アイ・ビジネスセンター | Conversation system and program |
US9792825B1 (en) | 2016-05-27 | 2017-10-17 | The Affinity Project, Inc. | Triggering a session with a virtual companion |
US10140882B2 (en) | 2016-05-27 | 2018-11-27 | The Affinity Project, Inc. | Configuring a virtual companion |
US9802125B1 (en) | 2016-05-27 | 2017-10-31 | The Affinity Project, Inc. | On demand guided virtual companion |
JP2019101659A (en) * | 2017-11-30 | 2019-06-24 | 株式会社サイバーエージェント | Chat system, server, chat method, terminal device and computer program |
WO2020225988A1 (en) * | 2019-05-09 | 2020-11-12 | ソニー株式会社 | Information processing device, information processing method, and program |
CN111241847A (en) * | 2020-01-15 | 2020-06-05 | 深圳前海微众银行股份有限公司 | Method and device for identifying conversation emotion reason |
US20230223005A1 (en) * | 2020-04-21 | 2023-07-13 | Ntt Docomo, Inc. | Voice data creation device |
Also Published As
Publication number | Publication date |
---|---|
JP5539842B2 (en) | 2014-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5539842B2 (en) | Dialogue processing device | |
US11138974B2 (en) | Privacy mode based on speaker identifier | |
US7228276B2 (en) | Sound processing registering a word in a dictionary | |
JP3940363B2 (en) | Hierarchical language model | |
JP6601069B2 (en) | Dialog control apparatus, dialog control method, and program | |
CN1855224B (en) | Information processing device, information processing method | |
JP5768093B2 (en) | Speech processing system | |
US10854191B1 (en) | Machine learning models for data driven dialog management | |
US20110301953A1 (en) | System and method of multi model adaptation and voice recognition | |
US20020198717A1 (en) | Method and apparatus for voice synthesis and robot apparatus | |
JP2017107078A (en) | Voice dialogue method, voice dialogue apparatus, and voice dialogue program | |
US20250124080A1 (en) | Artificial intelligence device, and method for operating artificial intelligence device | |
JP2023055910A (en) | Robot, dialogue system, information processing method, and program | |
JP2014038282A (en) | Prosody editing apparatus, prosody editing method and program | |
KR101985793B1 (en) | Method, system and non-transitory computer-readable recording medium for providing chat service using an autonomous robot | |
US20250200293A1 (en) | Natural language generation | |
US10593319B1 (en) | Parallelization of instruction steps | |
CN111128175B (en) | Oral dialogue management method and system | |
US11990115B2 (en) | Road map for audio presentation of communications | |
US20090222266A1 (en) | Apparatus, method, and recording medium for clustering phoneme models | |
CN119272873A (en) | Emotion output method, device and robot | |
JP2017194510A (en) | Acoustic model learning device, voice synthesis device, methods therefor and programs | |
US20200387347A1 (en) | Audio presentation of conversation threads | |
JP2004309523A (en) | System and method for sharing operation pattern of robot device, and robot device | |
JP6376486B2 (en) | Acoustic model generation apparatus, acoustic model generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131011 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5539842 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140501 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |